El sesgo inductivo (también conocido como sesgo de aprendizaje ) de un algoritmo de aprendizaje es el conjunto de suposiciones que el alumno utiliza para predecir los resultados de las entradas dadas que no ha encontrado. [1] El sesgo inductivo es cualquier cosa que haga que el algoritmo aprenda un patrón en lugar de otro (por ejemplo, funciones escalonadas en árboles de decisión en lugar de funciones continuas en modelos de regresión lineal ). El aprendizaje implica buscar en un espacio de soluciones una que se espera que proporcione una mejor explicación de los datos. Sin embargo, en muchos casos, puede haber múltiples soluciones igualmente apropiadas. [2] Un sesgo inductivo permite que un algoritmo de aprendizaje priorice una solución (o interpretación) sobre otra, independientemente de los datos observados. [3]
En el aprendizaje automático , el objetivo es construir algoritmos que puedan aprender a predecir un determinado resultado objetivo. Para lograrlo, se presentan al algoritmo de aprendizaje algunos ejemplos de entrenamiento que demuestran la relación prevista entre los valores de entrada y salida. Luego, se supone que el alumno debe aproximarse al resultado correcto, incluso para ejemplos que no se han mostrado durante el entrenamiento. Sin ninguna suposición adicional, este problema no se puede resolver, ya que las situaciones no vistas pueden tener un valor de salida arbitrario. El tipo de suposiciones necesarias sobre la naturaleza de la función objetivo se incluyen en la frase sesgo inductivo . [1] [4]
Un ejemplo clásico de sesgo inductivo es la navaja de Occam , que supone que la hipótesis consistente más simple sobre la función objetivo es en realidad la mejor. En este caso, consistente significa que la hipótesis del alumno produce resultados correctos para todos los ejemplos que se le han dado al algoritmo.
Los enfoques para una definición más formal del sesgo inductivo se basan en la lógica matemática . Aquí, el sesgo inductivo es una fórmula lógica que, junto con los datos de entrenamiento, implica lógicamente la hipótesis generada por el alumno. Sin embargo, este formalismo estricto falla en muchos casos prácticos en los que el sesgo inductivo solo puede darse como una descripción aproximada (por ejemplo, en el caso de las redes neuronales artificiales ), o no puede darse en absoluto.
La siguiente es una lista de sesgos inductivos comunes en los algoritmos de aprendizaje automático.
Aunque la mayoría de los algoritmos de aprendizaje tienen un sesgo estático, algunos algoritmos están diseñados para cambiar su sesgo a medida que adquieren más datos. [5] Esto no evita el sesgo, ya que el proceso de cambio de sesgo en sí mismo debe tener un sesgo.
{{cite book}}
: Mantenimiento CS1: fecha y año ( enlace )