stringtranslate.com

Error de generalización

Para aplicaciones de aprendizaje supervisado en aprendizaje automático y teoría de aprendizaje estadístico , el error de generalización [1] (también conocido como error fuera de muestra [2] o riesgo ) es una medida de la precisión con la que un algoritmo es capaz de predecir valores de resultados para datos no vistos previamente. Debido a que los algoritmos de aprendizaje se evalúan en muestras finitas, la evaluación de un algoritmo de aprendizaje puede ser sensible al error de muestreo . Como resultado, las mediciones del error de predicción en los datos actuales pueden no proporcionar mucha información sobre la capacidad predictiva en nuevos datos. El error de generalización se puede minimizar evitando el sobreajuste en el algoritmo de aprendizaje. El rendimiento de un algoritmo de aprendizaje automático se visualiza mediante gráficos que muestran valores de estimaciones del error de generalización a través del proceso de aprendizaje, que se denominan curvas de aprendizaje .

Definición

En un problema de aprendizaje, el objetivo es desarrollar una función que prediga valores de salida para cada dato de entrada . El subíndice indica que la función se desarrolla en función de un conjunto de puntos de datos. El error de generalización o la pérdida esperada o el riesgo de una función particular sobre todos los valores posibles de y es el valor esperado de la función de pérdida : [1]

¿Dónde está la distribución de probabilidad conjunta desconocida para y ?

Sin conocer la distribución de probabilidad conjunta , es imposible calcular . En cambio, podemos calcular el error en los datos de muestra, que se denomina error empírico (o riesgo empírico ). Dados los puntos de datos, el error empírico de una función candidata es:

Se dice que un algoritmo se generaliza si:

De particular importancia es el error de generalización de la función dependiente de los datos que se encuentra mediante un algoritmo de aprendizaje basado en la muestra. Nuevamente, para una distribución de probabilidad desconocida, no se puede calcular. En cambio, el objetivo de muchos problemas en la teoría del aprendizaje estadístico es limitar o caracterizar la diferencia entre el error de generalización y el error empírico en la probabilidad:

Es decir, el objetivo es caracterizar la probabilidad de que el error de generalización sea menor que el error empírico más algún límite de error (generalmente dependiente de y ). Para muchos tipos de algoritmos, se ha demostrado que un algoritmo tiene límites de generalización si cumple ciertos criterios de estabilidad . Específicamente, si un algoritmo es simétrico (el orden de las entradas no afecta el resultado), tiene pérdida limitada y cumple dos condiciones de estabilidad, se generalizará. La primera condición de estabilidad, estabilidad de validación cruzada de dejar uno fuera , dice que para ser estable, el error de predicción para cada punto de datos cuando se utiliza la validación cruzada de dejar uno fuera debe converger a cero como . La segunda condición, estabilidad del error esperado para dejar uno fuera (también conocida como estabilidad de hipótesis si opera en la norma ) se cumple si la predicción en un punto de datos excluido no cambia cuando se elimina un solo punto de datos del conjunto de datos de entrenamiento. [3]

Estas condiciones pueden formalizarse como:

Validación cruzada con exclusión de uno Estabilidad

Un algoritmo tiene estabilidad si para cada , existe un y tal que:

y va a cero como tiende al infinito. [3]

Error esperado de dejar uno fuera Estabilidad

Un algoritmo tiene estabilidad si para cada uno existe un y un tales que:

con y yendo a cero para .

Para la estabilidad de dejar uno fuera en la norma, esto es lo mismo que la estabilidad de la hipótesis:

con tendencia a cero como tendencia al infinito. [3]

Algoritmos con estabilidad demostrada

Se ha demostrado que varios algoritmos son estables y, como resultado, tienen límites en su error de generalización. Aquí se encuentra disponible una lista de estos algoritmos y los artículos que demostraron su estabilidad .

Relación con el sobreajuste

Esta figura ilustra la relación entre el sobreajuste y el error de generalización I [ f n ] - I S [ f n ]. Los puntos de datos se generaron a partir de la relación y = x con ruido blanco agregado a los valores y . En la columna de la izquierda, se muestra un conjunto de puntos de entrenamiento en azul. Se ajustó una función polinómica de séptimo orden a los datos de entrenamiento. En la columna de la derecha, la función se prueba en datos muestreados de la distribución de probabilidad conjunta subyacente de x e y . En la fila superior, la función se ajusta a un conjunto de datos de muestra de 10 puntos de datos. En la fila inferior, la función se ajusta a un conjunto de datos de muestra de 100 puntos de datos. Como podemos ver, para tamaños de muestra pequeños y funciones complejas, el error en el conjunto de entrenamiento es pequeño, pero el error en la distribución subyacente de datos es grande y hemos sobreajustado los datos. Como resultado, el error de generalización es grande. A medida que aumenta la cantidad de puntos de muestra, el error de predicción en los datos de entrenamiento y prueba converge y el error de generalización llega a 0.

Los conceptos de error de generalización y sobreajuste están estrechamente relacionados. El sobreajuste ocurre cuando la función aprendida se vuelve sensible al ruido en la muestra. Como resultado, la función tendrá un buen desempeño en el conjunto de entrenamiento, pero no en otros datos de la distribución de probabilidad conjunta de y . Por lo tanto, cuanto mayor sea el sobreajuste, mayor será el error de generalización.

La cantidad de sobreajuste se puede probar utilizando métodos de validación cruzada , que dividen la muestra en muestras de entrenamiento simuladas y muestras de prueba. Luego, el modelo se entrena en una muestra de entrenamiento y se evalúa en la muestra de prueba. La muestra de prueba no ha sido vista previamente por el algoritmo y, por lo tanto, representa una muestra aleatoria de la distribución de probabilidad conjunta de y . Esta muestra de prueba nos permite aproximar el error esperado y, como resultado, aproximarnos a una forma particular del error de generalización.

Existen muchos algoritmos para evitar el sobreajuste. El algoritmo de minimización puede penalizar funciones más complejas (conocido como regularización de Tikhonov ) o se puede restringir el espacio de hipótesis, ya sea explícitamente en la forma de las funciones o agregando restricciones a la función de minimización (regularización de Ivanov).

El enfoque para encontrar una función que no se sobreajuste es incompatible con el objetivo de encontrar una función que sea lo suficientemente compleja para capturar las características particulares de los datos. Esto se conoce como el equilibrio entre sesgo y varianza . Mantener una función simple para evitar el sobreajuste puede introducir un sesgo en las predicciones resultantes, mientras que permitir que sea más compleja conduce al sobreajuste y a una mayor varianza en las predicciones. Es imposible minimizar ambos simultáneamente.

Referencias

  1. ^ ab Mohri, M., Rostamizadeh A., Talwakar A., ​​(2018) Fundamentos del aprendizaje automático , 2.ª ed., Boston: MIT Press
  2. ^ Y S. Abu-Mostafa, M. Magdon-Ismail y H.-T. Lin (2012) Aprendiendo de los datos, AMLBook Press. ISBN  978-1600490064
  3. ^ abc Mukherjee, S.; Niyogi, P.; Poggio, T.; Rifkin., RM (2006). "Teoría del aprendizaje: la estabilidad es suficiente para la generalización y necesaria y suficiente para la consistencia de la minimización empírica del riesgo" (PDF) . Adv. Comput. Math . 25 (1–3): 161–193. doi :10.1007/s10444-004-7634-z. S2CID  2240256.

Lectura adicional