La regularización espectral es una clase de técnicas de regularización que se utilizan en el aprendizaje automático para controlar el impacto del ruido y evitar el sobreajuste . La regularización espectral se puede utilizar en una amplia gama de aplicaciones, desde la corrección de imágenes borrosas hasta la clasificación de correos electrónicos en una carpeta de correo no deseado y una carpeta de correo no deseado. Por ejemplo, en el ejemplo de clasificación de correo electrónico, la regularización espectral se puede utilizar para reducir el impacto del ruido y evitar el sobreajuste cuando se entrena un sistema de aprendizaje automático en un conjunto etiquetado de correos electrónicos para aprender a distinguir un correo electrónico no deseado de uno que no lo es.
Los algoritmos de regularización espectral se basan en métodos que se definieron y estudiaron originalmente en la teoría de problemas inversos mal planteados (por ejemplo, consulte [1] ) centrándose en la inversión de un operador lineal (o una matriz) que posiblemente tenga un número de condición incorrecto o una inversa ilimitada. En este contexto, la regularización equivale a sustituir el operador original por un operador acotado llamado "operador de regularización" que tiene un número de condición controlado por un parámetro de regularización, [2] un ejemplo clásico es la regularización de Tikhonov . Para garantizar la estabilidad, este parámetro de regularización se ajusta en función del nivel de ruido. [2] La idea principal detrás de la regularización espectral es que cada operador de regularización puede describirse utilizando el cálculo espectral como un filtro apropiado sobre los valores propios del operador que define el problema, y el papel del filtro es "suprimir el comportamiento oscilatorio correspondiente a valores propios pequeños". [2] Por lo tanto, cada algoritmo en la clase de algoritmos de regularización espectral se define mediante una función de filtro adecuada (que debe derivarse para ese algoritmo en particular). Tres de los algoritmos de regularización más utilizados y cuyo filtrado espectral ha sido ampliamente estudiado son la regularización de Tikhonov, la iteración de Landweber y la descomposición en valores singulares truncados (TSVD). En cuanto a la elección del parámetro de regularización, algunos ejemplos de métodos candidatos para calcular este parámetro incluyen el principio de discrepancia, la validación cruzada generalizada y el criterio de la curva L. [3]
Cabe destacar que la noción de filtrado espectral estudiada en el contexto del aprendizaje automático está estrechamente relacionada con la literatura sobre aproximación de funciones (en procesamiento de señales).
El conjunto de entrenamiento se define como , donde es la matriz de entrada y es el vector de salida. Cuando corresponde, la función kernel se denota por , y la matriz kernel se denota por que tiene entradas y denota el espacio de Hilbert de kernel reproductor (RKHS) con kernel . El parámetro de regularización se denota por .
(Nota: Para y , con y siendo espacios de Hilbert, dado un operador lineal y continuo , suponga que se cumple. En este contexto, el problema directo sería resolver para dado y el problema inverso sería resolver para dado . Si la solución existe, es única y estable, el problema inverso (es decir, el problema de resolver para ) está bien planteado; de lo contrario, está mal planteado).
La conexión entre el problema de estimación de mínimos cuadrados regularizados (RLS) (configuración de regularización de Tikhonov) y la teoría de problemas inversos mal planteados es un ejemplo de cómo los algoritmos de regularización espectral se relacionan con la teoría de problemas inversos mal planteados.
El estimador RLS resuelve y el RKHS permite expresar este estimador RLS como donde con . [4] El término de penalización se utiliza para controlar la suavidad y evitar el sobreajuste. Dado que la solución de minimización de riesgo empírico se puede escribir como tal que , agregar la función de penalización equivale al siguiente cambio en el sistema que necesita ser resuelto: [5]
En este contexto de aprendizaje, la matriz kernel se puede descomponer como , donde y son los vectores propios correspondientes. Por lo tanto, en el contexto de aprendizaje inicial, se cumple lo siguiente:
Por lo tanto, para valores propios pequeños, incluso pequeñas perturbaciones en los datos pueden llevar a cambios considerables en la solución. Por lo tanto, el problema está mal condicionado, y resolver este problema RLS equivale a estabilizar un problema de inversión de matrices posiblemente mal condicionado, que se estudia en la teoría de problemas inversos mal planteados; en ambos problemas, una preocupación principal es abordar la cuestión de la estabilidad numérica.
Cada algoritmo de la clase de algoritmos de regularización espectral se define mediante una función de filtro adecuada, denotada aquí por . Si la matriz Kernel se denota por , entonces debería controlar la magnitud de los valores propios más pequeños de . En una configuración de filtrado, el objetivo es encontrar estimadores donde . Para ello, se define una función de filtro escalar utilizando la descomposición propia de la matriz kernel: que produce
Normalmente, una función de filtro adecuada debe tener las siguientes propiedades: [5]
Si bien los elementos anteriores brindan una caracterización aproximada de las propiedades generales de las funciones de filtro para todos los algoritmos de regularización espectral, la derivación de la función de filtro (y, por lo tanto, su forma exacta) varía según el método de regularización específico al que se aplica el filtrado espectral.
En la configuración de regularización de Tikhonov, la función de filtro para RLS se describe a continuación. Como se muestra en [4] en esta configuración, . Por lo tanto,
Los componentes no deseados se filtran mediante regularización:
Por lo tanto, la función de filtro para la regularización de Tikhonov se define como: [5]
La idea detrás de la iteración de Landweber es el descenso de gradiente : [5]
c 0 := 0 para i = 1, ..., t − 1 c i := c i −1 + η ( Y − Kc i −1 ) fin
En este contexto, si es mayor que el valor propio más grande de , la iteración anterior converge eligiendo como tamaño de paso:. [5] La iteración anterior es equivalente a minimizar (es decir, el riesgo empírico) a través del descenso de gradiente; utilizando la inducción, se puede demostrar que en la iteración -ésima, la solución está dada por [5]
Por tanto, la función de filtro adecuada se define mediante:
Se puede demostrar que esta función de filtro corresponde a una expansión de potencia truncada de ; [5] para ver esto, note que la relación , todavía se cumpliría si se reemplaza por una matriz; por lo tanto, si se considera (la matriz kernel), o más bien , se cumple lo siguiente:
En este contexto, el número de iteraciones proporciona el parámetro de regularización; en términos generales, . [5] Si es grande, el sobreajuste puede ser un problema. Si es pequeño, el sobresuavizado puede ser un problema. Por lo tanto, elegir un momento apropiado para detener temprano las iteraciones proporciona un efecto de regularización.
En la configuración TSVD, dada la descomposición propia y utilizando un umbral prescrito , se puede formar una inversa regularizada para la matriz kernel descartando todos los valores propios que sean menores que este umbral. [5] Por lo tanto, la función de filtro para TSVD se puede definir como
Se puede demostrar que TSVD es equivalente a la proyección (no supervisada) de los datos utilizando el Análisis de Componentes Principales (PCA) (kernel), y que también es equivalente a minimizar el riesgo empírico en los datos proyectados (sin regularización). [5] Nótese que el número de componentes mantenidos para la proyección es el único parámetro libre aquí.