stringtranslate.com

Algoritmo de adaptación posterior

En estadística , el algoritmo de ajuste retrospectivo es un procedimiento iterativo simple que se utiliza para ajustar un modelo aditivo generalizado . Fue introducido en 1985 por Leo Breiman y Jerome Friedman junto con los modelos aditivos generalizados. En la mayoría de los casos, el algoritmo de ajuste retrospectivo es equivalente al método de Gauss-Seidel , un algoritmo utilizado para resolver un determinado sistema lineal de ecuaciones .

Algoritmo

Los modelos aditivos son una clase de modelos de regresión no paramétricos de la forma:

donde cada una es una variable en nuestro predictor -dimensional , y es nuestra variable de resultado. representa nuestro error inherente, que se supone que tiene media cero. Las representan funciones suaves no especificadas de un solo . Dada la flexibilidad en el , normalmente no tenemos una solución única: se deja sin identificar ya que se puede agregar cualquier constante a cualquiera de los y restar este valor de . Es común rectificar esto restringiendo

a pesar de

partida

necesariamente.

El algoritmo de retroajuste es entonces:

 Inicializar , Hacer hasta converger: Para cada predictor j : (a) (paso de retroajuste) (b) (centrado medio de la función estimada)   

¿Dónde está nuestro operador de suavizado? Normalmente, se elige como suavizador de spline cúbico, pero puede ser cualquier otra operación de ajuste adecuada, como:

En teoría, el paso (b) del algoritmo no es necesario, ya que las estimaciones de la función están limitadas a sumar cero. Sin embargo, debido a cuestiones numéricas, esto podría convertirse en un problema en la práctica. [1]

Motivación

Si consideramos el problema de minimizar el error cuadrático esperado:

Existe una solución única por la teoría de proyecciones dada por:

para i  = 1, 2, ...,  p .

Esto da la interpretación de la matriz:

donde . En este contexto podemos imaginar una matriz más suave, , que se aproxima a nuestra y da una estimación, , de

o en forma abreviada

No es posible calcular una solución exacta para un valor np grande , por lo que se utiliza la técnica iterativa de ajuste retrospectivo. Tomamos estimaciones iniciales y actualizamos cada una de ellas para que sea el ajuste suavizado de los residuos de todas las demás:

Mirando la forma abreviada es fácil ver que el algoritmo de retroajuste es equivalente al método de Gauss-Seidel para operadores de suavizado lineal S .

Derivación explícita para dos dimensiones

A continuación, [2] podemos formular el algoritmo de ajuste retrospectivo explícitamente para el caso bidimensional. Tenemos:

Si denotamos como la estimación de en el i -ésimo paso de actualización, los pasos de retroajuste son

Por inducción obtenemos

y

Si lo establecemos entonces obtenemos

Donde lo hemos resuelto conectando directamente desde .

Tenemos convergencia si . En este caso, siendo :

Podemos comprobar que esta es una solución al problema, es decir, que y convergen a y correspondientemente, introduciendo estas expresiones en las ecuaciones originales.

Asuntos

La elección de cuándo detener el algoritmo es arbitraria y es difícil saber a priori cuánto tiempo llevará alcanzar un umbral de convergencia específico. Además, el modelo final depende del orden en que se ajusten las variables predictoras.

Además, la solución encontrada mediante el procedimiento de ajuste no es única. Si es un vector tal que desde arriba, entonces si es una solución, entonces también es una solución para cualquier . Una modificación del algoritmo de ajuste que implica proyecciones sobre el espacio propio de S puede solucionar este problema.

Algoritmo modificado

Podemos modificar el algoritmo de ajuste para facilitar la obtención de una solución única. Sea el espacio abarcado por todos los vectores propios de S i que corresponden al valor propio 1. Entonces, cualquier b que satisfaga tiene y Ahora, si tomamos como una matriz que se proyecta ortogonalmente sobre , obtenemos el siguiente algoritmo de ajuste modificado:

 Inicializar , , Hacer hasta converger:  Regresar al espacio , estableciendo para cada predictor j :  Aplique la actualización de retroajuste al usar el operador de suavizado , lo que produce nuevas estimaciones para

Referencias

  1. ^ Hastie, Trevor , Robert Tibshirani y Jerome Friedman (2001). Los elementos del aprendizaje estadístico: minería de datos, inferencia y predicción . Springer, ISBN  0-387-95284-5 .
  2. ^ Härdle, Wolfgang; et al. (9 de junio de 2004). "Backfitting". Archivado desde el original el 10 de mayo de 2015. Consultado el 19 de agosto de 2015.

Enlaces externos