stringtranslate.com

Regresión polinómica

En estadística , la regresión polinómica es una forma de análisis de regresión en la que la relación entre la variable independiente x y la variable dependiente y se modela como un polinomio de grado n en x . La regresión polinómica ajusta una relación no lineal entre el valor de x y la media condicional correspondiente de y , denotada como E( y  | x ). Aunque la regresión polinómica ajusta un modelo no lineal a los datos, como problema de estimación estadística es lineal, en el sentido de que la función de regresión E( y  |  x ) es lineal en los parámetros desconocidos que se estiman a partir de los datos . Por esta razón, la regresión polinómica se considera un caso especial de regresión lineal múltiple . [1]

Las variables explicativas (independientes) resultantes de la expansión polinómica de las variables "base" se conocen como términos de grado superior. Dichas variables también se utilizan en contextos de clasificación . [2]

Historia

Los modelos de regresión polinómica se ajustan habitualmente mediante el método de mínimos cuadrados . El método de mínimos cuadrados minimiza la varianza de los estimadores insesgados de los coeficientes, en las condiciones del teorema de Gauss-Markov . El método de mínimos cuadrados fue publicado en 1805 por Legendre y en 1809 por Gauss . El primer diseño de un experimento para la regresión polinómica apareció en un artículo de 1815 de Gergonne . [3] [4] En el siglo XX, la regresión polinómica jugó un papel importante en el desarrollo del análisis de regresión , con un mayor énfasis en cuestiones de diseño e inferencia . [5] Más recientemente, el uso de modelos polinómicos se ha complementado con otros métodos, y los modelos no polinómicos tienen ventajas para algunas clases de problemas. [ cita requerida ]

Definición y ejemplo

Ajuste de regresión polinómica cúbica a un conjunto de datos simulados. La banda de confianza es una banda de confianza simultánea del 95 % construida mediante el método Scheffé .

El objetivo del análisis de regresión es modelar el valor esperado de una variable dependiente y en términos del valor de una variable independiente (o vector de variables independientes) x . En la regresión lineal simple, el modelo

Se utiliza , donde ε es un error aleatorio no observado con media cero condicionado a una variable escalar x . En este modelo, por cada aumento unitario en el valor de x , la esperanza condicional de y aumenta en β 1 unidades.

En muchos casos, esta relación lineal puede no ser válida. Por ejemplo, si estamos modelando el rendimiento de una síntesis química en función de la temperatura a la que se lleva a cabo la síntesis, podemos encontrar que el rendimiento mejora con cantidades cada vez mayores por cada unidad de incremento de temperatura. En este caso, podríamos proponer un modelo cuadrático de la forma

En este modelo, cuando la temperatura aumenta de x a x  + 1 unidades, el rendimiento esperado cambia en (Esto se puede ver reemplazando x en esta ecuación con x +1 y restando la ecuación en x de la ecuación en x +1). Para cambios infinitesimales en x , el efecto en y está dado por la derivada total con respecto a x : El hecho de que el cambio en el rendimiento dependa de x es lo que hace que la relación entre x e y no sea lineal aunque el modelo sea lineal en los parámetros a estimar.

En general, podemos modelar el valor esperado de y como un polinomio de grado n, obteniendo el modelo de regresión polinomial general

Convenientemente, estos modelos son todos lineales desde el punto de vista de la estimación , ya que la función de regresión es lineal en términos de los parámetros desconocidos β 0 , β 1 , .... Por lo tanto, para el análisis de mínimos cuadrados , los problemas computacionales e inferenciales de la regresión polinómica se pueden abordar completamente utilizando las técnicas de regresión múltiple . Esto se hace tratando xx 2 , ... como variables independientes distintas en un modelo de regresión múltiple.

Forma matricial y cálculo de estimaciones

El modelo de regresión polinómica

se puede expresar en forma matricial en términos de una matriz de diseño , un vector de respuesta , un vector de parámetros y un vector de errores aleatorios. La fila i de y contendrá los valores x e y para la muestra de datos i . Luego, el modelo se puede escribir como un sistema de ecuaciones lineales :

que cuando se utiliza notación matricial pura se escribe como

El vector de coeficientes de regresión polinomial estimados (usando estimación de mínimos cuadrados ordinarios ) es

suponiendo que m < n es el valor requerido para que la matriz sea invertible; entonces, como es una matriz de Vandermonde , se garantiza que la condición de invertibilidad se cumple si todos los valores son distintos. Esta es la única solución de mínimos cuadrados.

Fórmulas expandidas

Las ecuaciones matriciales anteriores explican bien el comportamiento de la regresión polinómica. Sin embargo, para implementar físicamente la regresión polinómica para un conjunto de pares de puntos xy, es útil contar con más detalles. Las ecuaciones matriciales siguientes para coeficientes polinómicos se expanden a partir de la teoría de regresión sin derivación y se implementan fácilmente. [6] [7] [8]

Después de resolver el sistema de ecuaciones lineales anterior para , el polinomio de regresión se puede construir de la siguiente manera:

Interpretación

Aunque la regresión polinómica es técnicamente un caso especial de regresión lineal múltiple, la interpretación de un modelo de regresión polinómica ajustado requiere una perspectiva algo diferente. A menudo es difícil interpretar los coeficientes individuales en un ajuste de regresión polinómica, ya que los monomios subyacentes pueden estar altamente correlacionados. Por ejemplo, x y x 2 tienen una correlación de alrededor de 0,97 cuando x se distribuye uniformemente en el intervalo (0, 1). Aunque la correlación se puede reducir utilizando polinomios ortogonales , generalmente es más informativo considerar la función de regresión ajustada como un todo. Luego se pueden utilizar bandas de confianza puntuales o simultáneas para proporcionar una idea de la incertidumbre en la estimación de la función de regresión.

Enfoques alternativos

La regresión polinómica es un ejemplo de análisis de regresión que utiliza funciones base para modelar una relación funcional entre dos cantidades. Más específicamente, reemplaza en regresión lineal con base polinómica , p. ej . Un inconveniente de las bases polinómicas es que las funciones base son "no locales", lo que significa que el valor ajustado de y en un valor dado x  =  x 0 depende en gran medida de los valores de datos con x lejos de x 0 . [9] En las estadísticas modernas, las funciones base polinómicas se utilizan junto con nuevas funciones base , como splines , funciones base radiales y wavelets . Estas familias de funciones base ofrecen un ajuste más parsimonioso para muchos tipos de datos.

El objetivo de la regresión polinómica es modelar una relación no lineal entre las variables independientes y dependientes (técnicamente, entre la variable independiente y la media condicional de la variable dependiente). Esto es similar al objetivo de la regresión no paramétrica , que apunta a capturar relaciones de regresión no lineal. Por lo tanto, los enfoques de regresión no paramétrica como el suavizado pueden ser alternativas útiles a la regresión polinómica. Algunos de estos métodos hacen uso de una forma localizada de regresión polinómica clásica. [10] Una ventaja de la regresión polinómica tradicional es que se puede utilizar el marco inferencial de regresión múltiple (esto también se aplica cuando se utilizan otras familias de funciones base como splines).

Una última alternativa es utilizar modelos kernelizados como la regresión de vectores de soporte con un núcleo polinomial .

Si los residuos tienen varianzas desiguales , se puede utilizar un estimador de mínimos cuadrados ponderados para tenerlo en cuenta. [11]

Véase también

Notas

Referencias

  1. ^ "Implementación de regresión polinómica". GeeksforGeeks . 2018-10-03 . Consultado el 2024-08-25 .
  2. ^ Yin-Wen Chang; Cho-Jui Hsieh; Kai-Wei Chang; Michael Ringgaard; Chih-Jen Lin (2010). "Entrenamiento y prueba de asignaciones de datos polinomiales de bajo grado a través de SVM lineal". Revista de investigación en aprendizaje automático . 11 : 1471–1490.
  3. ^ Gergonne, JD (noviembre de 1974) [1815]. "La aplicación del método de mínimos cuadrados a la interpolación de secuencias". Historia Mathematica . 1 (4) (Traducido por Ralph St. John y SM Stigler de la edición francesa de 1815): 439–447. doi :10.1016/0315-0860(74)90034-2.
  4. ^ Stigler, Stephen M. (noviembre de 1974). "Artículo de Gergonne de 1815 sobre el diseño y análisis de experimentos de regresión polinómica". Historia Mathematica . 1 (4): 431–439. doi :10.1016/0315-0860(74)90033-0.
  5. ^ Smith, Kirstine (1918). "Sobre las desviaciones estándar de los valores ajustados e interpolados de una función polinómica observada y sus constantes y la orientación que proporcionan hacia una elección adecuada de la distribución de las observaciones". Biometrika . 12 (1/2): 1–85. doi :10.2307/2331929. JSTOR  2331929.
  6. ^ Muthukrishnan, Gowri (17 de junio de 2018). "Matemáticas detrás de la regresión polinomial, Muthukrishnan". Matemáticas detrás de la regresión polinomial . Consultado el 30 de enero de 2024 .
  7. ^ "Matemáticas de la regresión polinómica". Regresión polinómica, una clase de regresión de PHP .
  8. ^ Devore, Jay L. (1995). Probabilidad y estadística para ingeniería y ciencias (4.ª ed.). Estados Unidos: Brooks/Cole Publishing Company. Págs. 539–542. ISBN. 0-534-24264-2.
  9. ^ Este comportamiento "no local" es una propiedad de las funciones analíticas que no son constantes (en todas partes). Este comportamiento "no local" ha sido ampliamente discutido en estadística:
    • Magee, Lonnie (1998). "Comportamiento no local en regresiones polinómicas". The American Statistician . 52 (1): 20–22. doi :10.2307/2685560. JSTOR  2685560.
  10. ^ Fan, Jianqing (1996). Modelado polinomial local y sus aplicaciones: de la regresión lineal a la regresión no lineal . Monografías sobre estadística y probabilidad aplicada. Chapman & Hall/CRC. ISBN 978-0-412-98321-4.
  11. ^ Conte, SD; De Boor, C. (2018). Análisis numérico elemental: un enfoque algorítmico. Clásicos en matemáticas aplicadas. Sociedad de matemáticas industriales y aplicadas (SIAM, 3600 Market Street, piso 6, Filadelfia, PA 19104). pág. 259. ISBN 978-1-61197-520-8. Recuperado el 28 de agosto de 2020 .
  12. ^ Stevenson, Christopher. "Tutorial: Regresión polinómica en Excel". professorstaff.richmond.edu . Consultado el 22 de enero de 2017 .

Enlaces externos