stringtranslate.com

Regresión polinómica

En estadística , la regresión polinómica es una forma de análisis de regresión en la que la relación entre la variable independiente x y la variable dependiente y se modela como un polinomio de n ésimo grado en x . La regresión polinómica se ajusta a una relación no lineal entre el valor de x y la media condicional correspondiente de y , denotada E( y  | x ). Aunque la regresión polinómica ajusta un modelo no lineal a los datos, como problema de estimación estadística es lineal, en el sentido de que la función de regresión E( y  |  x ) es lineal en los parámetros desconocidos que se estiman a partir de los datos . Por este motivo, la regresión polinomial se considera un caso especial de regresión lineal múltiple .

Las variables explicativas (independientes) resultantes de la expansión polinómica de las variables "de referencia" se conocen como términos de grado superior. Estas variables también se utilizan en entornos de clasificación . [1]

Historia

Los modelos de regresión polinómica suelen ajustarse mediante el método de mínimos cuadrados . El método de mínimos cuadrados minimiza la varianza de los estimadores insesgados de los coeficientes, bajo las condiciones del teorema de Gauss-Markov . El método de mínimos cuadrados fue publicado en 1805 por Legendre y en 1809 por Gauss . El primer diseño de un experimento de regresión polinómica apareció en un artículo de Gergonne de 1815 . [2] [3] En el siglo XX, la regresión polinomial jugó un papel importante en el desarrollo del análisis de regresión , con un mayor énfasis en cuestiones de diseño e inferencia . [4] Más recientemente, el uso de modelos polinomiales se ha complementado con otros métodos, y los modelos no polinómicos tienen ventajas para algunas clases de problemas. [ cita necesaria ]

Definición y ejemplo

Una regresión polinómica cúbica ajustada a un conjunto de datos simulado. La banda de confianza es una banda de confianza simultánea del 95% construida utilizando el enfoque de Scheffé .

El objetivo del análisis de regresión es modelar el valor esperado de una variable dependiente y en términos del valor de una variable independiente (o vector de variables independientes) x . En regresión lineal simple, el modelo

se utiliza, donde ε es un error aleatorio no observado con media cero condicionada a una variable escalar x . En este modelo, por cada aumento unitario en el valor de x , la expectativa condicional de y aumenta en β 1 unidades.

En muchos entornos, es posible que esa relación lineal no se mantenga. Por ejemplo, si modelamos el rendimiento de una síntesis química en términos de la temperatura a la que se lleva a cabo la síntesis, podemos encontrar que el rendimiento mejora al aumentar cantidades por cada unidad de aumento de temperatura. En este caso, podríamos proponer un modelo cuadrático de la forma

En este modelo, cuando la temperatura aumenta de x a x  + 1 unidades, el rendimiento esperado cambia en (Esto se puede ver reemplazando x en esta ecuación con x +1 y restando la ecuación en x de la ecuación en x +1 .) Para cambios infinitesimales en x , el efecto sobre y viene dado por la derivada total con respecto a x : El hecho de que el cambio en el rendimiento dependa de x es lo que hace que la relación entre x e y no sea lineal aunque el modelo sea lineal en los parámetros a estimar.

En general, podemos modelar el valor esperado de y como un polinomio de nésimo grado, lo que produce el modelo de regresión polinómica general.

Convenientemente, todos estos modelos son lineales desde el punto de vista de la estimación , ya que la función de regresión es lineal en términos de los parámetros desconocidos β 0 , β 1 , .... Por lo tanto, para el análisis de mínimos cuadrados , los problemas computacionales e inferenciales de La regresión polinómica se puede abordar completamente utilizando las técnicas de regresión múltiple . Esto se hace tratando xx 2 , ... como variables independientes distintas en un modelo de regresión múltiple.

Forma matricial y cálculo de estimaciones.

El modelo de regresión polinómica

se puede expresar en forma matricial en términos de una matriz de diseño , un vector de respuesta , un vector de parámetros y un vector de errores aleatorios. La i -ésima fila de y contendrá el valor xey para la i -ésima muestra de datos. Entonces el modelo se puede escribir como un sistema de ecuaciones lineales :

que cuando se usa notación matricial pura se escribe como

El vector de coeficientes de regresión polinomial estimados (usando la estimación de mínimos cuadrados ordinarios ) es

suponiendo m < n , que se requiere para que la matriz sea invertible; entonces, dado que es una matriz de Vandermonde , se garantiza que la condición de invertibilidad se cumplirá si todos los valores son distintos. Esta es la única solución de mínimos cuadrados.

Fórmulas ampliadas

Las ecuaciones matriciales anteriores explican bien el comportamiento de la regresión polinómica. Sin embargo, para implementar físicamente la regresión polinómica para un conjunto de pares de puntos xy, es útil contar con más detalles. Las siguientes ecuaciones matriciales para coeficientes polinomiales se amplían a partir de la teoría de regresión sin derivación y se implementan fácilmente. [5] [6] [7]

Después de resolver el sistema de ecuaciones lineales anterior para , el polinomio de regresión se puede construir de la siguiente manera:

Interpretación

Aunque la regresión polinómica es técnicamente un caso especial de regresión lineal múltiple, la interpretación de un modelo de regresión polinómica ajustada requiere una perspectiva algo diferente. A menudo es difícil interpretar los coeficientes individuales en un ajuste de regresión polinomial, ya que los monomios subyacentes pueden estar altamente correlacionados. Por ejemplo, x y x 2 tienen una correlación de alrededor de 0,97 cuando x se distribuye uniformemente en el intervalo (0, 1). Aunque la correlación se puede reducir mediante el uso de polinomios ortogonales , generalmente resulta más informativo considerar la función de regresión ajustada en su conjunto. Luego se pueden utilizar bandas de confianza puntuales o simultáneas para dar una idea de la incertidumbre en la estimación de la función de regresión.

Aproximaciones alternativas

La regresión polinómica es un ejemplo de análisis de regresión que utiliza funciones básicas para modelar una relación funcional entre dos cantidades. Más específicamente, reemplaza en regresión lineal con base polinómica , por ejemplo . Una desventaja de las bases polinómicas es que las funciones de base son "no locales", lo que significa que el valor ajustado de y en un valor dado x  =  x 0 depende en gran medida de valores de datos con x lejos de x 0 . [8] En la estadística moderna, las funciones de base polinomiales se utilizan junto con nuevas funciones de base , como splines , funciones de base radial y wavelets . Estas familias de funciones básicas ofrecen un ajuste más parsimonioso para muchos tipos de datos.

El objetivo de la regresión polinómica es modelar una relación no lineal entre las variables independientes y dependientes (técnicamente, entre la variable independiente y la media condicional de la variable dependiente). Esto es similar al objetivo de la regresión no paramétrica , cuyo objetivo es capturar relaciones de regresión no lineal. Por lo tanto, los enfoques de regresión no paramétrica, como el suavizado, pueden ser alternativas útiles a la regresión polinómica. Algunos de estos métodos utilizan una forma localizada de regresión polinómica clásica. [9] Una ventaja de la regresión polinómica tradicional es que se puede utilizar el marco inferencial de la regresión múltiple (esto también es válido cuando se utilizan otras familias de funciones básicas como los splines).

Una última alternativa es utilizar modelos kernelizados , como la regresión de vectores de soporte con un kernel polinomial .

Si los residuos tienen una varianza desigual , se puede utilizar un estimador de mínimos cuadrados ponderado para tener en cuenta eso. [10]

Ver también

Notas

Referencias

  1. ^ Yin-Wen Chang; Cho-Jui Hsieh; Kai-Wei Chang; Michael Ringgaard; Chih-Jen Lin (2010). "Entrenamiento y prueba de asignaciones de datos polinomiales de bajo grado mediante SVM lineal". Revista de investigación sobre aprendizaje automático . 11 : 1471-1490.
  2. ^ Gergonne, JD (noviembre de 1974) [1815]. "La aplicación del método de mínimos cuadrados a la interpolación de secuencias". Historia Matemática . 1 (4) (Traducido por Ralph St. John y SM Stigler de la edición francesa de 1815): 439–447. doi :10.1016/0315-0860(74)90034-2.
  3. ^ Stigler, Stephen M. (noviembre de 1974). "Artículo de Gergonne de 1815 sobre el diseño y análisis de experimentos de regresión polinómica". Historia Matemática . 1 (4): 431–439. doi :10.1016/0315-0860(74)90033-0.
  4. ^ Smith, Kirstine (1918). "Sobre las desviaciones estándar de valores ajustados e interpolados de una función polinómica observada y sus constantes y la orientación que dan para una elección adecuada de la distribución de las observaciones". Biometrika . 12 (1/2): 1–85. doi :10.2307/2331929. JSTOR  2331929.
  5. ^ Muthukrishnan, Gowri (17 de junio de 2018). "Matemáticas detrás de la regresión polinómica, Muthukrishnan". Matemáticas detrás de la regresión polinómica . Consultado el 30 de enero de 2024 .
  6. ^ "Matemáticas de la regresión polinómica". Regresión polinómica, una clase de regresión PHP .
  7. ^ Devorar, Jay L. (1995). Probabilidad y Estadística para la Ingeniería y las Ciencias (4ª ed.). Estados Unidos: Brooks/Cole Publishing Company. págs. 539–542. ISBN 0-534-24264-2.
  8. ^ Este comportamiento "no local" es una propiedad de las funciones analíticas que no son constantes (en todas partes). Este comportamiento "no local" ha sido ampliamente discutido en las estadísticas:
    • Magee, Lonnie (1998). "Comportamiento no local en regresiones polinómicas". El estadístico estadounidense . 52 (1): 20–22. doi :10.2307/2685560. JSTOR  2685560.
  9. ^ Fan, Jianqing (1996). Modelado polinómico local y sus aplicaciones: de la regresión lineal a la regresión no lineal . Monografías sobre Estadística y Probabilidad Aplicada. Chapman y Hall/CRC. ISBN 978-0-412-98321-4.
  10. ^ Conte, SD; De Boor, C. (2018). Análisis numérico elemental: un enfoque algorítmico. Clásicos en Matemática Aplicada. Sociedad de Matemáticas Industriales y Aplicadas (SIAM, 3600 Market Street, Piso 6, Filadelfia, PA 19104). pag. 259.ISBN 978-1-61197-520-8. Consultado el 28 de agosto de 2020 .
  11. ^ Stevenson, Cristóbal. "Tutorial: Regresión polinómica en Excel". facultadstaff.richmond.edu . Consultado el 22 de enero de 2017 .

enlaces externos