En estadística , la regresión polinómica es una forma de análisis de regresión en la que la relación entre la variable independiente x y la variable dependiente y se modela como un polinomio de grado n en x . La regresión polinómica ajusta una relación no lineal entre el valor de x y la media condicional correspondiente de y , denotada como E( y | x ). Aunque la regresión polinómica ajusta un modelo no lineal a los datos, como problema de estimación estadística es lineal, en el sentido de que la función de regresión E( y | x ) es lineal en los parámetros desconocidos que se estiman a partir de los datos . Por esta razón, la regresión polinómica se considera un caso especial de regresión lineal múltiple . [1]
Las variables explicativas (independientes) resultantes de la expansión polinómica de las variables "de referencia" se conocen como términos de grado superior. Dichas variables también se utilizan en contextos de clasificación . [2]
Los modelos de regresión polinómica se ajustan habitualmente mediante el método de mínimos cuadrados . El método de mínimos cuadrados minimiza la varianza de los estimadores insesgados de los coeficientes, en las condiciones del teorema de Gauss-Markov . El método de mínimos cuadrados fue publicado en 1805 por Legendre y en 1809 por Gauss . El primer diseño de un experimento para la regresión polinómica apareció en un artículo de 1815 de Gergonne . [3] [4] En el siglo XX, la regresión polinómica jugó un papel importante en el desarrollo del análisis de regresión , con un mayor énfasis en cuestiones de diseño e inferencia . [5] Más recientemente, el uso de modelos polinómicos se ha complementado con otros métodos, y los modelos no polinómicos tienen ventajas para algunas clases de problemas. [ cita requerida ]
El objetivo del análisis de regresión es modelar el valor esperado de una variable dependiente y en términos del valor de una variable independiente (o vector de variables independientes) x . En la regresión lineal simple, el modelo
Se utiliza , donde ε es un error aleatorio no observado con media cero condicionado a una variable escalar x . En este modelo, por cada aumento unitario en el valor de x , la esperanza condicional de y aumenta en β 1 unidades.
En muchos casos, esta relación lineal puede no ser válida. Por ejemplo, si estamos modelando el rendimiento de una síntesis química en función de la temperatura a la que se lleva a cabo la síntesis, podemos encontrar que el rendimiento mejora con cantidades cada vez mayores por cada unidad de incremento de temperatura. En este caso, podríamos proponer un modelo cuadrático de la forma
En este modelo, cuando la temperatura aumenta de x a x + 1 unidades, el rendimiento esperado cambia en (Esto se puede ver reemplazando x en esta ecuación con x +1 y restando la ecuación en x de la ecuación en x +1). Para cambios infinitesimales en x , el efecto en y está dado por la derivada total con respecto a x : El hecho de que el cambio en el rendimiento dependa de x es lo que hace que la relación entre x e y no sea lineal aunque el modelo sea lineal en los parámetros a estimar.
En general, podemos modelar el valor esperado de y como un polinomio de grado n, obteniendo el modelo de regresión polinomial general
Convenientemente, estos modelos son todos lineales desde el punto de vista de la estimación , ya que la función de regresión es lineal en términos de los parámetros desconocidos β 0 , β 1 , .... Por lo tanto, para el análisis de mínimos cuadrados , los problemas computacionales e inferenciales de la regresión polinómica se pueden abordar completamente utilizando las técnicas de regresión múltiple . Esto se hace tratando x , x 2 , ... como variables independientes distintas en un modelo de regresión múltiple.
El modelo de regresión polinómica
se puede expresar en forma de matriz en términos de una matriz de diseño , un vector de respuesta , un vector de parámetros No se pudo analizar (SVG (MathML se puede habilitar a través del complemento del navegador): respuesta no válida ("La extensión Math no puede conectarse a Restbase") del servidor "http://localhost:6011/en.wikipedia.org/v1/":): {\displaystyle \vec \beta} y un vector de errores aleatorios. La i -ésima fila de y contendrá los valores x e y para la i -ésima muestra de datos. Luego, el modelo se puede escribir como un sistema de ecuaciones lineales :
que cuando se utiliza notación matricial pura se escribe como
El vector de coeficientes de regresión polinomial estimados (usando estimación de mínimos cuadrados ordinarios ) es
suponiendo que m < n es el valor requerido para que la matriz sea invertible; entonces, como es una matriz de Vandermonde , se garantiza que la condición de invertibilidad se cumple si todos los valores son distintos. Esta es la única solución de mínimos cuadrados.
Las ecuaciones matriciales anteriores explican bien el comportamiento de la regresión polinómica. Sin embargo, para implementar físicamente la regresión polinómica para un conjunto de pares de puntos xy, es útil contar con más detalles. Las ecuaciones matriciales siguientes para coeficientes polinómicos se expanden a partir de la teoría de regresión sin derivación y se implementan fácilmente. [6] [7] [8]
Después de resolver el sistema de ecuaciones lineales anterior para , el polinomio de regresión se puede construir de la siguiente manera:
Aunque la regresión polinómica es técnicamente un caso especial de regresión lineal múltiple, la interpretación de un modelo de regresión polinómica ajustado requiere una perspectiva algo diferente. A menudo es difícil interpretar los coeficientes individuales en un ajuste de regresión polinómica, ya que los monomios subyacentes pueden estar altamente correlacionados. Por ejemplo, x y x 2 tienen una correlación de alrededor de 0,97 cuando x se distribuye uniformemente en el intervalo (0, 1). Aunque la correlación se puede reducir utilizando polinomios ortogonales , generalmente es más informativo considerar la función de regresión ajustada como un todo. Luego se pueden utilizar bandas de confianza puntuales o simultáneas para proporcionar una idea de la incertidumbre en la estimación de la función de regresión.
La regresión polinómica es un ejemplo de análisis de regresión que utiliza funciones base para modelar una relación funcional entre dos cantidades. Más específicamente, reemplaza en regresión lineal con base polinómica , p. ej . Un inconveniente de las bases polinómicas es que las funciones base son "no locales", lo que significa que el valor ajustado de y en un valor dado x = x 0 depende en gran medida de los valores de datos con x lejos de x 0 . [9] En las estadísticas modernas, las funciones base polinómicas se utilizan junto con nuevas funciones base , como splines , funciones base radiales y wavelets . Estas familias de funciones base ofrecen un ajuste más parsimonioso para muchos tipos de datos.
El objetivo de la regresión polinómica es modelar una relación no lineal entre las variables independientes y dependientes (técnicamente, entre la variable independiente y la media condicional de la variable dependiente). Esto es similar al objetivo de la regresión no paramétrica , que apunta a capturar relaciones de regresión no lineal. Por lo tanto, los enfoques de regresión no paramétrica como el suavizado pueden ser alternativas útiles a la regresión polinómica. Algunos de estos métodos hacen uso de una forma localizada de regresión polinómica clásica. [10] Una ventaja de la regresión polinómica tradicional es que se puede utilizar el marco inferencial de regresión múltiple (esto también se aplica cuando se utilizan otras familias de funciones base como splines).
Una última alternativa es utilizar modelos kernelizados como la regresión de vectores de soporte con un núcleo polinomial .
Si los residuos tienen varianzas desiguales , se puede utilizar un estimador de mínimos cuadrados ponderados para tenerlo en cuenta. [11]