stringtranslate.com

Regresión lineal

En estadística , la regresión lineal es un modelo que estima la relación lineal entre una respuesta escalar ( variable dependiente ) y una o más variables explicativas ( regresor o variable independiente ). Un modelo con exactamente una variable explicativa es una regresión lineal simple ; un modelo con dos o más variables explicativas es una regresión lineal múltiple . [1] Este término es distinto de la regresión lineal multivariante , que predice múltiples variables dependientes correlacionadas en lugar de una sola variable dependiente. [2]

En la regresión lineal, las relaciones se modelan utilizando funciones predictoras lineales cuyos parámetros de modelo desconocidos se estiman a partir de los datos . Lo más común es suponer que la media condicional de la respuesta, dados los valores de las variables explicativas (o predictores), es una función afín de esos valores; con menos frecuencia, se utiliza la mediana condicional o algún otro cuantil . Como todas las formas de análisis de regresión , la regresión lineal se centra en la distribución de probabilidad condicional de la respuesta, dados los valores de los predictores, en lugar de en la distribución de probabilidad conjunta de todas estas variables, que es el dominio del análisis multivariante .

La regresión lineal también es un tipo de algoritmo de aprendizaje automático , más específicamente un algoritmo supervisado , que aprende de los conjuntos de datos etiquetados y asigna los puntos de datos a las funciones lineales más optimizadas que se pueden usar para la predicción en nuevos conjuntos de datos. [3]

La regresión lineal fue el primer tipo de análisis de regresión que se estudió rigurosamente y se utilizó ampliamente en aplicaciones prácticas. [4] Esto se debe a que los modelos que dependen linealmente de sus parámetros desconocidos son más fáciles de ajustar que los modelos que están relacionados de forma no lineal con sus parámetros y porque las propiedades estadísticas de los estimadores resultantes son más fáciles de determinar.

La regresión lineal tiene muchos usos prácticos. La mayoría de las aplicaciones se enmarcan en una de las dos categorías siguientes:

Los modelos de regresión lineal se ajustan a menudo utilizando el enfoque de mínimos cuadrados , pero también se pueden ajustar de otras maneras, como minimizando la " falta de ajuste " en alguna otra norma (como con la regresión de desviaciones absolutas mínimas ), o minimizando una versión penalizada de la función de costo de mínimos cuadrados como en la regresión de cresta ( penalización de norma L 2 ) y lasso ( penalización de norma L 1 ). El uso del error cuadrático medio (MSE) como el costo en un conjunto de datos que tiene muchos valores atípicos grandes, puede dar como resultado un modelo que se ajuste a los valores atípicos más que a los datos reales debido a la mayor importancia asignada por MSE a los errores grandes. Por lo tanto, se deben utilizar funciones de costo que sean robustas a los valores atípicos si el conjunto de datos tiene muchos valores atípicos grandes . Por el contrario, el enfoque de mínimos cuadrados se puede utilizar para ajustar modelos que no son modelos lineales. Por lo tanto, aunque los términos "mínimos cuadrados" y "modelo lineal" están estrechamente relacionados, no son sinónimos.

Formulación

En la regresión lineal, se supone que las observaciones ( rojo ) son el resultado de desviaciones aleatorias ( verde ) de una relación subyacente ( azul ) entre una variable dependiente ( y ) y una variable independiente ( x ).

Dado un conjunto de datos de n unidades estadísticas , un modelo de regresión lineal supone que la relación entre la variable dependiente y y el vector de regresores x es lineal . Esta relación se modela a través de un término de perturbación o variable de error ε —una variable aleatoria no observada que añade "ruido" a la relación lineal entre la variable dependiente y los regresores. Así, el modelo toma la forma donde T denota la transpuesta , de modo que x i T β es el producto interno entre los vectores x i y β .

A menudo, estas n ecuaciones se agrupan y se escriben en notación matricial como

dónde

Notación y terminología

Para ajustar un modelo lineal a un conjunto de datos determinado, normalmente es necesario estimar los coeficientes de regresión de modo que se minimice el término de error. Por ejemplo, es habitual utilizar la suma de los errores al cuadrado como medida de minimización.

Ejemplo

Consideremos una situación en la que se lanza una pelota pequeña al aire y luego medimos sus alturas de ascenso h i en varios momentos del tiempo t i . La física nos dice que, ignorando la resistencia , la relación se puede modelar como

donde β 1 determina la velocidad inicial de la pelota, β 2 es proporcional a la gravedad estándar y ε i se debe a errores de medición. La regresión lineal se puede utilizar para estimar los valores de β 1 y β 2 a partir de los datos medidos. Este modelo no es lineal en la variable tiempo, pero es lineal en los parámetros β 1 y β 2 ; si tomamos los regresores x i  = ( x i 1 , x i 2 ) = ( t i , t i 2 ), el modelo adopta la forma estándar

Supuestos

Los modelos de regresión lineal estándar con técnicas de estimación estándar hacen una serie de suposiciones sobre las variables predictoras, la variable de respuesta y su relación. Se han desarrollado numerosas extensiones que permiten relajar cada una de estas suposiciones (es decir, reducirlas a una forma más débil) y, en algunos casos, eliminarlas por completo. Generalmente, estas extensiones hacen que el procedimiento de estimación sea más complejo y lleve más tiempo, y también pueden requerir más datos para producir un modelo igualmente preciso. [ cita requerida ]

Ejemplo de una regresión polinómica cúbica, que es un tipo de regresión lineal. Aunque la regresión polinómica ajusta un modelo no lineal a los datos, como problema de estimación estadística es lineal, en el sentido de que la función de regresión E( y | x ) es lineal en los parámetros desconocidos que se estiman a partir de los datos . Por esta razón, la regresión polinómica se considera un caso especial de regresión lineal múltiple .

Los siguientes son los principales supuestos realizados por los modelos de regresión lineal estándar con técnicas de estimación estándar (por ejemplo, mínimos cuadrados ordinarios ):

Para comprobar si se violan los supuestos de linealidad, varianza constante e independencia de los errores dentro de un modelo de regresión lineal, los residuos se suelen representar gráficamente frente a los valores predichos (o cada uno de los predictores individuales). Una dispersión aparentemente aleatoria de puntos alrededor de la línea media horizontal en 0 es ideal, pero no puede descartar ciertos tipos de violaciones, como la autocorrelación en los errores o su correlación con una o más covariables.

El incumplimiento de estos supuestos puede dar lugar a estimaciones sesgadas de β , errores estándar sesgados, intervalos de confianza y pruebas de significación poco fiables. Más allá de estos supuestos, varias otras propiedades estadísticas de los datos influyen fuertemente en el rendimiento de los diferentes métodos de estimación:

Interpretación

Los conjuntos de datos del cuarteto de Anscombe están diseñados para tener aproximadamente la misma línea de regresión lineal (así como medias, desviaciones típicas y correlaciones casi idénticas), pero son muy diferentes gráficamente. Esto ilustra los riesgos de confiar únicamente en un modelo ajustado para comprender la relación entre las variables.

Un modelo de regresión lineal ajustado se puede utilizar para identificar la relación entre una única variable predictora x j y la variable de respuesta y cuando todas las demás variables predictoras del modelo se "mantienen fijas". Específicamente, la interpretación de β j es el cambio esperado en y para un cambio de una unidad en x j cuando las otras covariables se mantienen fijas, es decir, el valor esperado de la derivada parcial de y con respecto a x j . Esto a veces se denomina el efecto único de x j sobre y . En contraste, el efecto marginal de x j sobre y se puede evaluar utilizando un coeficiente de correlación o un modelo de regresión lineal simple que relacione solo x j con y ; este efecto es la derivada total de y con respecto a x j .

Se debe tener cuidado al interpretar los resultados de la regresión, ya que algunos de los regresores pueden no permitir cambios marginales (como las variables ficticias o el término de intersección), mientras que otros no pueden mantenerse fijos (recuerde el ejemplo de la introducción: sería imposible "mantener t i fijo" y al mismo tiempo cambiar el valor de t i 2 ).

Es posible que el efecto único sea casi cero incluso cuando el efecto marginal es grande. Esto puede implicar que alguna otra covariable captura toda la información en x j , de modo que una vez que esa variable está en el modelo, no hay contribución de x j a la variación en y . Por el contrario, el efecto único de x j puede ser grande mientras que su efecto marginal es casi cero. Esto sucedería si las otras covariables explicaran gran parte de la variación de y , pero explican principalmente la variación de una manera que es complementaria a lo que es capturado por x j . En este caso, incluir las otras variables en el modelo reduce la parte de la variabilidad de y que no está relacionada con x j , fortaleciendo así la aparente relación con x j .

El significado de la expresión "mantener fijo" puede depender de cómo surjan los valores de las variables predictoras. Si el experimentador establece directamente los valores de las variables predictoras según un diseño de estudio, las comparaciones de interés pueden corresponder literalmente a comparaciones entre unidades cuyas variables predictoras han sido "mantenidas fijas" por el experimentador. Alternativamente, la expresión "mantener fijo" puede referirse a una selección que tiene lugar en el contexto del análisis de datos. En este caso, "mantenemos una variable fija" al restringir nuestra atención a los subconjuntos de los datos que tienen un valor común para la variable predictora dada. Esta es la única interpretación de "mantener fijo" que se puede utilizar en un estudio observacional .

La noción de un "efecto único" resulta atractiva cuando se estudia un sistema complejo en el que múltiples componentes interrelacionados influyen en la variable de respuesta. En algunos casos, puede interpretarse literalmente como el efecto causal de una intervención que está vinculado al valor de una variable predictora. Sin embargo, se ha argumentado que en muchos casos el análisis de regresión múltiple no logra aclarar las relaciones entre las variables predictoras y la variable de respuesta cuando los predictores están correlacionados entre sí y no se asignan siguiendo un diseño de estudio. [9]

Extensiones

Se han desarrollado numerosas extensiones de la regresión lineal que permiten relajar algunos o todos los supuestos que subyacen al modelo básico.

Regresión lineal simple y múltiple

Ejemplo de regresión lineal simple , que tiene una variable independiente

El caso más simple de una única variable predictora escalar x y una única variable de respuesta escalar y se conoce como regresión lineal simple . La extensión a variables predictoras de valores múltiples y/o vectoriales (indicadas con una X mayúscula ) se conoce como regresión lineal múltiple , también conocida como regresión lineal multivariable (que no debe confundirse con regresión lineal multivariable ). [10]

La regresión lineal múltiple es una generalización de la regresión lineal simple al caso de más de una variable independiente y un caso especial de los modelos lineales generales, restringido a una variable dependiente. El modelo básico de la regresión lineal múltiple es

para cada observación .

En la fórmula anterior, consideramos n observaciones de una variable dependiente y p variables independientes. Por lo tanto, Y i es la i- ésima observación de la variable dependiente, X ij es la i- ésima observación de la j -ésima variable independiente, j = 1, 2, ..., p . Los valores β j representan los parámetros que se van a estimar y ε i es el i -ésimo error normal independiente distribuido de forma idéntica.

En la regresión lineal multivariada más general, hay una ecuación de la forma anterior para cada una de m > 1 variables dependientes que comparten el mismo conjunto de variables explicativas y, por lo tanto, se estiman simultáneamente entre sí:

para todas las observaciones indexadas como i = 1, ..., n y para todas las variables dependientes indexadas como j = 1, ..., m .

Casi todos los modelos de regresión del mundo real involucran múltiples predictores, y las descripciones básicas de la regresión lineal a menudo se formulan en términos del modelo de regresión múltiple. Sin embargo, tenga en cuenta que en estos casos la variable de respuesta y sigue siendo un escalar. Otro término, regresión lineal multivariante , se refiere a los casos en los que y es un vector, es decir, lo mismo que la regresión lineal general .

Modelos lineales generales

El modelo lineal general considera la situación en la que la variable de respuesta no es un escalar (para cada observación) sino un vector, y i . Se sigue suponiendo la linealidad condicional de , con una matriz B que reemplaza al vector β del modelo de regresión lineal clásico. Se han desarrollado análogos multivariados de los mínimos cuadrados ordinarios (MCO) y los mínimos cuadrados generalizados (MGL). Los "modelos lineales generales" también se denominan "modelos lineales multivariados". Estos no son lo mismo que los modelos lineales multivariados (también llamados "modelos lineales múltiples").

Modelos heterocedásticos

Se han creado varios modelos que permiten la heterocedasticidad , es decir, los errores para diferentes variables de respuesta pueden tener diferentes varianzas . Por ejemplo, los mínimos cuadrados ponderados son un método para estimar modelos de regresión lineal cuando las variables de respuesta pueden tener diferentes varianzas de error, posiblemente con errores correlacionados. (Véase también Mínimos cuadrados lineales ponderados y Mínimos cuadrados generalizados ). Los errores estándar consistentes con la heterocedasticidad son un método mejorado para su uso con errores no correlacionados pero potencialmente heterocedásticos.

Modelos lineales generalizados

El modelo lineal generalizado (MLG) es un marco para modelar variables de respuesta acotadas o discretas. Se utiliza, por ejemplo:

Los modelos lineales generalizados permiten una función de enlace arbitraria , g , que relaciona la media de la(s) variable(s) de respuesta con los predictores: . La función de enlace suele estar relacionada con la distribución de la respuesta y, en particular, suele tener el efecto de transformar entre el rango del predictor lineal y el rango de la variable de respuesta.

Algunos ejemplos comunes de GLM son:

Los modelos de índice único [ aclaración necesaria ] permiten cierto grado de no linealidad en la relación entre x e y , al tiempo que preservan el papel central del predictor lineal βx como en el modelo de regresión lineal clásico. Bajo ciertas condiciones, simplemente aplicando MCO a los datos de un modelo de índice único se estimará β de manera consistente hasta una constante de proporcionalidad. [11]

Modelos lineales jerárquicos

Los modelos lineales jerárquicos (o regresión multinivel ) organizan los datos en una jerarquía de regresiones, por ejemplo, donde A se regresiona sobre B y B se regresiona sobre C. Se utiliza a menudo cuando las variables de interés tienen una estructura jerárquica natural, como en las estadísticas educativas, donde los estudiantes están anidados en aulas, las aulas están anidadas en escuelas y las escuelas están anidadas en alguna agrupación administrativa, como un distrito escolar. La variable de respuesta puede ser una medida del rendimiento del estudiante, como una puntuación de una prueba, y se recopilarían diferentes covariables a nivel de aula, escuela y distrito escolar.

Errores en las variables

Los modelos de errores en las variables (o "modelos de error de medición") amplían el modelo de regresión lineal tradicional para permitir que las variables predictoras X se observen con error. Este error hace que los estimadores estándar de β se vuelvan sesgados. Generalmente, la forma del sesgo es una atenuación, lo que significa que los efectos están sesgados hacia cero.

Efectos grupales

En un modelo de regresión lineal múltiple

El parámetro de la variable predictora representa el efecto individual de . Tiene una interpretación como el cambio esperado en la variable de respuesta cuando aumenta en una unidad con otras variables predictoras constantes. Cuando está fuertemente correlacionada con otras variables predictoras, es improbable que pueda aumentar en una unidad con otras variables constantes. En este caso, la interpretación de se vuelve problemática ya que se basa en una condición improbable y el efecto de no se puede evaluar de forma aislada.

Para un grupo de variables predictoras, digamos, un efecto de grupo se define como una combinación lineal de sus parámetros.

donde es un vector de peso que satisface . Debido a la restricción en , también se conoce como un efecto de grupo normalizado. Un efecto de grupo tiene una interpretación como el cambio esperado en cuando las variables en el grupo cambian en la cantidad , respectivamente, al mismo tiempo con otras variables (no en el grupo) mantenidas constantes. Generaliza el efecto individual de una variable a un grupo de variables en que ( ) si , entonces el efecto de grupo se reduce a un efecto individual, y ( ) si y para , entonces el efecto de grupo también se reduce a un efecto individual. Se dice que un efecto de grupo es significativo si los cambios simultáneos subyacentes de las variables son probables.

Los efectos de grupo proporcionan un medio para estudiar el impacto colectivo de las variables predictoras fuertemente correlacionadas en los modelos de regresión lineal. Los efectos individuales de dichas variables no están bien definidos ya que sus parámetros no tienen buenas interpretaciones. Además, cuando el tamaño de la muestra no es grande, ninguno de sus parámetros puede estimarse con precisión mediante la regresión de mínimos cuadrados debido al problema de multicolinealidad . Sin embargo, hay efectos de grupo significativos que tienen buenas interpretaciones y pueden estimarse con precisión mediante la regresión de mínimos cuadrados. Una forma sencilla de identificar estos efectos de grupo significativos es utilizar una disposición de correlaciones positivas (APC) de las variables fuertemente correlacionadas bajo la cual las correlaciones por pares entre estas variables sean todas positivas, y estandarizar todas las variables predictoras en el modelo de modo que todas tengan media cero y longitud uno. Para ilustrar esto, supongamos que es un grupo de variables fuertemente correlacionadas en una disposición APC y que no están fuertemente correlacionadas con variables predictoras fuera del grupo. Sea centrado y estandarizado . Entonces, el modelo de regresión lineal estandarizado es

Los parámetros del modelo original, incluidos , son funciones simples de en el modelo estandarizado. La estandarización de las variables no cambia sus correlaciones, por lo que es un grupo de variables fuertemente correlacionadas en una disposición APC y no están fuertemente correlacionadas con otras variables predictoras en el modelo estandarizado. Un efecto de grupo de es

y su estimador lineal imparcial de varianza mínima es

donde es el estimador de mínimos cuadrados de . En particular, el efecto de grupo promedio de las variables estandarizadas es

que tiene una interpretación como el cambio esperado en cuando todos en el grupo fuertemente correlacionado aumentan en th de una unidad al mismo tiempo con variables fuera del grupo mantenidas constantes. Con fuertes correlaciones positivas y en unidades estandarizadas, las variables en el grupo son aproximadamente iguales, por lo que es probable que aumenten al mismo tiempo y en una cantidad similar. Por lo tanto, el efecto promedio del grupo es un efecto significativo. Puede estimarse con precisión mediante su estimador lineal insesgado de varianza mínima , incluso cuando individualmente ninguno de los puede estimarse con precisión mediante .

No todos los efectos de grupo son significativos o pueden estimarse con precisión. Por ejemplo, es un efecto de grupo especial con pesos y para , pero no puede estimarse con precisión mediante . Tampoco es un efecto significativo. En general, para un grupo de variables predictoras fuertemente correlacionadas en un arreglo APC en el modelo estandarizado, los efectos de grupo cuyos vectores de peso están en o cerca del centro del símplex ( ) son significativos y pueden estimarse con precisión mediante sus estimadores lineales insesgados de varianza mínima. Los efectos con vectores de peso alejados del centro no son significativos ya que dichos vectores de peso representan cambios simultáneos de las variables que violan las fuertes correlaciones positivas de las variables estandarizadas en un arreglo APC. Como tales, no son probables. Estos efectos tampoco pueden estimarse con precisión.

Las aplicaciones de los efectos de grupo incluyen (1) la estimación e inferencia de efectos de grupo significativos sobre la variable de respuesta, (2) la prueba de "significación de grupo" de las variables mediante la prueba versus , y (3) la caracterización de la región del espacio de la variable predictora sobre la cual las predicciones del modelo estimado por mínimos cuadrados son precisas.

Un efecto de grupo de las variables originales se puede expresar como una constante multiplicada por un efecto de grupo de las variables estandarizadas . El primero es significativo cuando lo es el segundo. Por lo tanto, los efectos de grupo significativos de las variables originales se pueden encontrar a través de los efectos de grupo significativos de las variables estandarizadas. [12]

Otros

En la teoría de Dempster-Shafer , o en particular en una función de creencia lineal , un modelo de regresión lineal puede representarse como una matriz parcialmente barrida, que puede combinarse con matrices similares que representan observaciones y otras distribuciones normales y ecuaciones de estado supuestas. La combinación de matrices barridas o no barridas proporciona un método alternativo para estimar modelos de regresión lineal.

Métodos de estimación

Se ha desarrollado una gran cantidad de procedimientos para la estimación e inferencia de parámetros en la regresión lineal. Estos métodos difieren en la simplicidad computacional de los algoritmos, la presencia de una solución de forma cerrada , la robustez con respecto a las distribuciones de cola pesada y los supuestos teóricos necesarios para validar propiedades estadísticas deseables, como la consistencia y la eficiencia asintótica .

A continuación se resumen algunas de las técnicas de estimación más comunes para la regresión lineal.

Estimación de mínimos cuadrados y técnicas relacionadas

Ilustración de Francis Galton de 1886 [13] de la correlación entre las alturas de los adultos y sus padres. La observación de que las alturas de los hijos adultos tendían a desviarse menos de la altura media que sus padres sugirió el concepto de " regresión hacia la media ", lo que le dio a la regresión su nombre. El "lugar geométrico de los puntos tangenciales horizontales" que pasa por los puntos más a la izquierda y más a la derecha de la elipse (que es una curva de nivel de la distribución normal bivariada estimada a partir de los datos) es la estimación MCO de la regresión de las alturas de los padres sobre las alturas de los hijos, mientras que el "lugar geométrico de los puntos tangenciales verticales" es la estimación MCO de la regresión de las alturas de los hijos sobre las alturas de los padres. El eje mayor de la elipse es la estimación TLS .

Suponiendo que las variables independientes son y los parámetros del modelo son , entonces la predicción del modelo sería

.

Si se extiende a entonces se convertiría en un producto escalar del parámetro y los vectores independientes, es decir

.

En la configuración de mínimos cuadrados, el vector de parámetros óptimo se define como aquel que minimiza la suma de la pérdida cuadrática media:

Ahora, al colocar las variables independientes y dependientes en matrices y respectivamente, la función de pérdida se puede reescribir como:

Como la función de pérdida es convexa , la solución óptima se encuentra en el gradiente cero. El gradiente de la función de pérdida es (usando la convención de diseño del denominador ):

Establecer el gradiente en cero produce el parámetro óptimo:

Nota: El resultado obtenido puede ser, de hecho, el mínimo local, pero es necesario derivar una vez más para obtener la matriz hessiana y demostrar que es definida positiva. Esto lo proporciona el teorema de Gauss-Markov .

Los métodos de mínimos cuadrados lineales incluyen principalmente:

Estimación de máxima verosimilitud y técnicas relacionadas

Estimación de máxima verosimilitud

La estimación de máxima verosimilitud se puede realizar cuando se sabe que la distribución de los términos de error pertenece a una determinada familia paramétrica ƒ θ de distribuciones de probabilidad . [15] Cuando f θ es una distribución normal con media cero y varianza θ, la estimación resultante es idéntica a la estimación MCO. Las estimaciones GLS son estimaciones de máxima verosimilitud cuando ε sigue una distribución normal multivariante con una matriz de covarianza conocida . Denotemos cada punto de datos por y los parámetros de regresión como , y el conjunto de todos los datos por y la función de costo por .

Como se muestra a continuación, el mismo parámetro óptimo que minimiza también logra la máxima verosimilitud. [16] Aquí se supone que la variable dependiente es una variable aleatoria que sigue una distribución gaussiana , donde la desviación estándar es fija y la media es una combinación lineal de :

Ahora, necesitamos buscar un parámetro que maximice esta función de verosimilitud. Dado que la función logarítmica es estrictamente creciente, en lugar de maximizar esta función, también podemos maximizar su logaritmo y encontrar el parámetro óptimo de esa manera. [16]

El parámetro óptimo es entonces igual a: [16]

De esta manera, el parámetro que maximiza es el mismo que el que minimiza . Esto significa que en la regresión lineal, el resultado del método de mínimos cuadrados es el mismo que el resultado del método de estimación de máxima verosimilitud. [16]

Regresión regularizada

La regresión de cresta [17] [18] [19] y otras formas de estimación penalizada, como la regresión Lasso [5] , introducen deliberadamente sesgo en la estimación de β para reducir la variabilidad de la estimación. Las estimaciones resultantes generalmente tienen un error cuadrático medio menor que las estimaciones MCO, en particular cuando hay multicolinealidad o cuando el sobreajuste es un problema. Generalmente se utilizan cuando el objetivo es predecir el valor de la variable de respuesta y para valores de los predictores x que aún no se han observado. Estos métodos no se utilizan tan comúnmente cuando el objetivo es la inferencia, ya que es difícil tener en cuenta el sesgo.

Desviación mínima absoluta

La regresión de desviación mínima absoluta (LAD) es una técnica de estimación robusta , ya que es menos sensible a la presencia de valores atípicos que la regresión de desviación mínima absoluta (MCO) (pero es menos eficiente que la regresión de desviación mínima absoluta cuando no hay valores atípicos). Es equivalente a la estimación de máxima verosimilitud bajo un modelo de distribución de Laplace para ε . [20]

Estimación adaptativa

Si asumimos que los términos de error son independientes de los regresores , entonces el estimador óptimo es el MLE de 2 pasos, donde el primer paso se utiliza para estimar de forma no paramétrica la distribución del término de error. [21]

Otras técnicas de estimación

Comparación del estimador de Theil-Sen (negro) y la regresión lineal simple (azul) para un conjunto de puntos con valores atípicos

Aplicaciones

La regresión lineal se utiliza ampliamente en las ciencias biológicas, sociales y del comportamiento para describir posibles relaciones entre variables. Se considera una de las herramientas más importantes que se utilizan en estas disciplinas.

Línea de tendencia

Una línea de tendencia representa una tendencia, el movimiento a largo plazo en los datos de series temporales después de que se hayan tenido en cuenta otros componentes. Indica si un conjunto de datos en particular (por ejemplo, el PIB, los precios del petróleo o los precios de las acciones) ha aumentado o disminuido a lo largo del tiempo. Una línea de tendencia se puede dibujar simplemente a simple vista a través de un conjunto de puntos de datos, pero su posición y pendiente se calculan de manera más adecuada utilizando técnicas estadísticas como la regresión lineal. Las líneas de tendencia suelen ser líneas rectas, aunque algunas variaciones utilizan polinomios de mayor grado según el grado de curvatura deseado en la línea.

Las líneas de tendencia se utilizan a veces en el análisis empresarial para mostrar cambios en los datos a lo largo del tiempo. Esto tiene la ventaja de ser simple. Las líneas de tendencia se utilizan a menudo para argumentar que una acción o un evento en particular (como una capacitación o una campaña publicitaria) causó cambios observados en un momento determinado. Esta es una técnica simple y no requiere un grupo de control, un diseño experimental ni una técnica de análisis sofisticada. Sin embargo, carece de validez científica en los casos en que otros cambios potenciales pueden afectar los datos.

Epidemiología

Las primeras evidencias que relacionan el tabaquismo con la mortalidad y la morbilidad provienen de estudios observacionales que emplean análisis de regresión. Para reducir las correlaciones espurias al analizar datos observacionales, los investigadores suelen incluir varias variables en sus modelos de regresión además de la variable de interés principal. Por ejemplo, en un modelo de regresión en el que el tabaquismo es la variable independiente de interés principal y la variable dependiente es la esperanza de vida medida en años, los investigadores pueden incluir la educación y los ingresos como variables independientes adicionales, para asegurar que cualquier efecto observado del tabaquismo en la esperanza de vida no se deba a esos otros factores socioeconómicos . Sin embargo, nunca es posible incluir todas las posibles variables de confusión en un análisis empírico. Por ejemplo, un gen hipotético podría aumentar la mortalidad y también hacer que las personas fumen más. Por esta razón, los ensayos controlados aleatorios a menudo pueden generar evidencia más convincente de relaciones causales que las que se pueden obtener utilizando análisis de regresión de datos observacionales. Cuando los experimentos controlados no son factibles, se pueden utilizar variantes del análisis de regresión, como la regresión de variables instrumentales , para intentar estimar las relaciones causales a partir de datos observacionales.

Finanzas

El modelo de valoración de activos de capital utiliza la regresión lineal, así como el concepto de beta, para analizar y cuantificar el riesgo sistemático de una inversión. Esto proviene directamente del coeficiente beta del modelo de regresión lineal que relaciona el rendimiento de la inversión con el rendimiento de todos los activos de riesgo.

Ciencias económicas

La regresión lineal es la herramienta empírica predominante en economía . Por ejemplo, se utiliza para predecir el gasto de consumo , [24] el gasto en inversión fija , la inversión en inventarios , las compras de exportaciones de un país , [25] el gasto en importaciones , [25] la demanda de activos líquidos , [26] la demanda de mano de obra , [27] y la oferta de mano de obra . [27]

Ciencia ambiental

La regresión lineal se utiliza en una amplia gama de aplicaciones de las ciencias ambientales, como el uso de la tierra , [28] las enfermedades infecciosas , [29] y la contaminación del aire . [30] Por ejemplo, la regresión lineal se puede utilizar para predecir los efectos cambiantes de la contaminación de los automóviles. [31]

Ciencia de la construcción

La regresión lineal se utiliza habitualmente en los estudios de campo de la ciencia de la construcción para derivar las características de los ocupantes de los edificios. En un estudio de campo de confort térmico , los científicos de la construcción suelen pedir a los ocupantes sus votos sobre la sensación térmica, que van desde -3 (sensación de frío) a 0 (neutral) a +3 (sensación de calor), y miden los datos de temperatura circundante de los ocupantes. Se puede calcular una temperatura neutra o de confort basándose en una regresión lineal entre el voto sobre la sensación térmica y la temperatura interior, y estableciendo el voto sobre la sensación térmica como cero. Sin embargo, ha habido un debate sobre la dirección de la regresión: regresión de los votos sobre la sensación térmica (eje y) frente a la temperatura interior (eje x) o lo contrario: regresión de la temperatura interior (eje y) frente a los votos sobre la sensación térmica (eje x). [32]

Aprendizaje automático

La regresión lineal desempeña un papel importante en el subcampo de la inteligencia artificial conocido como aprendizaje automático . El algoritmo de regresión lineal es uno de los algoritmos fundamentales de aprendizaje automático supervisado debido a su relativa simplicidad y sus propiedades bien conocidas. [33]

Historia

Legendre (1805) y Gauss (1809) utilizaron la regresión lineal de mínimos cuadrados como medio para encontrar un buen ajuste lineal aproximado a un conjunto de puntos para predecir el movimiento planetario. Quetelet fue el responsable de dar a conocer el procedimiento y de utilizarlo ampliamente en las ciencias sociales. [34]

Véase también

Referencias

Citas

  1. ^ Freedman, David A. (2009). Modelos estadísticos: teoría y práctica . Cambridge University Press . pág. 26. Una ecuación de regresión simple tiene en el lado derecho una intersección y una variable explicativa con un coeficiente de pendiente. Una regresión múltiple tiene en el lado derecho, cada una con su propio coeficiente de pendiente.
  2. ^ Rencher, Alvin C.; Christensen, William F. (2012), "Capítulo 10, Regresión multivariante – Sección 10.1, Introducción", Métodos de análisis multivariante, Wiley Series in Probability and Statistics, vol. 709 (3.ª ed.), John Wiley & Sons, pág. 19, ISBN 9781118391679, archivado desde el original el 4 de octubre de 2024 , consultado el 7 de febrero de 2015.
  3. ^ "Regresión lineal en el aprendizaje automático". GeeksforGeeks . 2018-09-13. Archivado desde el original el 2024-10-04 . Consultado el 2024-08-25 .
  4. ^ Yan, Xin (2009), Análisis de regresión lineal: teoría y computación, World Scientific, págs. 1–2, ISBN 9789812834119, archivado desde el original el 2024-10-04 , consultado el 2015-02-07 , Análisis de regresión ... es probablemente uno de los temas más antiguos de la estadística matemática que se remonta a hace unos doscientos años. La primera forma de la regresión lineal fue el método de mínimos cuadrados, que fue publicado por Legendre en 1805 y por Gauss en 1809 ... Legendre y Gauss aplicaron el método al problema de determinar, a partir de observaciones astronómicas, las órbitas de los cuerpos alrededor del sol.
  5. ^ ab Tibshirani, Robert (1996). "Contracción de la regresión y selección mediante el método Lasso". Revista de la Royal Statistical Society, Serie B. 58 ( 1): 267–288. doi :10.1111/j.2517-6161.1996.tb02080.x. JSTOR  2346178.
  6. ^ ab Efron, Bradley; Hastie, Trevor; Johnstone, Iain; Tibshirani, Robert (2004). "Regresión de ángulo mínimo". Anales de estadística . 32 (2): 407–451. arXiv : math/0406456 . doi :10.1214/009053604000000067. JSTOR  3448465. S2CID  204004121.
  7. ^ ab Hawkins, Douglas M. (1973). "Sobre la investigación de regresiones alternativas mediante análisis de componentes principales". Revista de la Royal Statistical Society, Serie C. 22 ( 3): 275–286. doi :10.2307/2346776. JSTOR  2346776.
  8. ^ ab Jolliffe, Ian T. (1982). "Una nota sobre el uso de componentes principales en regresión". Journal of the Royal Statistical Society, Serie C . 31 (3): 300–303. doi :10.2307/2348005. JSTOR  2348005.
  9. ^ Berk, Richard A. (2007). "Análisis de regresión: una crítica constructiva". Revista de Justicia Penal . 32 (3): 301–302. doi :10.1177/0734016807304871. S2CID  145389362.
  10. ^ Hidalgo, Bertha; Goodman, Melody (15 de noviembre de 2012). "¿Regresión multivariable o multivariable?". American Journal of Public Health . 103 (1): 39–40. doi :10.2105/AJPH.2012.300897. ISSN  0090-0036. PMC 3518362 . PMID  23153131. 
  11. ^ Brillinger, David R. (1977). "La identificación de un sistema particular de series temporales no lineales". Biometrika . 64 (3): 509–515. doi :10.1093/biomet/64.3.509. JSTOR  2345326.
  12. ^ Tsao, Min (2022). "Regresión de mínimos cuadrados grupales para modelos lineales con variables predictoras fuertemente correlacionadas". Anales del Instituto de Matemática Estadística . 75 (2): 233–250. arXiv : 1804.02499 . doi :10.1007/s10463-022-00841-7. S2CID  237396158.
  13. ^ Galton, Francis (1886). "Regresión hacia la mediocridad en la estatura hereditaria". Revista del Instituto Antropológico de Gran Bretaña e Irlanda . 15 : 246–263. doi :10.2307/2841583. ISSN  0959-5295. JSTOR  2841583.
  14. ^ Britzger, Daniel (2022). "El ajuste lineal de la plantilla". Eur. Phys. J. C . 82 (8): 731. arXiv : 2112.01548 . Código Bibliográfico :2022EPJC...82..731B. doi :10.1140/epjc/s10052-022-10581-w. S2CID  244896511.
  15. ^ Lange, Kenneth L.; Little, Roderick JA; Taylor, Jeremy MG (1989). "Modelado estadístico robusto utilizando la distribución t" (PDF) . Revista de la Asociación Estadounidense de Estadística . 84 (408): 881–896. doi :10.2307/2290063. JSTOR  2290063. Archivado (PDF) desde el original el 2024-10-04 . Consultado el 2019-09-02 .
  16. ^ abcd Aprendizaje automático: una perspectiva probabilística Archivado el 4 de noviembre de 2018 en Wayback Machine , Kevin P Murphy, 2012, pág. 217, Cambridge, MA
  17. ^ Swindel, Benee F. (1981). "Geometría de la regresión de cresta ilustrada". The American Statistician . 35 (1): 12–15. doi :10.2307/2683577. JSTOR  2683577.
  18. ^ Draper, Norman R.; van Nostrand; R. Craig (1979). "Regresión de Ridge y estimación de James-Stein: revisión y comentarios". Technometrics . 21 (4): 451–466. doi :10.2307/1268284. JSTOR  1268284.
  19. ^ Hoerl, Arthur E.; Kennard, Robert W.; Hoerl, Roger W. (1985). "Uso práctico de la regresión de cresta: un desafío superado". Revista de la Royal Statistical Society, Serie C . 34 (2): 114–120. JSTOR  2347363.
  20. ^ Narula, Subhash C.; Wellington, John F. (1982). "La regresión de la suma mínima de errores absolutos: un estudio de vanguardia". Revista estadística internacional . 50 (3): 317–326. doi :10.2307/1402501. JSTOR  1402501.
  21. ^ Stone, CJ (1975). "Estimadores adaptativos de máxima verosimilitud de un parámetro de ubicación". Anales de estadística . 3 (2): 267–284. doi : 10.1214/aos/1176343056 . JSTOR  2958945.
  22. ^ Goldstein, H. (1986). "Análisis de modelos lineales mixtos multinivel mediante mínimos cuadrados generalizados iterativos". Biometrika . 73 (1): 43–56. doi :10.1093/biomet/73.1.43. JSTOR  2336270.
  23. ^ Theil, H. (1950). "Un método de análisis de regresión lineal y polinomial invariante en cuanto a rango. I, II, III". Nederl. Akad. Wetensch., Proc . 53 : 386–392, 521–525, 1397–1412. MR  0036489.; Sen, Pranab Kumar (1968). "Estimaciones del coeficiente de regresión basadas en la tau de Kendall". Revista de la Asociación Estadounidense de Estadística . 63 (324): 1379–1389. doi :10.2307/2285891. JSTOR  2285891. MR  0258201..
  24. ^ Deaton, Angus (1992). Entender el consumo . Oxford University Press. ISBN 978-0-19-828824-4.
  25. ^ ab Krugman, Paul R. ; Obstfeld, M. ; Melitz, Marc J. (2012). Economía internacional: teoría y política (novena edición global). Harlow: Pearson. ISBN 9780273754091.
  26. ^ Laidler, David EW (1993). La demanda de dinero: teorías, evidencias y problemas (4.ª ed.). Nueva York: Harper Collins. ISBN 978-0065010985.
  27. ^ ab Ehrenberg; Smith (2008). Modern Labor Economics (10.ª edición internacional). Londres: Addison-Wesley. ISBN 9780321538963.
  28. ^ Hoek, Gerard; Beelen, Rob; de Hoogh, Kees; Vienneau, Danielle; Gulliver, John; Fischer, Paul; Briggs, David (1 de octubre de 2008). "Una revisión de los modelos de regresión del uso del suelo para evaluar la variación espacial de la contaminación del aire exterior". Atmospheric Environment . 42 (33): 7561–7578. Bibcode :2008AtmEn..42.7561H. doi :10.1016/j.atmosenv.2008.05.057. ISSN  1352-2310.
  29. ^ Imai, Chisato; Hashizume, Masahiro (2015). "Una revisión sistemática de la metodología: análisis de regresión de series temporales para factores ambientales y enfermedades infecciosas". Medicina Tropical y Salud . 43 (1): 1–9. doi :10.2149/tmh.2014-21. hdl : 10069/35301 . PMC 4361341 . PMID  25859149. Archivado desde el original el 2024-10-04 . Consultado el 2024-02-03 . 
  30. ^ Milionis, AE; Davies, TD (1994-09-01). "Modelos de regresión y estocásticos para la contaminación del aire—I. Revisión, comentarios y sugerencias". Atmospheric Environment . 28 (17): 2801–2810. Bibcode :1994AtmEn..28.2801M. doi :10.1016/1352-2310(94)90083-3. ISSN  1352-2310. Archivado desde el original el 2024-10-04 . Consultado el 2024-05-07 .
  31. ^ Hoffman, Szymon; Filak, Mariusz; Jasiński, Rafal (8 de diciembre de 2024). "Modelado de la calidad del aire con el uso de redes neuronales de regresión". Int J Environ Res Public Health . 19 (24): 16494. doi : 10.3390/ijerph192416494 . PMC 9779138 . PMID  36554373. 
  32. ^ Sun, Ruiji; Schiavon, Stefano; Brager, Gail; Arens, Edward; Zhang, Hui; Parkinson, Thomas; Zhang, Chenlu (2024). "Pensamiento causal: Descubrimiento de suposiciones e interpretaciones ocultas del análisis estadístico en la ciencia de la construcción". Construcción y medio ambiente . 259 . doi : 10.1016/j.buildenv.2024.111530 .
  33. ^ "Regresión lineal (aprendizaje automático)" (PDF) . Universidad de Pittsburgh . Archivado (PDF) desde el original el 2017-02-02 . Consultado el 2018-06-21 .
  34. ^ Stigler, Stephen M. (1986). Historia de la estadística: la medición de la incertidumbre antes de 1900. Cambridge: Harvard. ISBN 0-674-40340-1.

Fuentes

Lectura adicional

Enlaces externos