stringtranslate.com

Teorema de Gauss-Markov

En estadística , el teorema de Gauss-Markov (o simplemente teorema de Gauss para algunos autores) [1] establece que el estimador de mínimos cuadrados ordinarios (MCO) tiene la varianza de muestreo más baja dentro de la clase de estimadores lineales insesgados , si los errores en el modelo de regresión lineal no están correlacionados , tienen varianzas iguales y un valor esperado de cero. [2] Los errores no necesitan ser normales , ni necesitan ser independientes e idénticamente distribuidos (solo no correlacionados con media cero y homocedásticos con varianza finita). El requisito de que el estimador sea insesgado no se puede descartar, ya que existen estimadores sesgados con varianza menor. Véase, por ejemplo, el estimador de James-Stein (que también descarta la linealidad), la regresión de cresta o simplemente cualquier estimador degenerado .

El teorema debe su nombre a Carl Friedrich Gauss y Andrey Markov , aunque el trabajo de Gauss es significativamente anterior al de Markov. [3] Pero mientras que Gauss derivó el resultado bajo el supuesto de independencia y normalidad, Markov redujo los supuestos a la forma indicada anteriormente. [4] Alexander Aitken dio una generalización adicional a los errores no esféricos . [5]

Declaración de caso escalar

Supongamos que nos dan dos vectores de variables aleatorias y que queremos encontrar el mejor estimador lineal de dado , utilizando el mejor estimador lineal donde los parámetros y son ambos números reales.

Un estimador de este tipo tendría la misma media y desviación estándar que , es decir, .

Por lo tanto, si el vector tiene media y desviación estándar respectivas , el mejor estimador lineal sería

ya que tiene la misma media y desviación estándar que .

Declaración

Supongamos que tenemos, en notación matricial, la relación lineal

expandiéndose a,

donde son parámetros no aleatorios pero no observables, no son aleatorios y observables (llamados "variables explicativas"), son aleatorios y, por lo tanto, aleatorios. Las variables aleatorias se denominan "perturbación", "ruido" o simplemente "error" (se contrastará con "residuo" más adelante en el artículo; consulte errores y residuos en estadística ). Tenga en cuenta que para incluir una constante en el modelo anterior, se puede optar por introducir la constante como una variable con una última columna recién introducida de X que es la unidad, es decir, para todos . Tenga en cuenta que, aunque como respuestas de muestra, son observables, las siguientes afirmaciones y argumentos, incluidas las suposiciones, las pruebas y los demás, suponen bajo la única condición de saber pero no

Los supuestos de Gauss-Markov se refieren al conjunto de variables aleatorias de error :

Un estimador lineal de es una combinación lineal

en la que no se permite que los coeficientes dependan de los coeficientes subyacentes , ya que estos no son observables, pero se permite que dependan de los valores , ya que estos datos son observables. (La dependencia de los coeficientes de cada uno es típicamente no lineal; el estimador es lineal en cada uno y, por lo tanto, en cada aleatorio , por lo que esta es una regresión "lineal" ). Se dice que el estimador es insesgado si y solo si

independientemente de los valores de . Ahora, sea una combinación lineal de los coeficientes. Entonces, el error cuadrático medio de la estimación correspondiente es

en otras palabras, es la expectativa del cuadrado de la suma ponderada (entre parámetros) de las diferencias entre los estimadores y los parámetros correspondientes a estimar. (Dado que estamos considerando el caso en el que todas las estimaciones de los parámetros son insesgadas, este error cuadrático medio es el mismo que la varianza de la combinación lineal). El mejor estimador lineal insesgado (BLUE) del vector de parámetros es aquel con el menor error cuadrático medio para cada vector de parámetros de combinación lineal. Esto es equivalente a la condición de que

es una matriz semidefinida positiva para cualquier otro estimador lineal imparcial .

El estimador de mínimos cuadrados ordinarios (MCO) es la función

de y (donde denota la transposición de ) que minimiza la suma de los cuadrados de los residuos (cantidades de predicción errónea):

El teorema ahora establece que el estimador MCO es el mejor estimador lineal imparcial (BLUE).

La idea principal de la prueba es que el estimador de mínimos cuadrados no está correlacionado con ningún estimador lineal insesgado de cero, es decir, con ninguna combinación lineal cuyos coeficientes no dependen de lo no observable pero cuyo valor esperado es siempre cero.

Observación

La prueba de que el MCO efectivamente minimiza la suma de los cuadrados de los residuos se puede realizar de la siguiente manera, con un cálculo de la matriz hessiana y demostrando que es definida positiva.

La función MSE que queremos minimizar es para un modelo de regresión múltiple con p variables. La primera derivada es donde es la matriz de diseño

La matriz hessiana de segundas derivadas es

Suponiendo que las columnas de son linealmente independientes, de modo que es invertible, sea , entonces

Sea ahora un vector propio de .

En términos de multiplicación de vectores, esto significa que donde es el valor propio correspondiente a . Además,

Finalmente, como el vector propio es arbitrario, significa que todos los valores propios de son positivos, por lo tanto, es definida positiva. Por lo tanto, es de hecho un mínimo global.

O bien, simplemente observe que para todos los vectores . Por lo tanto, el hessiano es definido positivo si es de rango completo.

Prueba

Sea otro estimador lineal de con donde es una matriz distinta de cero. Como nos limitamos a estimadores insesgados , el error cuadrático medio mínimo implica una varianza mínima. Por lo tanto, el objetivo es demostrar que dicho estimador tiene una varianza no menor que la del estimador MCO. Calculamos:

Por lo tanto, dado que no es observable, es insesgado si y solo si . Entonces:

Dado que es una matriz semidefinida positiva, excede por una matriz semidefinida positiva.

Observaciones sobre la prueba

Como se ha indicado antes, la condición de que sea una matriz semidefinida positiva es equivalente a la propiedad de que el mejor estimador lineal insesgado de es (el mejor en el sentido de que tiene mínima varianza). Para ver esto, supongamos otro estimador lineal insesgado de .

Además, la igualdad se cumple si y sólo si . Calculamos

Esto demuestra que la igualdad se cumple si y solo si, lo que da la unicidad del estimador MCO como BLUE.

Estimador de mínimos cuadrados generalizados

El método de mínimos cuadrados generalizados (GLS), desarrollado por Aitken , [5] extiende el teorema de Gauss-Markov al caso donde el vector de error tiene una matriz de covarianza no escalar. [6] El estimador de Aitken también es un BLUE.

El teorema de Gauss-Markov tal como se enuncia en la econometría

En la mayoría de los tratamientos de MCO, se supone que los regresores (parámetros de interés) en la matriz de diseño son fijos en muestras repetidas. Esta suposición se considera inadecuada para una ciencia predominantemente no experimental como la econometría . [7] En cambio, las suposiciones del teorema de Gauss-Markov se establecen como condicionales a .

Linealidad

Se supone que la variable dependiente es una función lineal de las variables especificadas en el modelo. La especificación debe ser lineal en sus parámetros. Esto no significa que deba haber una relación lineal entre las variables independientes y dependientes. Las variables independientes pueden adoptar formas no lineales siempre que los parámetros sean lineales. La ecuación se califica como lineal mientras que se puede transformar para que sea lineal al reemplazarla por otro parámetro, por ejemplo . Una ecuación con un parámetro que depende de una variable independiente no se califica como lineal, por ejemplo , donde es una función de .

Las transformaciones de datos se utilizan a menudo para convertir una ecuación en una forma lineal. Por ejemplo, la función Cobb-Douglas , que se utiliza a menudo en economía, es no lineal:

Pero se puede expresar en forma lineal tomando el logaritmo natural de ambos lados: [8]

Esta suposición también cubre cuestiones de especificación: suponer que se ha seleccionado la forma funcional adecuada y que no hay variables omitidas .

Sin embargo, se debe tener en cuenta que los parámetros que minimizan los residuos de la ecuación transformada no necesariamente minimizan los residuos de la ecuación original.

Exogeneidad estricta

Para todas las observaciones, la expectativa (condicionada a los regresores) del término de error es cero: [9]

donde es el vector de datos de los regresores para la i -ésima observación y, en consecuencia, es la matriz de datos o matriz de diseño.

Geométricamente, esta suposición implica que y son ortogonales entre sí, de modo que su producto interno (es decir, su momento cruzado) es cero.

Este supuesto se viola si las variables explicativas se miden con un error o son endógenas . [10] La endogeneidad puede ser el resultado de la simultaneidad, donde la causalidad fluye de ida y vuelta entre la variable dependiente y la independiente. Las técnicas de variables instrumentales se utilizan comúnmente para abordar este problema.

Rango completo

La matriz de datos de muestra debe tener rango de columna completo .

De lo contrario, no es invertible y no se puede calcular el estimador MCO.

Una violación de este supuesto es la multicolinealidad perfecta , es decir, algunas variables explicativas son linealmente dependientes. Un escenario en el que esto ocurrirá se llama "trampa de variable ficticia", cuando no se omite una variable ficticia base, lo que da como resultado una correlación perfecta entre las variables ficticias y el término constante. [11]

Puede existir multicolinealidad (siempre que no sea "perfecta"), lo que da como resultado una estimación menos eficiente, pero aún así imparcial. Las estimaciones serán menos precisas y altamente sensibles a conjuntos particulares de datos. [12] La multicolinealidad se puede detectar a partir del número de condición o el factor de inflación de la varianza , entre otras pruebas.

Errores esféricos

El producto externo del vector de error debe ser esférico.

Esto implica que el término de error tiene varianza uniforme ( homocedasticidad ) y no tiene correlación serial . [13] Si se viola este supuesto, MCO sigue siendo imparcial, pero ineficiente . El término "errores esféricos" describirá la distribución normal multivariada : si está en la densidad normal multivariada, entonces la ecuación es la fórmula para una pelota centrada en μ con radio σ en un espacio n-dimensional. [14]

La heterocedasticidad se produce cuando la cantidad de error está correlacionada con una variable independiente. Por ejemplo, en una regresión sobre el gasto en alimentos y los ingresos, el error está correlacionado con los ingresos. Las personas de bajos ingresos suelen gastar una cantidad similar en alimentos, mientras que las personas de altos ingresos pueden gastar una cantidad muy grande o tan pequeña como la que gastan las personas de bajos ingresos. La heterocedasticidad también puede ser causada por cambios en las prácticas de medición. Por ejemplo, a medida que las oficinas de estadística mejoran sus datos, el error de medición disminuye, por lo que el término de error disminuye con el tiempo.

Este supuesto se viola cuando hay autocorrelación . La autocorrelación se puede visualizar en un gráfico de datos cuando es más probable que una observación dada se encuentre por encima de una línea ajustada si las observaciones adyacentes también se encuentran por encima de la línea de regresión ajustada. La autocorrelación es común en datos de series temporales donde una serie de datos puede experimentar "inercia". Si una variable dependiente tarda un tiempo en absorber por completo un shock. La autocorrelación espacial también puede ocurrir, es probable que las áreas geográficas tengan errores similares. La autocorrelación puede ser el resultado de una especificación incorrecta, como elegir la forma funcional incorrecta. En estos casos, corregir la especificación es una forma posible de abordar la autocorrelación.

Cuando se puede violar el supuesto de errores esféricos, se puede demostrar que el estimador de mínimos cuadrados generalizados es AZUL. [6]

Véase también

Otras estadísticas imparciales

Referencias

  1. ^ Véase el capítulo 7 de Johnson, RA; Wichern, DW (2002). Análisis estadístico multivariado aplicado . Vol. 5. Prentice Hall.
  2. ^ Theil, Henri (1971). "Mejor estimación y predicción lineal imparcial". Principles of Econometrics . Nueva York: John Wiley & Sons. pp. 119–124. ISBN 0-471-85845-5.
  3. ^ Plackett, RL (1949). "Una nota histórica sobre el método de mínimos cuadrados". Biometrika . 36 (3/4): 458–460. doi :10.2307/2332682.
  4. ^ David, FN; Neyman, J. (1938). "Extensión del teorema de Markoff sobre mínimos cuadrados". Memorias de investigación estadística . 2 : 105–116. OCLC  4025782.
  5. ^ ab Aitken, AC (1935). "Sobre mínimos cuadrados y combinaciones lineales de observaciones". Actas de la Royal Society de Edimburgo . 55 : 42–48. doi :10.1017/S0370164600014346.
  6. ^ ab Huang, David S. (1970). Regresión y métodos econométricos . Nueva York: John Wiley & Sons. págs. 127-147. ISBN 0-471-41754-8.
  7. ^ Hayashi, Fumio (2000). Econometría. Princeton University Press. pág. 13. ISBN 0-691-01018-8.
  8. ^ Walters, AA (1970). Introducción a la econometría . Nueva York: WW Norton. pág. 275. ISBN. 0-393-09931-8.
  9. ^ Hayashi, Fumio (2000). Econometría. Princeton University Press. pág. 7. ISBN 0-691-01018-8.
  10. ^ Johnston, John (1972). Métodos econométricos (segunda edición). Nueva York: McGraw-Hill. pp. 267–291. ISBN 0-07-032679-7.
  11. ^ Wooldridge, Jeffrey (2012). Introducción a la econometría (quinta edición internacional). Suroeste. pág. 220. ISBN 978-1-111-53439-4.
  12. ^ Johnston, John (1972). Métodos econométricos (segunda edición). Nueva York: McGraw-Hill. pp. 159-168. ISBN 0-07-032679-7.
  13. ^ Hayashi, Fumio (2000). Econometría. Princeton University Press. pág. 10. ISBN 0-691-01018-8.
  14. ^ Ramanathan, Ramu (1993). "Perturbaciones no esféricas". Métodos estadísticos en econometría . Academic Press. págs. 330–351. ISBN 0-12-576830-3.

Lectura adicional

Enlaces externos