stringtranslate.com

Mínimos cuadrados ponderados

Los mínimos cuadrados ponderados ( WLS ), también conocidos como regresión lineal ponderada , [1] [2] son ​​una generalización de los mínimos cuadrados ordinarios y la regresión lineal en la que se incorpora a la regresión el conocimiento de la varianza desigual de las observaciones ( heterocedasticidad ). WLS es también una especialización de mínimos cuadrados generalizados , cuando todas las entradas fuera de la diagonal de la matriz de covarianza de los errores son nulas.

Formulación

El ajuste de un modelo a un punto de datos se mide por su residual , definido como la diferencia entre un valor medido de la variable dependiente y el valor predicho por el modelo ,:

Si los errores no están correlacionados y tienen igual varianza, entonces la función

El teorema de Gauss-Markov muestra que, cuando esto es así, es el mejor estimador lineal insesgado ( AZUL ). Sin embargo, si las mediciones no están correlacionadas pero tienen incertidumbres diferentes, se podría adoptar un enfoque modificado. Aitken demostró que cuando se minimiza una suma ponderada de residuos al cuadrado, es el AZUL si cada peso es igual al recíproco de la varianza de la medición.

Las ecuaciones de gradiente para esta suma de cuadrados son

que, en un sistema lineal de mínimos cuadrados dan las ecuaciones normales modificadas,

Cuando los errores de observación no están correlacionados y la matriz de pesos , W = Ω −1 , es diagonal, estos pueden escribirse como

Si los errores están correlacionados, el estimador resultante es el AZUL si la matriz de ponderaciones es igual a la inversa de la matriz de varianza-covarianza de las observaciones.

Cuando los errores no están correlacionados, es conveniente simplificar los cálculos para factorizar la matriz de pesos como . Las ecuaciones normales se pueden escribir entonces de la misma forma que los mínimos cuadrados ordinarios:

donde definimos la siguiente matriz y vector escalados:

Este es un tipo de transformación blanqueadora ; la última expresión implica una división por entradas .

Para sistemas de mínimos cuadrados no lineales, un argumento similar muestra que las ecuaciones normales deben modificarse de la siguiente manera.

Tenga en cuenta que para las pruebas empíricas, la W adecuada no se conoce con seguridad y debe estimarse. Para esto se pueden utilizar técnicas factibles de mínimos cuadrados generalizados (FGLS); en este caso está especializado para una matriz de covarianza diagonal, lo que produce una solución factible de mínimos cuadrados ponderados.

Si la incertidumbre de las observaciones no se conoce a partir de fuentes externas, entonces las ponderaciones podrían estimarse a partir de las observaciones dadas. Esto puede resultar útil, por ejemplo, para identificar valores atípicos. Una vez que se hayan eliminado los valores atípicos del conjunto de datos, las ponderaciones deben restablecerse a uno. [3]

Motivación

En algunos casos, las observaciones pueden estar ponderadas; por ejemplo, es posible que no sean igualmente confiables. En este caso, se puede minimizar la suma ponderada de cuadrados:

w iiWmatriz diagonal

Idealmente, los pesos deberían ser iguales al recíproco de la varianza de la medición. (Esto implica que las observaciones no están correlacionadas. Si las observaciones están correlacionadas , se aplica la expresión. En este caso, lo ideal es que la matriz de ponderación sea igual a la inversa de la matriz de varianza-covarianza de las observaciones). [3] Las ecuaciones normales son entonces:

Este método se utiliza en mínimos cuadrados reponderados iterativamente .

Solución

Errores de parámetros y correlación.

Los valores estimados de los parámetros son combinaciones lineales de los valores observados.

Por lo tanto, se puede obtener una expresión para la matriz de varianza-covarianza estimada de las estimaciones de los parámetros mediante la propagación del error a partir de los errores en las observaciones. Sea M la matriz de varianza-covarianza de las observaciones y M β la de los parámetros estimados . Entonces

Cuando W = M −1 , esto se simplifica a

Cuando se utilizan pesos unitarios ( W = I , la matriz identidad ), se da a entender que los errores experimentales no están correlacionados y son todos iguales: M = σ 2 I , donde σ 2 es la varianza a priori de una observación. En cualquier caso, σ 2 se aproxima mediante el chi-cuadrado reducido :

donde S es el valor mínimo de la función objetivo ponderada:

El denominador, , es el número de grados de libertad ; ver grados efectivos de libertad para generalizaciones para el caso de observaciones correlacionadas.

En todos los casos, la varianza de la estimación de los parámetros está dada por y la covarianza entre las estimaciones de los parámetros está dada por . La desviación estándar es la raíz cuadrada de la varianza, y el coeficiente de correlación viene dado por . Estas estimaciones de error reflejan sólo errores aleatorios en las mediciones. La verdadera incertidumbre en los parámetros es mayor debido a la presencia de errores sistemáticos que, por definición, no pueden cuantificarse. Tenga en cuenta que, aunque las observaciones pueden no estar correlacionadas, los parámetros suelen estar correlacionados .

Límites de confianza de los parámetros

A menudo se supone , a falta de evidencia concreta pero a menudo apelando al teorema del límite central (ver Distribución normal#Ocurrencia y aplicaciones ) que el error en cada observación pertenece a una distribución normal con una media de cero y una desviación estándar . Bajo ese supuesto, se pueden derivar las siguientes probabilidades para una estimación de un solo parámetro escalar en términos de su error estándar estimado (indicado aquí ):

La suposición no es descabellada cuando n  >>  m . Si los errores experimentales se distribuyen normalmente, los parámetros pertenecerán a una distribución t de Student con n  −  m grados de libertad . Cuando n  ≫  m la distribución t de Student se aproxima a una distribución normal. Sin embargo, tenga en cuenta que estos límites de confianza no pueden tener en cuenta el error sistemático. Además, los errores de los parámetros deben citarse con una cifra significativa únicamente, ya que están sujetos a errores de muestreo . [4]

Cuando el número de observaciones es relativamente pequeño, la desigualdad de Chebychev se puede utilizar como límite superior de las probabilidades, independientemente de cualquier suposición sobre la distribución de los errores experimentales: las probabilidades máximas de que un parámetro sea superior a 1, 2 o 3 desviaciones estándar. lejos de su valor esperado son 100%, 25% y 11% respectivamente.

Valores residuales y correlación.

Los residuos están relacionados con las observaciones de

donde H es la matriz idempotente conocida como matriz hat :

y I es la matriz identidad . La matriz de varianza-covarianza de los residuos, M r , está dada por

Por tanto, los residuos están correlacionados, incluso si las observaciones no lo están.

Cuando ,

La suma de los valores residuales ponderados es igual a cero siempre que la función del modelo contenga un término constante. Multiplique a la izquierda la expresión de los residuos por X T W T :

Digamos, por ejemplo, que el primer término del modelo es una constante, de modo que para todo i . En ese caso se deduce que

Así, en el ejemplo motivacional anterior, el hecho de que la suma de los valores residuales sea igual a cero no es accidental, sino que es una consecuencia de la presencia del término constante, α, en el modelo.

Si el error experimental sigue una distribución normal , entonces, debido a la relación lineal entre los residuos y las observaciones, también deberían hacerlo los residuos, [5] pero dado que las observaciones son sólo una muestra de la población de todas las observaciones posibles, los residuos deberían pertenecer a una distribución de Student. distribución t . Los residuos estudentizados son útiles para realizar una prueba estadística de un valor atípico cuando un residuo particular parece ser excesivamente grande.

Ver también

Referencias

  1. ^ "Regresión ponderada".
  2. ^ "Visualizar una regresión ponderada".
  3. ^ ab Strutz, T. (2016). "3". Ajuste e incertidumbre de datos (una introducción práctica a los mínimos cuadrados ponderados y más) . Springer Vieweg. ISBN 978-3-658-11455-8.
  4. ^ Mandel, Juan (1964). El análisis estadístico de datos experimentales . Nueva York: Interciencia.
  5. ^ Mardia, KV; Kent, JT; Bibby, JM (1979). Analisis multivariable . Nueva York: Academic Press. ISBN 0-12-471250-9.