Los mínimos cuadrados ponderados ( WLS ), también conocidos como regresión lineal ponderada , [1] [2] son una generalización de los mínimos cuadrados ordinarios y la regresión lineal en la que se incorpora a la regresión el conocimiento de la varianza desigual de las observaciones ( heterocedasticidad ). WLS es también una especialización de los mínimos cuadrados generalizados , cuando todas las entradas fuera de la diagonal de la matriz de covarianza de los errores son nulas.
El ajuste de un modelo a un punto de datos se mide por su residuo , , definido como la diferencia entre un valor medido de la variable dependiente y el valor predicho por el modelo, :
Si los errores no están correlacionados y tienen varianza igual, entonces la función se minimiza en , de modo que .
El teorema de Gauss-Markov muestra que, cuando esto es así, es un estimador lineal insesgado óptimo ( BLUE ). Sin embargo, si las mediciones no están correlacionadas pero tienen diferentes incertidumbres, se podría adoptar un enfoque modificado. Aitken demostró que cuando se minimiza una suma ponderada de residuos cuadrados, es el BLUE si cada ponderación es igual al recíproco de la varianza de la medición.
Las ecuaciones de gradiente para esta suma de cuadrados son
que, en un sistema de mínimos cuadrados lineales, dan las ecuaciones normales modificadas, La matriz anterior es como se define en la discusión correspondiente de mínimos cuadrados lineales .
Cuando los errores de observación no están correlacionados y la matriz de ponderación , W = Ω −1 , es diagonal, estos pueden escribirse como
Si los errores están correlacionados, el estimador resultante es el AZUL si la matriz de ponderación es igual a la inversa de la matriz de varianza-covarianza de las observaciones.
Cuando los errores no están correlacionados, es conveniente simplificar los cálculos para factorizar la matriz de ponderación como . Las ecuaciones normales pueden entonces escribirse en la misma forma que los mínimos cuadrados ordinarios:
donde definimos la siguiente matriz y vector escalados:
Se trata de un tipo de transformación blanqueadora ; la última expresión implica una división por entrada .
Para sistemas de mínimos cuadrados no lineales, un argumento similar muestra que las ecuaciones normales deben modificarse de la siguiente manera.
Tenga en cuenta que, para las pruebas empíricas, no se conoce con certeza la W adecuada y debe estimarse. Para ello, se pueden utilizar técnicas de mínimos cuadrados generalizados factibles (FGLS); en este caso, se especializan para una matriz de covarianza diagonal, lo que produce una solución de mínimos cuadrados ponderados factibles.
Si no se conoce la incertidumbre de las observaciones a partir de fuentes externas, se pueden estimar los pesos a partir de las observaciones dadas. Esto puede ser útil, por ejemplo, para identificar valores atípicos. Una vez que se hayan eliminado los valores atípicos del conjunto de datos, los pesos se deben restablecer a uno. [3]
En algunos casos, las observaciones pueden estar ponderadas (por ejemplo, pueden no ser igualmente confiables). En este caso, se puede minimizar la suma ponderada de cuadrados: donde w i > 0 es el peso de la i- ésima observación y W es la matriz diagonal de dichos pesos.
Los pesos deberían ser, idealmente, iguales al recíproco de la varianza de la medición. (Esto implica que las observaciones no están correlacionadas. Si las observaciones están correlacionadas , se aplica la expresión . En este caso, la matriz de pesos idealmente debería ser igual a la inversa de la matriz de varianza-covarianza de las observaciones). [3] Las ecuaciones normales son entonces:
Este método se utiliza en mínimos cuadrados reponderados iterativamente .
Los valores de los parámetros estimados son combinaciones lineales de los valores observados.
Por lo tanto, se puede obtener una expresión para la matriz de varianza-covarianza estimada de las estimaciones de los parámetros mediante la propagación de errores a partir de los errores en las observaciones. Sea M la matriz de varianza-covarianza de las observaciones y M β la de los parámetros estimados . Entonces
Cuando W = M −1 , esto se simplifica a
Cuando se utilizan pesos unitarios ( W = I , la matriz identidad ), se da por sentado que los errores experimentales no están correlacionados y son todos iguales: M = σ 2 I , donde σ 2 es la varianza a priori de una observación. En cualquier caso, σ 2 se aproxima mediante el chi-cuadrado reducido :
donde S es el valor mínimo de la función objetivo ponderada:
El denominador, , es el número de grados de libertad ; consulte grados de libertad efectivos para generalizaciones para el caso de observaciones correlacionadas.
En todos los casos, la varianza de la estimación del parámetro está dada por y la covarianza entre las estimaciones del parámetro y está dada por . La desviación estándar es la raíz cuadrada de la varianza, , y el coeficiente de correlación está dado por . Estas estimaciones de error reflejan solo errores aleatorios en las mediciones. La incertidumbre real en los parámetros es mayor debido a la presencia de errores sistemáticos , que, por definición, no se pueden cuantificar. Tenga en cuenta que, aunque las observaciones pueden no estar correlacionadas, los parámetros normalmente están correlacionados .
A menudo se supone , por falta de evidencia concreta pero a menudo apelando al teorema del límite central (ver Distribución normal#Ocurrencia y aplicaciones ) que el error en cada observación pertenece a una distribución normal con una media de cero y una desviación estándar de . Bajo esa suposición, se pueden derivar las siguientes probabilidades para una única estimación de parámetro escalar en términos de su error estándar estimado (dado aquí ):
La suposición no es irrazonable cuando n >> m . Si los errores experimentales se distribuyen normalmente, los parámetros pertenecerán a una distribución t de Student con n − m grados de libertad . Cuando n ≫ m la distribución t de Student se aproxima a una distribución normal. Sin embargo, tenga en cuenta que estos límites de confianza no pueden tener en cuenta el error sistemático. Además, los errores de los parámetros deben citarse solo con una cifra significativa, ya que están sujetos al error de muestreo . [4]
Cuando el número de observaciones es relativamente pequeño, la desigualdad de Chebychev se puede utilizar como límite superior de las probabilidades, independientemente de cualquier suposición sobre la distribución de errores experimentales: las probabilidades máximas de que un parámetro esté a más de 1, 2 o 3 desviaciones estándar de su valor esperado son 100%, 25% y 11% respectivamente.
Los residuos están relacionados con las observaciones por
donde H es la matriz idempotente conocida como matriz sombrero :
y I es la matriz identidad . La matriz de varianza-covarianza de los residuos, M r, viene dada por
Por lo tanto, los residuos están correlacionados, incluso si las observaciones no lo están.
Cuando ,
La suma de los valores residuales ponderados es igual a cero siempre que la función del modelo contenga un término constante. Multiplica por la izquierda la expresión de los residuos por X T W T :
Digamos, por ejemplo, que el primer término del modelo es una constante, de modo que para todo i . En ese caso se sigue que
Así, en el ejemplo motivacional anterior, el hecho de que la suma de los valores residuales sea igual a cero no es accidental, sino que es una consecuencia de la presencia del término constante, α, en el modelo.
Si el error experimental sigue una distribución normal , entonces, debido a la relación lineal entre los residuos y las observaciones, también deberían seguir los residuos, [5] pero como las observaciones son solo una muestra de la población de todas las observaciones posibles, los residuos deberían pertenecer a una distribución t de Student . Los residuos estudentizados son útiles para realizar una prueba estadística de un valor atípico cuando un residuo particular parece ser excesivamente grande.