stringtranslate.com

Suma de cuadrados explicada

En estadística , la suma de cuadrados explicada ( ESS ), también conocida como suma de cuadrados modelo o suma de cuadrados debida a regresión ( SSR – no confundir con la suma de cuadrados residual (RSS) o suma de cuadrados de errores) , es una cantidad utilizada para describir qué tan bien un modelo, a menudo un modelo de regresión , representa los datos que se están modelando. En particular, la suma de cuadrados explicada mide cuánta variación hay en los valores modelados y esto se compara con la suma total de cuadrados (TSS), que mide cuánta variación hay en los datos observados, y con la suma residual de cuadrados , que mide la variación en el error entre los datos observados y los valores modelados.

Definición

La suma de cuadrados explicada (ESS) es la suma de los cuadrados de las desviaciones de los valores predichos del valor medio de una variable de respuesta, en un modelo de regresión estándar ; por ejemplo, y i = a + b 1 x 1 i + b 2 x 2 i + ... + ε i , donde y i es la i ésima observación de la variable respuesta , x ji es la i ésima observación de la j ésima variable explicativa , a y b j son coeficientes , i indexa la observaciones del 1 al n , y ε i es el iésimo valor  del término de error . En general, cuanto mayor es la ESS, mejor se comporta el modelo estimado.

Si y son los coeficientes estimados , entonces

es el i  -ésimo valor predicho de la variable de respuesta. La ESS es entonces:

donde es el valor estimado por la recta de regresión. [1]

En algunos casos (ver más abajo): suma de cuadrados total  (TSS) = suma de cuadrados explicada (ESS) + suma de cuadrados residual  (RSS).

Partición en regresión lineal simple

La siguiente igualdad, que establece que la suma total de cuadrados (TSS) es igual a la suma residual de cuadrados (=SSE: la suma de los errores de predicción al cuadrado) más la suma de cuadrados explicada (SSR: la suma de cuadrados debida a la regresión o explicada suma de cuadrados), generalmente es cierto en regresión lineal simple:

derivación simple

Eleva ambos lados y suma todo i :

Así es como el último término anterior es cero a partir de una regresión lineal simple [2]

Entonces,

Por lo tanto,

Partición en el modelo general de mínimos cuadrados ordinarios

El modelo de regresión general con n observaciones y k explicadores, el primero de los cuales es un vector unitario constante cuyo coeficiente es el intercepto de la regresión, es

donde y es un vector n × 1 de observaciones de variables dependientes, cada columna de la matriz X n × k es un vector de observaciones en uno de los k explicadores, es un vector k × 1 de coeficientes verdaderos y e es un vector n × 1 vector de los verdaderos errores subyacentes. El estimador de mínimos cuadrados ordinarios para es

El vector residual es , por lo que la suma residual de cuadrados es, después de la simplificación,

Denota como vector constante todos cuyos elementos son la media muestral de los valores de la variable dependiente en el vector y . Entonces la suma total de cuadrados es

La suma de cuadrados explicada, definida como la suma de las desviaciones al cuadrado de los valores predichos de la media observada de y , es

Usando esto y simplificando para obtener , se obtiene el resultado de que TSS = ESS + RSS si y solo si . El lado izquierdo de esto es multiplicado por la suma de los elementos de y , y el lado derecho es multiplicado por la suma de los elementos de , por lo que la condición es que la suma de los elementos de y sea igual a la suma de los elementos de , o equivalentemente que la suma de los errores de predicción (residuales) sea cero. Se puede ver que esto es cierto al observar la conocida propiedad MCO de que el vector k × 1 : dado que la primera columna de X es un vector de unos, el primer elemento de este vector es la suma de los residuos y es igual a cero. Esto prueba que la condición se cumple para el resultado de que TSS = ESS + RSS .

En términos de álgebra lineal, tenemos , , . La prueba se puede simplificar observando que . La prueba es como sigue:

De este modo,

lo que nuevamente da el resultado de que TSS = ESS + RSS , desde .

Ver también

Notas

  1. ^ "Suma de cuadrados: definición, fórmulas, análisis de regresión". Instituto de Finanzas Corporativas . Consultado el 11 de junio de 2020 .
  2. ^ Mendenhall, William (2009). Introducción a la probabilidad y la estadística (13ª ed.). Belmont, California: Brooks/Cole. pag. 507.ISBN _ 9780495389538.

Referencias