stringtranslate.com

Suma de cuadrados explicada

En estadística , la suma explicada de cuadrados ( ESS ), también conocida como suma de cuadrados del modelo o suma de cuadrados debido a la regresión ( SSR , que no debe confundirse con la suma residual de cuadrados (RSS) o suma de cuadrados de errores), es una cantidad utilizada para describir qué tan bien un modelo, a menudo un modelo de regresión , representa los datos que se están modelando. En particular, la suma explicada de cuadrados mide cuánta variación hay en los valores modelados y esto se compara con la suma total de cuadrados (TSS), que mide cuánta variación hay en los datos observados, y con la suma residual de cuadrados , que mide la variación en el error entre los datos observados y los valores modelados.

Definición

La suma explicada de cuadrados (ESS) es la suma de los cuadrados de las desviaciones de los valores predichos con respecto al valor medio de una variable de respuesta, en un modelo de regresión estándar —por ejemplo, y i = a + b 1 x 1 i + b 2 x 2 i + ... + ε i , donde y i es la i ésima observación de la variable de respuesta , x ji es la i ésima observación de la j ésima variable explicativa , a y b j son coeficientes , i indexa las observaciones de 1 a n , y ε i es el i  ésimo valor del término de error . En general, cuanto mayor sea la ESS, mejor será el rendimiento del modelo estimado.

Si y son los coeficientes estimados , entonces

es el i  -ésimo valor predicho de la variable de respuesta. La ESS es entonces:

donde es el valor estimado por la línea de regresión. [1]

En algunos casos (ver abajo): suma total de cuadrados  (TSS) = suma explicada de cuadrados (ESS) + suma residual de cuadrados  (RSS).

Particionado en regresión lineal simple

La siguiente igualdad, que establece que la suma total de cuadrados (TSS) es igual a la suma residual de cuadrados (=SSE: la suma de los errores al cuadrado de la predicción) más la suma explicada de cuadrados (SSR: la suma de los cuadrados debido a la regresión o suma explicada de cuadrados), es generalmente verdadera en la regresión lineal simple:

Derivación simple

Eleva al cuadrado ambos lados y suma todos los i :

Aquí se muestra cómo el último término anterior es cero a partir de una regresión lineal simple [2]

Entonces,

Por lo tanto,

Particionado en el modelo general de mínimos cuadrados ordinarios

El modelo de regresión general con n observaciones y k explicadores, el primero de los cuales es un vector unitario constante cuyo coeficiente es la intersección de la regresión, es

donde y es un vector n × 1 de observaciones de la variable dependiente, cada columna de la matriz n × k X es un vector de observaciones de uno de los k explicadores, es un vector k × 1 de coeficientes verdaderos y e es un vector n × 1 de los errores subyacentes verdaderos. El estimador de mínimos cuadrados ordinarios para es

El vector residual es , por lo que la suma residual de cuadrados es, después de la simplificación,

Denotemos como el vector constante todos cuyos elementos son la media muestral de los valores de la variable dependiente en el vector y . Entonces la suma total de cuadrados es

La suma de cuadrados explicada, definida como la suma de las desviaciones al cuadrado de los valores predichos con respecto a la media observada de y , es

Usando en esto, y simplificando para obtener , da el resultado que TSS = ESS + RSS si y solo si . El lado izquierdo de esto es por la suma de los elementos de y , y el lado derecho es por la suma de los elementos de , por lo que la condición es que la suma de los elementos de y sea igual a la suma de los elementos de , o equivalentemente que la suma de los errores de predicción (residuos) sea cero. Esto se puede ver como cierto al notar la conocida propiedad MCO de que el vector k × 1 : dado que la primera columna de X es un vector de unos, el primer elemento de este vector es la suma de los residuos y es igual a cero. Esto prueba que la condición se cumple para el resultado de que TSS = ESS + RSS .

En términos de álgebra lineal, tenemos , , . La prueba se puede simplificar notando que . La prueba es la siguiente:

De este modo,

lo que nuevamente da como resultado que TSS = ESS + RSS , ya que .

Véase también

Notas

  1. ^ "Suma de cuadrados: definición, fórmulas, análisis de regresión". Instituto de Finanzas Corporativas . Consultado el 11 de junio de 2020 .
  2. ^ Mendenhall, William (2009). Introducción a la probabilidad y la estadística (13.ª ed.). Belmont, CA: Brooks/Cole. pág. 507. ISBN 9780495389538.

Referencias