Error cuadrático medio

En estadística, el error cuadrático medio (ECM) de un estimador mide el promedio de los errores al cuadrado, es decir, la diferencia entre el estimador y lo que se estima.

El ECM es una función de riesgo, correspondiente al valor esperado de la pérdida del error al cuadrado o pérdida cuadrática.

La diferencia se produce debido a la aleatoriedad o porque el estimador no tiene en cuenta la información que podría producir una estimación más precisa.

[1]​ El ECM es el segundo momento (sobre el origen) del error, y por lo tanto incorpora tanto la varianza del estimador así como su sesgo.

Al igual que la varianza, el ECM tiene las mismas unidades de medida que el cuadrado de la cantidad que se estima.

En una analogía con la desviación estándar, tomando la raíz cuadrada del ECM produce el error de la raíz cuadrada de la media o la desviación de la raíz cuadrada media (RMSE o RMSD), que tiene las mismas unidades que la cantidad que se estima; para un estimador insesgado, el RMSE es la raíz cuadrada de la varianza, conocida como la desviación estándar.

es un vector de n predicciones y

es el vector de los verdaderos valores, entonces el (estimado) ECM del predictor es:

Esta es una cantidad conocida, calculado dada una muestra particular (y por lo tanto es dependiente de la muestra).

El ECM es igual a la suma de la varianza y el cuadrado sesgo del estimador o de las predicciones.

En el caso del ECM de un estimador,[2]​ Así pues, el ECM evalúa la calidad de un estimador o conjunto de predicciones en cuanto a su variación y el grado de sesgo.

Desde ECM es una expectativa, no es técnicamente una variable aleatoria, pero va a estar sujeto a error de estimación cuando se calcula para un estimador particular de

Por lo tanto, cualquier estimación del ECM sobre la base de un parámetro estimado es de hecho una variable aleatoria.

Esta definición para una cantidad calculada conocida, difiere de la definición anterior para el ECM calculado para un predictor en que se utiliza un denominador diferente.

El denominador es el tamaño reducido de la muestra por el número de parámetros del modelo estimado a partir de los mismos datos, (np) para p regresores o (np-1) si se utiliza una intercepción.

[3]​ Para más detalles, ver los errores y los residuos en las estadísticas.

Tenga en cuenta que, aunque el ECM no es un estimador insesgado de la varianza del error, es coherente, dada la consistencia del predictor.

Esto también es una, cantidad calculada conocida, y varía por muestra y por espacio de ensayo fuera de la muestra.

Supongamos que las unidades de muestra se eligieron con el reemplazo.

Es decir, las n unidades se seleccionan uno a la vez, y las unidades previamente seleccionadas siguen siendo elegibles para ser seleccionados para todo n empates.

El estimador usual de la media es el promedio de la muestra el cual tiene un valor esperado igual a la media real μ (por lo que es imparcial) y un error cuadrático medio de donde

Para una distribución gaussiana este es el mejor estimador insesgado (es decir, que tiene el MSE más bajo entre todos los estimadores insesgados), pero no, por ejemplo, para una distribución uniforme .

El estimador usual para la varianza es la varianza muestral : Este estimador es insesgado, es decir, su valor esperado es

Sin embargo, se puede utilizar otros estimadores de

, Y una elección adecuada siempre puede dar un error cuadrático medio menor.

Si definimos a continuación, el ECM es Esto se minimiza cuando Para una distribución gaussiana, donde

Esto significa que el ECM se minimiza al dividir la suma por

, [a] que se consigue mediante una distribución de Bernoulli con p = 1/2 (un tirón de la moneda), y el ECM se reduce al mínimo para

Así que no importa lo que la curtosis, obtenemos una estimación "mejor" (en el sentido de tener un ECM inferior) reduciendo el tamaño de la perito imparcial un poco; este es un ejemplo sencillo de un estimador de la contracción : uno "encoge" el estimador hacia cero (escalas por el estimador no sesgado).

Además, mientras que la varianza muestral corregida es el mejor estimador insesgado (error cuadrático medio mínimo entre los estimadores no sesgados) de la varianza para distribuciones gaussianas, si la distribución no es gaussiana entonces incluso entre estimadores no sesgados, el mejor estimador insesgado de la varianza puede no ser