[1] El término se refiere también a una estimación de la desviación estándar, derivada de una muestra particular usada para computar la estimación.
Sin embargo, diferentes muestras escogidas de la misma población tienden en general a dar distintos valores de medias muestrales.
En aplicaciones prácticas, el verdadero valor de la desviación estándar (o del error) es generalmente desconocido.
Como resultado, el término "error estándar" se usa a veces para referirse a una estimación de esta cantidad desconocida.
En tales casos es importante tener claro de dónde proviene, ya que el error estándar es solo una estimación.
Desafortunadamente, esto no es siempre posible y puede ser mejor usar una aproximación que evite usar el error estándar, por ejemplo usando la estimación de máxima verosimilitud o una aproximación más formal derivada de los intervalos de confianza.
En otros casos, el error estándar puede ser usado para proveer una indicación del tamaño de la incertidumbre, pero su uso formal o semi-formal para proporcionar intervalos de confianza o test debe ser evitado a menos que el tamaño de la muestra sea al menos moderadamente grande.
Aquí el concepto "grande" dependerá de las cantidades particulares que vayan a ser analizadas.
Supongamos que una muestra estadísticamente independiente de
El valor medio calculado a partir de la muestra,
, dado por:[4] donde Prácticamente esto nos dice que cuando se intenta estimar el valor de una media poblacional, debido al factor
, reducir el error en la estimación en un factor de dos requiere adquirir cuatro veces más observaciones en la muestra; reducirlo en un factor de diez requiere cien veces más observaciones.
Las siguientes expresiones pueden ser usadas para calcular los límites de confianza por encima y por debajo del 95%, donde
La notación para el error estándar (del inglés) puede ser
Los errores estándar proporcionan una medida sobre la incertidumbre de las medidas de la muestra en un único valor que es usado a menudo porque: El error estándar de la regresión es el valor que muestra la diferencia entre los valores reales y los estimados de una regresión.
Muchos autores prefieren este dato a otros como el coeficiente de correlación lineal, ya que el error estándar se mide en las mismas unidades que los valores que se estudian.
Siendo: En muchas aplicaciones prácticas, el verdadero valor de σ es desconocido.
Como resultado, necesitamos utilizar una distribución que tenga en cuenta esa dispersión de posibles σ.
Las distribuciones t son ligeramente diferentes de la gaussiana y varían en función del tamaño de la muestra.
Para tales muestras se puede utilizar esta última distribución, que es mucho más sencilla.
Si la distribución muestral es normalmente distribuida, la media muestral, el error estándar y los cuantiles de la distribución normal pueden utilizarse para calcular intervalos de confianza para la verdadera media poblacional.
Las siguientes expresiones pueden utilizarse para calcular los límites de confianza superior e inferior del 95%, donde
es igual al error estándar para la media muestral, y 1,96 es el valor aproximado del punto 97,5 percentil de la distribución normal: En concreto, el error típico de una estadística muestral (como la media muestral) es la desviación típica real o estimada de la media muestral en el proceso por el que se generó.
La notación para el error estándar puede ser cualquiera de SE, SEM (para error estándar de medida o media), o SE.
Los errores estándar proporcionan medidas simples de la incertidumbre en un valor y se utilizan a menudo porque: En la literatura científica y técnica, los datos experimentales se resumen a menudo utilizando la media y la desviación típica de los datos de la muestra o la media con el error típico.
Esto suele llevar a confusión sobre su intercambiabilidad.
Sin embargo, la media y la desviación típica son estadísticas descriptivas, mientras que el error típico de la media es descriptivo del proceso de muestreo aleatorio.