stringtranslate.com

Consistencia (estadísticas)

En estadística , la consistencia de los procedimientos, como el cálculo de intervalos de confianza o la realización de pruebas de hipótesis , es una propiedad deseada de su comportamiento a medida que el número de elementos en el conjunto de datos al que se aplican aumenta indefinidamente. En particular, la consistencia requiere que a medida que aumenta el tamaño del conjunto de datos, el resultado del procedimiento se acerque al resultado correcto. [1] El uso del término en estadística se deriva de Sir Ronald Fisher en 1922. [2]

El uso de los términos consistencia y consistente en estadística se limita a los casos en los que se puede aplicar esencialmente el mismo procedimiento a cualquier número de elementos de datos. En aplicaciones complejas de estadística, puede haber varias formas en las que el número de elementos de datos puede aumentar. Por ejemplo, los registros de precipitaciones dentro de un área pueden aumentar de tres maneras: registros para períodos de tiempo adicionales; registros para sitios adicionales con un área fija; registros para sitios adicionales obtenidos al ampliar el tamaño del área. En tales casos, la propiedad de consistencia puede limitarse a una o más de las posibles formas en que puede aumentar el tamaño de una muestra.

Estimadores

Un estimador consistente es aquel en el cual, cuando la estimación se considera como una variable aleatoria indexada por el número n de elementos en el conjunto de datos, a medida que n aumenta las estimaciones convergen en probabilidad al valor que el estimador está diseñado para estimar.

Un estimador que tiene consistencia de Fisher es aquel que, si se aplicara a toda la población en lugar de a una muestra, se obtendría el valor real del parámetro estimado.

Pruebas

Una prueba consistente es aquella en la que el poder de la prueba para una hipótesis falsa fija aumenta a uno a medida que aumenta el número de elementos de datos. [1]

Clasificación

En la clasificación estadística , un clasificador consistente es aquel para el cual la probabilidad de clasificación correcta, dado un conjunto de entrenamiento, se aproxima, a medida que aumenta el tamaño del conjunto de entrenamiento, a la mejor probabilidad teóricamente posible si las distribuciones de población fueran completamente conocidas.

Relación con la imparcialidad

Un estimador o una prueba pueden ser consistentes sin ser insesgados. [3] Un ejemplo clásico es la desviación estándar de la muestra , que es un estimador sesgado, pero que converge a la desviación estándar esperada casi con seguridad según la ley de los grandes números . Dicho de otro modo, la insesgabilidad no es un requisito para la consistencia, por lo que los estimadores y pruebas sesgados pueden usarse en la práctica con la expectativa de que los resultados sean confiables, especialmente cuando el tamaño de la muestra es grande (recuerde la definición de consistencia). Por el contrario, un estimador o una prueba que no sea consistente puede ser difícil de justificar en la práctica, ya que la recopilación de datos adicionales no tiene la garantía asintótica de mejorar la calidad del resultado.

Véase también

Referencias

  1. ^ ab Dodge, Y. (2003) The Oxford Dictionary of Statistical Terms , OUP. ISBN  0-19-920613-9 (entradas para consistencia, estimador consistente, prueba consistente)
  2. ^ Upton, G.; Cook, I. (2006) Diccionario Oxford de Estadística , 2.ª edición, OUP. ISBN 978-0-19-954145-4 
  3. ^ Vaart, AW van der (13 de octubre de 1998). Estadística asintótica. Cambridge University Press. ISBN 978-0-511-80225-6.