stringtranslate.com

Consistencia (estadísticas)

En estadística , la coherencia de los procedimientos, como calcular intervalos de confianza o realizar pruebas de hipótesis , es una propiedad deseada de su comportamiento a medida que el número de elementos del conjunto de datos al que se aplican aumenta indefinidamente. En particular, la coherencia requiere que a medida que aumenta el tamaño del conjunto de datos, el resultado del procedimiento se acerque al resultado correcto. [1] El uso del término en estadística deriva de Sir Ronald Fisher en 1922. [2]

El uso de los términos coherencia y coherencia en las estadísticas se limita a casos en los que esencialmente se puede aplicar el mismo procedimiento a cualquier número de elementos de datos. En aplicaciones complicadas de estadística, puede haber varias formas en las que puede crecer el número de elementos de datos. Por ejemplo, los registros de precipitaciones dentro de un área podrían aumentar de tres maneras: registros para períodos de tiempo adicionales; registros para sitios adicionales con un área fija; registros de sitios adicionales obtenidos al ampliar el tamaño del área. En tales casos, la propiedad de consistencia puede limitarse a una o más de las posibles formas en que puede crecer el tamaño de una muestra.

Estimadores

Un estimador consistente es aquel para el cual, cuando la estimación se considera como una variable aleatoria indexada por el número n de elementos en el conjunto de datos, a medida que n aumenta, las estimaciones convergen en probabilidad al valor que el estimador está diseñado para estimar.

Un estimador que tiene consistencia de Fisher es aquel en el que, si el estimador se aplicara a toda la población en lugar de a una muestra, se obtendría el valor real del parámetro estimado.

Pruebas

Una prueba consistente es aquella en la que el poder de la prueba para una hipótesis fija falsa aumenta a uno a medida que aumenta el número de elementos de datos. [1]

Clasificación

En clasificación estadística , un clasificador consistente es aquel para el cual la probabilidad de clasificación correcta, dado un conjunto de entrenamiento, se acerca, a medida que aumenta el tamaño del conjunto de entrenamiento, a la mejor probabilidad teóricamente posible si las distribuciones de la población fueran completamente conocidas.

Escasez

Sea un vector y defina el soporte, , donde está el elemento número . Sea un estimador de . Entonces la escasez es la propiedad de que el soporte del estimador converge al soporte verdadero a medida que el número de muestras crece hasta el infinito. Más formalmente, como . [3]

Relación con la imparcialidad

Un estimador o una prueba pueden ser consistentes sin ser insesgados. [4] Un ejemplo clásico es la desviación estándar muestral , que es un estimador sesgado, pero converge a la desviación estándar esperada casi con seguridad por la ley de los grandes números . Dicho de otra manera, la imparcialidad no es un requisito para la coherencia, por lo que en la práctica se pueden utilizar estimadores y pruebas sesgados con la expectativa de que los resultados sean confiables, especialmente cuando el tamaño de la muestra es grande (recuerde la definición de coherencia). Por el contrario, un estimador o una prueba que no sea consistente puede ser difícil de justificar en la práctica, ya que la recopilación de datos adicionales no tiene la garantía asintótica de mejorar la calidad del resultado.

Ver también

Referencias

  1. ^ ab Dodge, Y. (2003) Diccionario Oxford de términos estadísticos , OUP. ISBN  0-19-920613-9 (entradas de coherencia, estimador coherente, prueba coherente)
  2. ^ Upton, G.; Cook, I. (2006) Diccionario Oxford de Estadística , 2.ª edición, OUP. ISBN 978-0-19-954145-4 
  3. ^ Li, Yen-Huan; Scarlett, Jonathan; Ravikumar, Pradeep; Cevher, Volkan (2014). "Escasez de estimadores regularizados ". arXiv : 1410.7605 [matemáticas.ST].
  4. ^ Vaart, AW van der (13 de octubre de 1998). Estadísticas asintóticas. Prensa de la Universidad de Cambridge. ISBN 978-0-511-80225-6.