En estadística , una cantidad pivote o pivote es una función de observaciones y parámetros no observables de modo que la distribución de probabilidad de la función no depende de los parámetros desconocidos (incluidos los parámetros molestos ). [1] Un pivote no necesita ser una estadística : la función y su valor pueden depender de los parámetros del modelo, pero su distribución no debe hacerlo. Si es una estadística, se la conoce como estadística auxiliar .
Más formalmente, [2] sea una muestra aleatoria de una distribución que depende de un parámetro (o vector de parámetros) . Sea una variable aleatoria cuya distribución es la misma para todos los . Entonces se denomina cantidad pivote (o simplemente pivote ).
Las magnitudes pivotales se utilizan comúnmente para la normalización, con el fin de permitir que se comparen datos de diferentes conjuntos de datos. Es relativamente fácil construir pivotes para los parámetros de ubicación y escala: para los primeros, formamos diferencias de modo que la ubicación se cancele; para los segundos, razones de modo que la escala se cancele.
Las cantidades pivotales son fundamentales para la construcción de estadísticas de prueba , ya que permiten que la estadística no dependa de parámetros; por ejemplo, la estadística t de Student es para una distribución normal con varianza (y media) desconocidas. También proporcionan un método para construir intervalos de confianza , y el uso de cantidades pivotales mejora el rendimiento del bootstrap . En forma de estadísticas auxiliares, se pueden utilizar para construir intervalos de predicción frecuentistas (intervalos de confianza predictivos).
Una de las magnitudes fundamentales más simples es la puntuación z . Dada una distribución normal con media y varianza , y una observación 'x', la puntuación z:
tiene distribución – una distribución normal con media 0 y varianza 1. De manera similar, dado que la media de la muestra 'n' tiene distribución de muestreo , la puntuación z de la media
también tiene distribución Nótese que si bien estas funciones dependen de los parámetros (y por lo tanto solo se pueden calcular si se conocen los parámetros, no son estadísticas) la distribución es independiente de los parámetros.
Dadas observaciones independientes, idénticamente distribuidas (iid) de la distribución normal con media y varianza desconocidas , se puede obtener una cantidad fundamental de la función:
dónde
y
son estimaciones no sesgadas de y , respectivamente. La función es la estadística t de Student para un nuevo valor , que se extraerá de la misma población que el conjunto de valores ya observados .
El uso de la función se convierte en una cantidad fundamental, que también se distribuye mediante la distribución t de Student con grados de libertad. Como se requiere, aunque aparece como argumento de la función , la distribución de no depende de los parámetros ni de la distribución de probabilidad normal que gobierna las observaciones .
Esto se puede utilizar para calcular un intervalo de predicción para la próxima observación; consulte Intervalo de predicción: Distribución normal .
En casos más complicados, es imposible construir pivotes exactos. Sin embargo, tener pivotes aproximados mejora la convergencia a la normalidad asintótica .
Supongamos que se toma una muestra de tamaño de vectores de una distribución normal bivariada con correlación desconocida .
Un estimador de es la correlación muestral (Pearson, momento)
donde son las varianzas muestrales de y . La estadística muestral tiene una distribución asintóticamente normal:
Sin embargo, una transformación estabilizadora de la varianza
La transformación 'z' de Fisher del coeficiente de correlación permite crear la distribución de parámetros asintóticamente independientes de los desconocidos:
donde es el parámetro de distribución correspondiente. Para tamaños de muestra finitos , la variable aleatoria tendrá una distribución más cercana a la normal que la de . Se obtiene una aproximación aún más cercana a la distribución normal estándar utilizando una mejor aproximación para la varianza exacta: la forma habitual es
Desde el punto de vista de las estadísticas robustas , las magnitudes pivotales son robustas a los cambios en los parámetros (de hecho, son independientes de los parámetros), pero en general no son robustas a los cambios en el modelo, como las violaciones del supuesto de normalidad. Esto es fundamental para la crítica robusta de las estadísticas no robustas, que a menudo se derivan de magnitudes pivotales: dichas estadísticas pueden ser robustas dentro de la familia, pero no lo son fuera de ella.