stringtranslate.com

Integridad (estadísticas)

En estadística , la integridad es una propiedad de una estadística en relación con un modelo parametrizado para un conjunto de datos observados.

Una estadística T completa es aquella para la cual cualquier distribución propuesta en el dominio de T es predicha por una o más distribuciones previas en el espacio de parámetros del modelo. En otras palabras, el espacio modelo es "lo suficientemente rico" como para que cada distribución posible de T pueda explicarse mediante alguna distribución previa en el espacio de parámetros del modelo. Por el contrario, un estadístico T suficiente es aquel para el cual dos distribuciones anteriores cualesquiera producirán distribuciones diferentes en T. (Esta última afirmación supone que el espacio modelo es identificable , es decir, que no hay valores de parámetros "duplicados". Este es un punto menor .)

Dicho de otra manera: supongamos que tenemos un espacio modelo identificable parametrizado por y una estadística (que en realidad es solo una función de una o más variables aleatorias iid extraídas del modelo). Luego considere el mapa que lleva cada distribución del parámetro del modelo a su distribución inducida en la estadística . Se dice que la estadística es completa cuando es sobreyectiva y suficiente cuando es inyectiva.

Definición

Considere una variable aleatoria X cuya distribución de probabilidad pertenece a un modelo paramétrico P θ parametrizado por  θ .

Digamos que T es una estadística ; es decir, la composición de una función medible con una muestra aleatoria X 1 ,..., X n .

Se dice que el estadístico T es completo para la distribución de X si, para cada función medible g, : [1]

Se dice que el estadístico T es acotado completo para la distribución de X si esta implicación es válida para toda función medible g que también sea acotada.

Ejemplo 1: modelo de Bernoulli

El modelo de Bernoulli admite una estadística completa. [2] Sea X una muestra aleatoria de tamaño n tal que cada X i tenga la misma distribución de Bernoulli con parámetro p . Sea T el número de unos observados en la muestra, es decir . T es una estadística de X que tiene una distribución binomial con parámetros ( n , p ). Si el espacio de parámetros para p es (0,1), entonces T es una estadística completa. Para ver esto, tenga en cuenta que

Observe también que ni p ni 1 −  p pueden ser 0. Por tanto, si y sólo si:

Al denotar p /(1 −  p ) por r , se obtiene:

Primero, observe que el rango de r son los reales positivos . Además, E( g ( T )) es un polinomio en r y, por lo tanto, sólo puede ser idéntico a 0 si todos los coeficientes son 0, es decir, g ( t ) = 0 para todo  t .

Es importante notar que el resultado de que todos los coeficientes deben ser 0 se obtuvo debido al rango de r . Si el espacio de parámetros hubiera sido finito y con un número de elementos menor o igual a n , sería posible resolver las ecuaciones lineales en g ( t ) obtenidas sustituyendo los valores de r y obtener soluciones diferentes de 0. Por ejemplo, si n = 1 y el espacio de parámetros es {0,5}, una sola observación y un solo valor de parámetro, T no está completo. Observe que, con la definición:

entonces, E( g ( T )) = 0 aunque g ( t ) no es 0 para t = 0 ni para t = 1.

Relación con estadísticas suficientes

Para algunas familias paramétricas, no existe una estadística suficiente completa (por ejemplo, ver Galili y Meilijson 2016 [3] ).

Por ejemplo, si toma una muestra de tamaño n  > 2 de una distribución N (θ,θ 2 ), entonces es un estadístico mínimo suficiente y es función de cualquier otro estadístico mínimo suficiente, pero tiene una expectativa de 0 para todo θ, por lo que no puede haber una estadística completa.

Si hay una estadística mínima suficiente, entonces cualquier estadística suficiente completa también es mínima suficiente. Pero hay casos patológicos en los que no existe una estadística mínima suficiente , incluso si existe una estadística completa.

Importancia de la integridad

La noción de completitud tiene muchas aplicaciones en estadística, particularmente en los dos teoremas siguientes de estadística matemática.

Teorema de Lehmann-Scheffé

La completitud ocurre en el teorema de Lehmann-Scheffé , [4] que establece que si una estadística es insesgada, completa y suficiente para algún parámetro θ , entonces es el mejor estimador medio insesgado para  θ . En otras palabras, esta estadística tiene una pérdida esperada menor para cualquier función de pérdida convexa ; En muchas aplicaciones prácticas con la función de pérdida al cuadrado, tiene un error cuadrático medio más pequeño entre cualquier estimador con el mismo valor esperado .

Existen ejemplos de que cuando la estadística mínima suficiente no está completa , existen varias estadísticas alternativas para la estimación insesgada de θ , mientras que algunas de ellas tienen una varianza menor que otras. [5]

Véase también estimador insesgado de varianza mínima .

teorema de basu

La completitud acotada se produce en el teorema de Basu , [6] que establece que una estadística que es a la vez completa y suficiente acotada es independiente de cualquier estadística auxiliar .

teorema de bahadur

La completitud acotada también ocurre en el teorema de Bahadur. En el caso en que exista al menos una estadística mínima suficiente , una estadística que sea suficiente y limitadamente completa, es necesariamente mínima suficiente. Otra forma del teorema de Bahadur establece que cualquier estadística suficiente y acotadamente completa en un espacio de coordenadas de dimensión finita también es mínimamente suficiente. [7]

Notas

  1. ^ Young, GA y Smith, RL (2005). Fundamentos de la inferencia estadística. (pág. 94). Prensa de la Universidad de Cambridge.
  2. ^ Casella, G. y Berger, RL (2001). Inferencia estadística. (págs. 285–286). Prensa de Duxbury.
  3. ^ Tal Galili; Isaac Meilijson (31 de marzo de 2016). "Un ejemplo de una mejora Rao-Blackwell mejorable, un estimador de máxima verosimilitud ineficiente y un estimador de Bayes generalizado imparcial". El estadístico estadounidense . 70 (1): 108-113. doi :10.1080/00031305.2015.1100683. PMC  4960505 . PMID  27499547.
  4. ^ Casella, George; Berger, Roger L. (2001). Inferencia estadística (2ª ed.). Prensa de Duxbury. ISBN 978-0534243128.
  5. ^ Tal Galili; Isaac Meilijson (31 de marzo de 2016). "Un ejemplo de una mejora Rao-Blackwell mejorable, un estimador de máxima verosimilitud ineficiente y un estimador de Bayes generalizado imparcial". El estadístico estadounidense . 70 (1): 108-113. doi :10.1080/00031305.2015.1100683. PMC 4960505 . PMID  27499547. 
  6. ^ Casella, G. y Berger, RL (2001). Inferencia estadística. (págs. 287). Prensa de Duxbury.
  7. ^ "Notas de la conferencia sobre inferencia estadística" (PDF) . 7 de julio de 2022.

Referencias