stringtranslate.com

Integridad (estadísticas)

En estadística , la integridad es una propiedad de una estadística en relación con un modelo parametrizado para un conjunto de datos observados.

Una estadística T completa es aquella para la cual cualquier distribución propuesta en el dominio de T es predicha por una o más distribuciones previas en el espacio de parámetros del modelo. En otras palabras, el espacio modelo es "lo suficientemente rico" como para que cada distribución posible de T pueda explicarse mediante alguna distribución previa en el espacio de parámetros del modelo. Por el contrario, una estadística T suficiente es aquella para la cual dos distribuciones anteriores cualesquiera producirán distribuciones diferentes en T. (Esta última afirmación supone que el espacio modelo es identificable , es decir, que no hay valores de parámetros "duplicados". Este es un punto menor .)

Dicho de otra manera: supongamos que tenemos un espacio modelo identificable parametrizado por y una estadística (que en realidad es solo una función de una o más variables aleatorias iid extraídas del modelo). Luego considere el mapa que lleva cada distribución del parámetro del modelo a su distribución inducida en la estadística . Se dice que la estadística es completa cuando es sobreyectiva y suficiente cuando es inyectiva.

Definición

Considere una variable aleatoria X cuya distribución de probabilidad pertenece a un modelo paramétrico P θ parametrizado por  θ .

Digamos que T es una estadística ; es decir, la composición de una función medible con una muestra aleatoria X 1 ,..., X n .

Se dice que el estadístico T es completo para la distribución de X si, para cada función medible g, [1]

Se dice que el estadístico T es acotado completo para la distribución de X si esta implicación es válida para toda función medible g que también sea acotada.

Ejemplo 1: modelo de Bernoulli

El modelo de Bernoulli admite una estadística completa. [2] Sea X una muestra aleatoria de tamaño n tal que cada X i tenga la misma distribución de Bernoulli con parámetro p . Sea T el número de unos observados en la muestra, es decir . T es una estadística de X que tiene una distribución binomial con parámetros ( n , p ). Si el espacio de parámetros para p es (0,1), entonces T es una estadística completa. Para ver esto, tenga en cuenta que

Observe también que ni p ni 1 −  p pueden ser 0. Por tanto, si y sólo si:

Al denotar p /(1 −  p ) por r , se obtiene:

Primero, observe que el rango de r son los reales positivos . Además, E( g ( T )) es un polinomio en r y, por lo tanto, sólo puede ser idéntico a 0 si todos los coeficientes son 0, es decir, g ( t ) = 0 para todo  t .

Es importante notar que el resultado de que todos los coeficientes deben ser 0 se obtuvo debido al rango de r . Si el espacio de parámetros hubiera sido finito y con un número de elementos menor o igual a n , sería posible resolver las ecuaciones lineales en g ( t ) obtenidas sustituyendo los valores de r y obtener soluciones diferentes de 0. Por ejemplo, si n = 1 y el espacio de parámetros es {0,5}, una sola observación y un solo valor de parámetro, T no está completo. Observe que, con la definición:

entonces, E( g ( T )) = 0 aunque g ( t ) no es 0 para t = 0 ni para t = 1.

Ejemplo 2: suma de normales

Este ejemplo mostrará que, en una muestra X 1X 2 de tamaño 2 de una distribución normal con varianza conocida, el estadístico X 1  +  X 2 es completo y suficiente. Supongamos que ( X 1 , X 2 ) son variables aleatorias independientes , distribuidas idénticamente, normalmente distribuidas con expectativa θ y varianza 1. La suma

es una estadística completa para θ .

Para demostrar esto, es suficiente demostrar que no existe una función distinta de cero tal que la expectativa de

permanece cero independientemente del valor de θ .

Ese hecho puede verse de la siguiente manera. La distribución de probabilidad de X 1  +  X 2 es normal con expectativa 2 θ y varianza 2. Por lo tanto, su función de densidad de probabilidad es proporcional a

Por lo tanto , la expectativa de g anterior sería una constante multiplicada por

Un poco de álgebra reduce esto a

donde k ( θ ) no es cero en ninguna parte y

Como función de θ, esta es una transformada de Laplace bilateral de h ( X ), y no puede ser idénticamente cero a menos que h ( x ) sea cero en casi todas partes. [3] El exponencial no es cero, por lo que esto sólo puede suceder si g ( x ) es cero en casi todas partes.

Relación con estadísticas suficientes

Para algunas familias paramétricas, no existe una estadística suficiente completa (por ejemplo, ver Galili y Meilijson 2016 [4] ).

Por ejemplo, si toma una muestra de tamaño n  > 2 de una distribución N (θ,θ 2 ), entonces es un estadístico mínimo suficiente y es función de cualquier otro estadístico mínimo suficiente, pero tiene una expectativa de 0 para todo θ, por lo que no puede haber una estadística completa.

Si hay una estadística mínima suficiente, entonces cualquier estadística suficiente completa también es mínima suficiente. Pero hay casos patológicos en los que no existe una estadística mínima suficiente, incluso si existe una estadística completa.

Importancia de la integridad

La noción de completitud tiene muchas aplicaciones en estadística, particularmente en los dos teoremas siguientes de estadística matemática.

Teorema de Lehmann-Scheffé

La completitud ocurre en el teorema de Lehmann-Scheffé , [5] que establece que si una estadística es insesgada, completa y suficiente para algún parámetro θ , entonces es el mejor estimador insesgado medio para  θ . En otras palabras, esta estadística tiene una pérdida esperada menor para cualquier función de pérdida convexa ; En muchas aplicaciones prácticas con la función de pérdida al cuadrado, tiene un error cuadrático medio más pequeño entre cualquier estimador con el mismo valor esperado .

Existen ejemplos de que cuando la estadística mínima suficiente no está completa , existen varias estadísticas alternativas para la estimación insesgada de θ , mientras que algunas de ellas tienen una varianza menor que otras. [6]

Véase también estimador insesgado de varianza mínima .

teorema de basu

La completitud acotada ocurre en el teorema de Basu , [7] que establece que una estadística que es a la vez completa y suficiente acotada es independiente de cualquier estadística auxiliar .

teorema de bahadur

La completitud acotada también ocurre en el teorema de Bahadur. En el caso en que exista al menos una estadística mínima suficiente , una estadística que sea suficiente y limitadamente completa, es necesariamente mínima suficiente. Otra forma del teorema de Bahadur establece que cualquier estadística suficiente y acotadamente completa en un espacio de coordenadas de dimensión finita también es mínimamente suficiente. [8]

Notas

  1. ^ Young, GA y Smith, RL (2005). Fundamentos de la inferencia estadística. (pág. 94). Prensa de la Universidad de Cambridge.
  2. ^ Casella, G. y Berger, RL (2001). Inferencia estadística. (págs. 285–286). Prensa de Duxbury.
  3. ^ Orloff, Jeremy. "Singularidad de la transformada de Laplace" (PDF) .
  4. ^ Tal Galili; Isaac Meilijson (31 de marzo de 2016). "Un ejemplo de una mejora Rao-Blackwell mejorable, un estimador de máxima verosimilitud ineficiente y un estimador de Bayes generalizado imparcial". El estadístico estadounidense . 70 (1): 108-113. doi :10.1080/00031305.2015.1100683. PMC 4960505 . PMID  27499547. 
  5. ^ Casella, George; Berger, Roger L. (2001). Inferencia estadística (2ª ed.). Prensa de Duxbury. ISBN 978-0534243128.
  6. ^ Tal Galili; Isaac Meilijson (31 de marzo de 2016). "Un ejemplo de una mejora Rao-Blackwell mejorable, un estimador de máxima verosimilitud ineficiente y un estimador de Bayes generalizado imparcial". El estadístico estadounidense . 70 (1): 108-113. doi :10.1080/00031305.2015.1100683. PMC 4960505 . PMID  27499547. 
  7. ^ Casella, G. y Berger, RL (2001). Inferencia estadística. (págs. 287). Prensa de Duxbury.
  8. ^ "Notas de la conferencia sobre inferencia estadística" (PDF) . 7 de julio de 2022.

Referencias