stringtranslate.com

Prueba de razón de verosimilitud

En estadística , la prueba de razón de verosimilitud es una prueba de hipótesis que implica comparar la bondad de ajuste de dos modelos estadísticos en competencia , típicamente uno encontrado por maximización sobre todo el espacio de parámetros y otro encontrado después de imponer alguna restricción , con base en la razón de sus probabilidades . Si el modelo más restringido (es decir, la hipótesis nula ) está respaldado por los datos observados , las dos probabilidades no deberían diferir en más que el error de muestreo . [1] Por lo tanto, la prueba de razón de verosimilitud prueba si esta razón es significativamente diferente de uno, o equivalentemente si su logaritmo natural es significativamente diferente de cero.

La prueba de razón de verosimilitud, también conocida como prueba de Wilks , [2] es la más antigua de las tres aproximaciones clásicas a las pruebas de hipótesis, junto con la prueba del multiplicador de Lagrange y la prueba de Wald . [3] De hecho, las dos últimas pueden conceptualizarse como aproximaciones a la prueba de razón de verosimilitud, y son asintóticamente equivalentes. [4] [5] [6] En el caso de comparar dos modelos, cada uno de los cuales no tiene parámetros desconocidos , el uso de la prueba de razón de verosimilitud puede justificarse mediante el lema de Neyman-Pearson . El lema demuestra que la prueba tiene la mayor potencia entre todos los competidores. [7]

Definición

General

Supongamos que tenemos un modelo estadístico con un espacio de parámetros . Una hipótesis nula se suele formular diciendo que el parámetro se encuentra en un subconjunto específico de . La hipótesis alternativa es, por tanto, que se encuentra en el complemento de , es decir, en , que se denota por . La estadística de prueba de razón de verosimilitud para la hipótesis nula se da por: [8]

donde la cantidad dentro de los corchetes se denomina razón de verosimilitud. Aquí, la notación se refiere al supremo . Como todas las probabilidades son positivas y el máximo restringido no puede superar al máximo no restringido, la razón de verosimilitud está limitada entre cero y uno.

A menudo, la estadística de prueba de razón de verosimilitud se expresa como una diferencia entre las verosimilitudes logarítmicas.

dónde

es el logaritmo de la función de verosimilitud maximizada , y es el valor máximo en el caso especial de que la hipótesis nula sea verdadera (pero no necesariamente un valor que se maximice para los datos muestreados) y

denotan los respectivos argumentos de los máximos y los rangos permitidos en los que están incluidos. Multiplicar por −2 asegura matemáticamente que (por el teorema de Wilks ) converge asintóticamente a estar distribuido χ ² si la hipótesis nula resulta ser verdadera. [9] Las distribuciones de muestras finitas de las estadísticas de razón de verosimilitud son generalmente desconocidas. [10]

La prueba de razón de verosimilitud requiere que los modelos estén anidados , es decir, el modelo más complejo se puede transformar en el modelo más simple imponiendo restricciones a los parámetros del primero. Muchas estadísticas de prueba comunes son pruebas para modelos anidados y se pueden expresar como razones de verosimilitud logarítmica o aproximaciones de las mismas: por ejemplo, la prueba Z , la prueba F , la prueba G y la prueba de chi-cuadrado de Pearson ; para una ilustración con la prueba t de una muestra , consulte a continuación.

Si los modelos no están anidados, entonces en lugar de la prueba de razón de verosimilitud, existe una generalización de la prueba que generalmente se puede utilizar: para obtener más detalles, consulte verosimilitud relativa .

Caso de hipótesis simples

Una prueba de hipótesis simple versus simple tiene modelos completamente especificados tanto bajo la hipótesis nula como bajo la hipótesis alternativa, que por conveniencia se escriben en términos de valores fijos de un parámetro nocional :

En este caso, bajo cualquiera de las hipótesis, la distribución de los datos está completamente especificada: no hay parámetros desconocidos que estimar. Para este caso, se dispone de una variante de la prueba de razón de verosimilitud: [11] [12]

Algunas referencias más antiguas pueden utilizar el recíproco de la función anterior como definición. [13] Por lo tanto, la razón de verosimilitud es pequeña si el modelo alternativo es mejor que el modelo nulo.

La prueba de razón de verosimilitud proporciona la regla de decisión de la siguiente manera:

Si , no rechaces ;
Si , rechazar ;
Si , rechaza con probabilidad .

Los valores y se eligen normalmente para obtener un nivel de significancia especificado , a través de la relación

El lema de Neyman-Pearson establece que esta prueba de razón de verosimilitud es la más poderosa entre todas las pruebas de nivel para este caso. [7] [12]

Interpretación

La razón de verosimilitud es una función de los datos ; por lo tanto, es una estadística , aunque inusual en el sentido de que el valor de la estadística depende de un parámetro, . La prueba de razón de verosimilitud rechaza la hipótesis nula si el valor de esta estadística es demasiado pequeño. Qué tan pequeño es demasiado pequeño depende del nivel de significación de la prueba, es decir, de qué probabilidad de error de tipo I se considera tolerable (los errores de tipo I consisten en el rechazo de una hipótesis nula que es verdadera).

El numerador corresponde a la probabilidad de un resultado observado bajo la hipótesis nula . El denominador corresponde a la probabilidad máxima de un resultado observado, variando los parámetros en todo el espacio de parámetros. El numerador de este cociente es menor que el denominador; por lo tanto, el cociente de verosimilitud está entre 0 y 1. Los valores bajos del cociente de verosimilitud significan que el resultado observado era mucho menos probable de ocurrir bajo la hipótesis nula en comparación con la alternativa. Los valores altos del estadístico significan que el resultado observado era casi tan probable de ocurrir bajo la hipótesis nula como bajo la alternativa, y por lo tanto la hipótesis nula no puede rechazarse.

Un ejemplo

El siguiente ejemplo es una adaptación y un resumen de Stuart, Ord y Arnold (1999, §22.2).

Supongamos que tenemos una muestra aleatoria, de tamaño n , de una población que se distribuye normalmente. Tanto la media, μ , como la desviación estándar, σ , de la población son desconocidas. Queremos comprobar si la media es igual a un valor dado, μ 0 .

Por lo tanto, nuestra hipótesis nula es H 0μ = μ 0  y nuestra hipótesis alternativa es H 1μμ 0  . La función de verosimilitud es

Con algunos cálculos (omitidos aquí), se puede demostrar que

donde t es el estadístico t con n  − 1 grados de libertad. Por lo tanto, podemos utilizar la distribución exacta conocida de t n −1 para extraer inferencias.

Distribución asintótica: teorema de Wilks

Si la distribución de la razón de verosimilitud correspondiente a una hipótesis nula y alternativa particular se puede determinar explícitamente, entonces se puede utilizar directamente para formar regiones de decisión (para sostener o rechazar la hipótesis nula). Sin embargo, en la mayoría de los casos, la distribución exacta de la razón de verosimilitud correspondiente a hipótesis específicas es muy difícil de determinar. [ cita requerida ]

Suponiendo que H 0 es verdadera, hay un resultado fundamental de Samuel S. Wilks : A medida que el tamaño de la muestra se acerca a , y si la hipótesis nula se encuentra estrictamente dentro del interior del espacio de parámetros, la estadística de prueba definida anteriormente se distribuirá asintóticamente mediante chi-cuadrado ( ) con grados de libertad iguales a la diferencia en la dimensionalidad de y . [14] Esto implica que para una gran variedad de hipótesis, podemos calcular la razón de verosimilitud para los datos y luego comparar lo observado con el valor correspondiente a una significancia estadística deseada como una prueba estadística aproximada . Existen otras extensiones. [ ¿cuál? ]

Véase también

Referencias

  1. ^ King, Gary (1989). Metodología política unificadora: la teoría de la probabilidad de la inferencia estadística. Nueva York: Cambridge University Press. pág. 84. ISBN 0-521-36697-6.
  2. ^ Li, Bing; Babu, G. Jogesh (2019). Un curso de posgrado sobre inferencia estadística . Springer. pág. 331. ISBN 978-1-4939-9759-6.
  3. ^ Maddala, GS ; Lahiri, Kajal (2010). Introducción a la econometría (cuarta edición). Nueva York: Wiley. pág. 200.
  4. ^ Buse, A. (1982). "Las pruebas de razón de verosimilitud, de Wald y del multiplicador de Lagrange: una nota expositiva". The American Statistician . 36 (3a): 153–157. doi :10.1080/00031305.1982.10482817.
  5. ^ Pickles, Andrew (1985). Introducción al análisis de verosimilitud. Norwich: WH Hutchins & Sons. pp. 24–27. ISBN 0-86094-190-6.
  6. ^ Severini, Thomas A. (2000). Métodos de verosimilitud en estadística . Nueva York: Oxford University Press. pp. 120–121. ISBN 0-19-850650-3.
  7. ^ ab Neyman, J. ; Pearson, ES (1933), "Sobre el problema de las pruebas más eficientes de hipótesis estadísticas" (PDF) , Philosophical Transactions of the Royal Society of London A , 231 (694–706): 289–337, Bibcode :1933RSPTA.231..289N, doi : 10.1098/rsta.1933.0009 , JSTOR  91247
  8. ^ Koch, Karl-Rudolf (1988). Estimación de parámetros y prueba de hipótesis en modelos lineales . Nueva York: Springer. p. 306. ISBN. 0-387-18840-1.
  9. ^ Silvey, SD (1970). Inferencia estadística . Londres: Chapman & Hall. págs. 112-114. ISBN. 0-412-13820-4.
  10. ^ Mittelhammer, Ron C. ; Judge, George G. ; Miller, Douglas J. (2000). Fundamentos econométricos . Nueva York: Cambridge University Press. pág. 66. ISBN 0-521-62394-4.
  11. ^ Mood, AM; Graybill, FA; Boes, DC (1974). Introducción a la teoría de la estadística (3.ª ed.). McGraw-Hill . §9.2.
  12. ^ ab Stuart, A.; Ord, K.; Arnold, S. (1999), Teoría avanzada de las estadísticas de Kendall , vol. 2A, Arnold , §§20.10–20.13
  13. ^ Cox, DR ; Hinkley, DV (1974), Estadística teórica , Chapman & Hall , pág. 92, ISBN 0-412-12420-3
  14. ^ Wilks, SS (1938). "La distribución de muestras grandes de la razón de verosimilitud para probar hipótesis compuestas". Anales de estadística matemática . 9 (1): 60–62. doi : 10.1214/aoms/1177732360 .

Lectura adicional

Enlaces externos