stringtranslate.com

Lema de Stein

El lema de Stein , llamado así en honor a Charles Stein , es un teorema de la teoría de la probabilidad que es de interés principalmente por sus aplicaciones a la inferencia estadística —en particular, a la estimación de James-Stein y a los métodos empíricos de Bayes— y sus aplicaciones a la teoría de elección de cartera . [1] El teorema proporciona una fórmula para la covarianza de una variable aleatoria con el valor de una función de otra, cuando las dos variables aleatorias se distribuyen normalmente de forma conjunta .

Cabe señalar que el nombre "lema de Stein" también se utiliza comúnmente [2] para referirse a un resultado diferente en el área de las pruebas de hipótesis estadísticas , que conecta los exponentes de error en las pruebas de hipótesis con la divergencia de Kullback-Leibler . Este resultado también se conoce como lema de Chernoff-Stein [3] y no está relacionado con el lema analizado en este artículo.

Enunciado del lema

Supongamos que X es una variable aleatoria distribuida normalmente con una esperanza μ y una varianza σ 2 . Supongamos además que g es una función diferenciable para la que existen las dos esperanzas E( g ( X ) ( X − μ)) y E( g ′( X )) . (La existencia de la esperanza de cualquier variable aleatoria es equivalente a la finitud de la esperanza de su valor absoluto .) Entonces

En general, supongamos que X e Y se distribuyen normalmente de manera conjunta. Entonces

Para un vector aleatorio gaussiano multivariado general se deduce que

Prueba

La función de densidad de probabilidad univariante para la distribución normal univariante con expectativa 0 y varianza 1 es

Dado que obtenemos de la integración por partes :

.

El caso de varianza general se sigue por sustitución .

Declaración más general

El teorema de Isserlis se enuncia de forma equivalente como donde es un vector aleatorio normal multivariado de media cero .

Supongamos que X está en una familia exponencial , es decir, X tiene la densidad

Supongamos que esta densidad tiene soporte donde podría ser y como , donde es cualquier función diferenciable tal que o si es finito. Entonces

La derivación es la misma que el caso especial, es decir, la integración por partes.

Si solo sabemos que tiene soporte , entonces podría darse el caso de que pero . Para ver esto, simplemente ponga y con picos infinitos hacia el infinito pero aún integrables. Un ejemplo de este tipo podría ser adaptado de de modo que sea suave.

También existen extensiones a distribuciones con contornos elípticos. [4] [5] [6]

Véase también

Referencias

  1. ^ Ingersoll, J., Teoría de la toma de decisiones financieras , Rowman y Littlefield, 1987: 13-14.
  2. ^ Csiszár, Imre; Körner, János (2011). Teoría de la información: teoremas de codificación para sistemas discretos sin memoria. Prensa de la Universidad de Cambridge. pag. 14.ISBN​ 9781139499989.
  3. ^ Thomas M. Cover, Joy A. Thomas (2006). Elementos de la teoría de la información. John Wiley & Sons, Nueva York. ISBN 9781118585771.
  4. ^ Cellier, Dominique; Fourdrinier, Dominique; Robert, Christian (1989). "Estimadores robustos de contracción del parámetro de ubicación para distribuciones elípticamente simétricas". Journal of Multivariate Analysis . 29 (1): 39–52. doi :10.1016/0047-259X(89)90075-4.
  5. ^ Hamada, Mahmoud; Valdez, Emiliano A. (2008). "CAPM y fijación de precios de opciones con distribuciones de contorno elíptico". Revista de riesgos y seguros . 75 (2): 387–409. CiteSeerX 10.1.1.573.4715 . doi :10.1111/j.1539-6975.2008.00265.x. 
  6. ^ Landsman, Zinoviy; Nešlehová, Johanna (2008). "Lema de Stein para vectores aleatorios elípticos". Revista de análisis multivariante . 99 (5): 912––927. doi : 10.1016/j.jmva.2007.05.006 .