stringtranslate.com

Distribución t multivariada

En estadística , la distribución t multivariante (o distribución de Student multivariante ) es una distribución de probabilidad multivariante . Es una generalización a vectores aleatorios de la distribución t de Student , que es una distribución aplicable a variables aleatorias univariadas . Si bien el caso de una matriz aleatoria podría tratarse dentro de esta estructura, la distribución t matricial es distinta y hace un uso particular de la estructura matricial.

Definición

Un método común de construcción de una distribución t multivariada , para el caso de dimensiones, se basa en la observación de que si y son independientes y se distribuyen como y (es decir, distribuciones normales y chi-cuadrado multivariadas ) respectivamente, la matriz es una matriz p  ×  p , y es un vector constante, entonces la variable aleatoria tiene la densidad [1]

y se dice que se distribuye como una distribución t multivariada con parámetros . Nótese que no es la matriz de covarianza ya que la covarianza está dada por (para ).

La definición constructiva de una distribución t multivariada sirve simultáneamente como algoritmo de muestreo:

  1. Generar y , independientemente.
  2. Calcular .

Esta formulación da lugar a la representación jerárquica de una distribución t multivariada como una mezcla a escala de normales: donde indica una distribución gamma con densidad proporcional a , y sigue condicionalmente a .

En el caso especial , la distribución es una distribución de Cauchy multivariada .

Derivación

De hecho, existen muchos candidatos para la generalización multivariada de la distribución t de Student . Kotz y Nadarajah (2004) han realizado un estudio exhaustivo del campo. La cuestión esencial es definir una función de densidad de probabilidad de varias variables que sea la generalización apropiada de la fórmula para el caso univariante. En una dimensión ( ), con y , tenemos la función de densidad de probabilidad

y un enfoque es utilizar una función correspondiente de varias variables. Esta es la idea básica de la teoría de distribución elíptica , donde se escribe una función correspondiente de variables que reemplaza por una función cuadrática de todas las . Está claro que esto solo tiene sentido cuando todas las distribuciones marginales tienen los mismos grados de libertad . Con , se tiene una elección sencilla de función de densidad multivariante

que es la opción estándar pero no la única.

Un caso especial importante es la distribución t bivariada estándar, p = 2:

Tenga en cuenta que .

Ahora, si es la matriz identidad, la densidad es

La dificultad de la representación estándar se revela en esta fórmula, que no se factoriza en el producto de las distribuciones unidimensionales marginales. Cuando es diagonal, se puede demostrar que la representación estándar tiene correlación cero , pero las distribuciones marginales no son estadísticamente independientes .

Una notable ocurrencia espontánea de la distribución multivariada elíptica es su apariencia matemática formal cuando se aplican métodos de mínimos cuadrados a datos normales multivariados, como la solución econométrica clásica de varianza mínima de Markowitz para carteras de activos. [2]

Función de distribución acumulativa

La definición de la función de distribución acumulativa (cdf) en una dimensión se puede extender a múltiples dimensiones definiendo la siguiente probabilidad (aquí hay un vector real):

No existe una fórmula sencilla para , pero se puede aproximar numéricamente mediante la integración de Monte Carlo . [3] [4] [5]

Distribución condicional

Esto fue desarrollado por Muirhead [6] y Cornish [7] , pero luego derivado usando la representación de razón chi-cuadrado más simple anterior, por Roth [1] y Ding [8] . Sea el vector una distribución t multivariada y particionada en dos subvectores de elementos:

donde , los vectores medios conocidos son y la matriz de escala es .

Roth y Ding encuentran que la distribución condicional es una nueva distribución t con parámetros modificados.

Una expresión equivalente en Kotz et. al. es algo menos concisa.

Por lo tanto, la distribución condicional se representa más fácilmente como un procedimiento de dos pasos. Primero se forma la distribución intermedia anterior y luego, utilizando los parámetros siguientes, la distribución condicional explícita se convierte en

dónde

Los grados de libertad efectivos se incrementan con el número de variables en desuso .
es la media condicional de
es el complemento de Schur de .
es la distancia al cuadrado de Mahalanobis de con matriz de escala
es la covarianza condicional para .

Cópulas basadas en el multivariantea

El uso de tales distribuciones está disfrutando de un renovado interés debido a las aplicaciones en finanzas matemáticas , especialmente a través del uso de la cópula t de Student . [9]

Representación elíptica

Construida como una distribución elíptica , [10] tome el caso centralizado más simple con simetría esférica y sin escala, entonces la t -PDF multivariada toma la forma

donde y = grados de libertad como se define en Muirhead [6] sección 1.5. La covarianza de es

El objetivo es convertir la PDF cartesiana en una radial. Kibria y Joarder, [11] definen la medida radial y, notando que la densidad depende solo de r 2 , obtenemos

que es equivalente a la varianza del vector de elementos tratado como una secuencia aleatoria univariante de cola pesada y media cero con elementos no correlacionados, pero estadísticamente dependientes.

Distribución radial

Sigue la distribución de Fisher-Snedecor :

que tienen un valor medio . -Las distribuciones surgen naturalmente en las pruebas de sumas de cuadrados de datos muestreados después de la normalización por la desviación estándar de la muestra.

Mediante un cambio de variable aleatoria a en la ecuación anterior, conservando el vector , tenemos una distribución de probabilidad

que es una distribución Beta-prima regular cuyo valor medio es .

Distribución radial acumulada

Dada la distribución Beta-prima, la función de distribución acumulativa radial de se conoce:

donde es la función Beta incompleta y se aplica con un supuesto esférico .

En el caso escalar, , la distribución es equivalente a la t de Student con la equivalencia , teniendo la variable t colas de doble cara para fines de CDF, es decir, la "prueba t de dos colas".

La distribución radial también se puede derivar mediante una transformación de coordenadas sencilla de cartesiana a esférica. Una superficie de radio constante en con PDF es una superficie de isodensidad. Dado este valor de densidad, el cuanto de probabilidad en una capa de área de superficie y espesor en es .

La esfera cerrada de radio tiene área de superficie . La sustitución en muestra que la esfera tiene un elemento de probabilidad que es equivalente a la función de densidad radial

lo que se simplifica aún más a donde está la función Beta .

Cambiar la variable radial a devuelve la distribución Beta Prime anterior

Para escalar las variables radiales sin cambiar la función de forma radial, defina la matriz de escala , lo que produce una función de densidad cartesiana de 3 parámetros, es decir, la probabilidad en el elemento de volumen es

o, en términos de variable radial escalar ,

Momentos radiales

Los momentos de todas las variables radiales , con el supuesto de distribución esférica, se pueden derivar de la distribución Beta Prime. Si entonces , se conoce el resultado. Por lo tanto, para la variable tenemos

Los momentos de son

Al introducir la matriz de escala se obtienen los siguientes resultados :

Los momentos relacionados con la variable radial se encuentran estableciendo y con lo cual

Combinaciones lineales y transformaciones afines

Transformación de rango completo

Esto se relaciona estrechamente con el método normal multivariante y se describe en Kotz y Nadarajah, Kibria y Joarder, Roth y Cornish. Partiendo de una versión algo simplificada de la función de densidad de probabilidad central de MV-t: , donde es una constante y es arbitraria pero fija, sea una matriz de rango completo y forme el vector . Luego, mediante un cambio sencillo de variables

La matriz de derivadas parciales es y el jacobiano se convierte en . Por lo tanto

El denominador se reduce a

En su totalidad:

que es una distribución MV- t regular .

En general, si y tiene rango completo , entonces

Distribuciones marginales

Este es un caso especial de la transformación lineal de reducción de rango que se muestra a continuación. Kotz define las distribuciones marginales de la siguiente manera: Partición en dos subvectores de elementos:

con , significa , matriz de escala

entonces , tal que

Si se construye una transformación en la forma

Entonces el vector , como se analiza a continuación, tiene la misma distribución que la distribución marginal de .

Transformación lineal reductora de rango

En el caso de la transformación lineal, si es una matriz rectangular , de rango el resultado es una reducción de dimensionalidad. Aquí, el jacobiano es aparentemente rectangular, pero el valor en la función de densidad de probabilidad del denominador es correcto. Hay una discusión sobre los determinantes del producto de matrices rectangulares en Aitken. [12] En general, si y tiene rango completo , entonces

En casos extremos , si m = 1 y se convierte en un vector fila, entonces el escalar Y sigue una distribución t de Student univariante de doble cara definida por con los mismos grados de libertad. Kibria et. al. utilizan la transformación afín para encontrar las distribuciones marginales que también son MV- t .

Conceptos relacionados

Véase también

Referencias

  1. ^ ab Roth, Michael (17 de abril de 2013). "Sobre la distribución t multivariante" (PDF) . Grupo de Control Automático. Universidad de Linköpin, Suecia . Archivado (PDF) del original el 31 de julio de 2022. Consultado el 1 de junio de 2022 .
  2. ^ ab Bodnar, T; Okhrin, Y (2008). "Propiedades de la distribución Wishart singular, inversa y generalizada inversa particionada" (PDF) . Journal of Multivariate Analysis . 99 (Eqn.20): 2389–2405. doi :10.1016/j.jmva.2008.02.024.
  3. ^ Botev, Z.; Chen, Y.-L. (2022). "Capítulo 4: Cálculos de estudiantes multivariados truncados mediante inclinación exponencial". En Botev, Zdravko; Keller, Alejandro; Lemieux, Christiane; Tuffin, Bruno (eds.). Avances en modelado y simulación: Festschrift para Pierre L'Ecuyer . Saltador. págs. 65–87. doi :10.1007/978-3-031-10193-9_4. ISBN 978-3-031-10192-2.
  4. ^ Botev, ZI; L'Ecuyer, P. (6 de diciembre de 2015). "Estimación de probabilidad eficiente y simulación de la distribución t de Student multivariada truncada". Conferencia de Simulación de Invierno de 2015 (WSC) . Huntington Beach, CA, EE. UU.: IEEE. págs. 380–391. doi :10.1109/WSC.2015.7408180.
  5. ^ Genz, Alan (2009). Cálculo de probabilidades normales y t multivariadas. Apuntes de clase sobre estadística. Vol. 195. Springer. doi :10.1007/978-3-642-01689-9. ISBN 978-3-642-01689-9Archivado desde el original el 27 de agosto de 2022. Consultado el 5 de septiembre de 2017 .
  6. ^ ab Muirhead, Robb (1982). Aspectos de la teoría estadística multivariante . Estados Unidos: Wiley. págs. 32-36. Teorema 1.5.4. ISBN 978-0-47 1-76985-9.
  7. ^ Cornish, EA (1954). "La distribución t multivariante asociada con un conjunto de muestras normales desviadas". Revista australiana de física . 7 : 531–542. doi : 10.1071/PH550193 .
  8. ^ Ding, Peng (2016). "Sobre la distribución condicional de la distribución t multivariante". The American Statistician . 70 (3): 293–295. arXiv : 1604.00561 . doi :10.1080/00031305.2016.1164756. S2CID  55842994.
  9. ^ Demarta, Stefano; McNeil, Alexander (2004). "La cópula t y cópulas relacionadas" (PDF) . Risknet .
  10. ^ Osiewalski, Jacek; Steele, Mark (1996). "Momentos posteriores de parámetros de escala en modelos de muestreo elíptico". Análisis bayesiano en estadística y econometría . Wiley. págs. 323–335. ISBN 0-471-11856-7.
  11. ^ Kibria, KMG; Joarder, AH (enero de 2006). "Una breve revisión de la distribución t multivariante" (PDF) . Revista de investigación estadística . 40 (1): 59–72. doi :10.1007/s42979-021-00503-0. S2CID  232163198.
  12. ^ Aitken, AC - (1948). Determinantes y matrices (5.ª ed.). Edimburgo: Oliver y Boyd. pp. Capítulo IV, sección 36.
  13. ^ Giron, Javier; del Castilo, Carmen (2010). "La distribución multivariante de Behrens-Fisher". Journal of Multivariate Analysis . 101 (9): 2091–2102. doi : 10.1016/j.jmva.2010.04.008 .
  14. ^ Okhrin, Y; Schmid, W (2006). "Propiedades distributivas de las ponderaciones de cartera". Revista de Econometría . 134 : 235–256. doi :10.1016/j.jeconom.2005.06.022.
  15. ^ Bodnar, T; Dmytriv, S; Parolya, N; Schmid, W (2019). "Pruebas para los pesos de la cartera de varianza mínima global en un entorno de alta dimensión". IEEE Trans. On Signal Processing . 67 (17): 4479–4493. arXiv : 1710.09587 . Código Bibliográfico :2019ITSP...67.4479B. doi :10.1109/TSP.2019.2929964.

Literatura

Enlaces externos