Generalización multivariable de la distribución t de Student.
En estadística , la distribución t multivariada (o distribución de Student multivariada ) es una distribución de probabilidad multivariada . Es una generalización a vectores aleatorios de la distribución t de Student , que es una distribución aplicable a variables aleatorias univariadas . Si bien el caso de una matriz aleatoria podría tratarse dentro de esta estructura, la distribución t de la matriz es distinta y hace un uso particular de la estructura matricial.
Definición
Un método común de construcción de una distribución t multivariada , para el caso de dimensiones, se basa en la observación de que si y son independientes y están distribuidas como y (es decir, distribuciones normal multivariada y chi-cuadrado ), respectivamente, la matriz es p × matriz p , y es un vector constante, entonces la variable aleatoria tiene la densidad [1]![{\displaystyle p}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbf {y} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle u}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle N({\mathbf {0} },{\boldsymbol {\Sigma }})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \chi _{\nu }^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbf {\Sigma } \,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\boldsymbol {\mu }}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\textstyle {\mathbf {x} }={\mathbf {y} }/{\sqrt {u/\nu }}+{\boldsymbol {\mu }}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\frac {\Gamma \left[(\nu +p)/2\right]}{\Gamma (\nu /2)\nu ^{p/2}\pi ^{p/2}\ izquierda|{\boldsymbol {\Sigma }}\right|^{1/2}}}\left[1+{\frac {1}{\nu }}({\mathbf {x} }-{\boldsymbol { \mu }})^{T}{\boldsymbol {\Sigma }}^{-1}({\mathbf {x} }-{\boldsymbol {\mu }})\right]^{-(\nu + p)/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
y se dice que está distribuido como una distribución t multivariada con parámetros . Tenga en cuenta que no es la matriz de covarianza ya que la covarianza viene dada por (para ).![{\displaystyle {\boldsymbol {\Sigma }},{\boldsymbol {\mu }},\nu }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbf {\Sigma } }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \nu /(\nu -2)\mathbf {\Sigma } }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \nu >2}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La definición constructiva de una distribución t multivariada sirve simultáneamente como algoritmo de muestreo:
- Generar y , de forma independiente.
![{\displaystyle u\sim \chi _{\nu }^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbf {y} \sim N(\mathbf {0} ,{\boldsymbol {\Sigma }})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- Calcular .
![{\displaystyle \mathbf {x} \gets {\sqrt {\nu /u}}\mathbf {y} +{\boldsymbol {\mu }}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Esta formulación da lugar a la representación jerárquica de una distribución t multivariada como una mezcla de escala de normales: donde indica una distribución gamma con densidad proporcional a y sigue condicionalmente .![{\displaystyle u\sim \mathrm {Ga} (\nu /2,\nu /2)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathrm {Ga} (a,b)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x^{a-1}e^{-bx}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbf {x} \mid u}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle N({\boldsymbol {\mu }},u^{-1}{\boldsymbol {\Sigma }})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
En el caso especial , la distribución es una distribución de Cauchy multivariada .![{\displaystyle \nu =1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Derivación
De hecho, existen muchos candidatos para la generalización multivariada de la distribución t de Student . Kotz y Nadarajah (2004) han realizado un amplio estudio de este campo. La cuestión esencial es definir una función de densidad de probabilidad de varias variables que sea la generalización adecuada de la fórmula para el caso univariado. En una dimensión ( ), con y , tenemos la función de densidad de probabilidad![{\displaystyle p=1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle t=x-\mu }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Sigma =1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f(t)={\frac {\Gamma [(\nu +1)/2]}{{\sqrt {\nu \pi \,}}\,\Gamma [\nu /2]}} (1+t^{2}/\nu )^{-(\nu +1)/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
y un enfoque es utilizar una función correspondiente de varias variables. Esta es la idea básica de la teoría de la distribución elíptica , donde se escribe una función correspondiente de variables que se reemplaza por una función cuadrática de todas las . Está claro que esto sólo tiene sentido cuando todas las distribuciones marginales tienen los mismos grados de libertad . Con , uno tiene una elección simple de función de densidad multivariada![{\displaystyle p}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle t_ {i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle t^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle\nu}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbf {A} ={\boldsymbol {\Sigma }}^{-1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f(\mathbf {t} )={\frac {\Gamma ((\nu +p)/2)\left|\mathbf {A} \right|^{1/2}}{{\sqrt {\nu ^{p}\pi ^{p}\,}}\,\Gamma (\nu /2)}}\left(1+\sum _{i,j=1}^{p,p} A_{ij}t_{i}t_{j}/\nu \right)^{-(\nu +p)/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
que es la opción estándar pero no la única.
Un caso especial importante es la distribución t bivariada estándar., pag = 2:
![{\displaystyle f(t_{1},t_{2})={\frac {\left|\mathbf {A} \right|^{1/2}}{2\pi }}\left(1+\ suma _{i,j=1}^{2,2}A_{ij}t_{i}t_{j}/\nu \right)^{-(\nu +2)/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Tenga en cuenta que .![{\displaystyle {\frac {\Gamma \left({\frac {\nu +2}{2}}\right)}{\pi \ \nu \Gamma \left({\frac {\nu }{2} }\right)}}={\frac {1}{2\pi }}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Ahora, si es la matriz identidad, la densidad es![{\displaystyle \mathbf {A} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f(t_{1},t_{2})={\frac {1}{2\pi }}\left(1+(t_{1}^{2}+t_{2}^{2 })/\nu \right)^{-(\nu +2)/2}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La dificultad con la representación estándar se revela en esta fórmula, que no factoriza el producto de las distribuciones marginales unidimensionales. Cuando es diagonal, se puede demostrar que la representación estándar tiene correlación cero , pero las distribuciones marginales no son estadísticamente independientes .![{\displaystyle \Sigma}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Una aparición espontánea notable de la distribución elíptica multivariada es su apariencia matemática formal cuando se aplican métodos de mínimos cuadrados a datos normales multivariados, como la solución econométrica de varianza mínima clásica de Markowitz para carteras de activos. [2]
Función de distribución acumulativa
La definición de la función de distribución acumulativa (cdf) en una dimensión se puede extender a múltiples dimensiones definiendo la siguiente probabilidad (aquí hay un vector real):![{\displaystyle \mathbf {x} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F(\mathbf {x} )=\mathbb {P} (\mathbf {X} \leq \mathbf {x} ),\quad {\textrm {donde}}\;\;\mathbf {X} \sim t_{\nu }({\boldsymbol {\mu }},{\boldsymbol {\Sigma }}).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
No existe una fórmula sencilla para , pero se puede aproximar numéricamente mediante la integración de Monte Carlo . [3] [4] [5]![{\displaystyle F(\mathbf {x} )}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Distribución condicional
Esto fue desarrollado por Muirhead [6] y Cornish. [7] pero luego se derivó utilizando la representación más simple de la relación chi-cuadrado anterior, por Roth [1] y Ding. [8] Deje que el vector siga una distribución t multivariada y se divida en dos subvectores de elementos:![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle p_ {1}, p_ {2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X_{p}={\begin{bmatrix}X_{1}\\X_{2}\end{bmatrix}}\sim t_{p}\left(\mu _{p},\Sigma _{ p\veces p},\nu \right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde , los vectores medios conocidos son y la matriz de escala es .![{\displaystyle p_{1}+p_{2}=p}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mu _{p}={\begin{bmatrix}\mu _{1}\\\mu _{2}\end{bmatrix}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Sigma _{p\times p}={\begin{bmatrix}\Sigma _{11}&\Sigma _{12}\\\Sigma _{21}&\Sigma _{22}\end{ matrizb}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Roth y Ding encuentran que la distribución condicional es una nueva distribución t con parámetros modificados. ![{\ Displaystyle p (X_ {1} | X_ {2})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X_{1}|X_{2}\sim t_{p_{1}}\left(\mu _{1|2},{\frac {\nu +d_{2}}{\nu +p_ {2}}}\Sigma _{11|2},\nu +p_{2}\right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Una expresión equivalente en Kotz et. Alabama. es algo menos conciso.
Al formar primero una distribución intermedia , la distribución condicional explícita se representa como:![{\displaystyle X_{1}|X_{2}\sim t_{p_{1}}\left(\mu _{1|2},\Psi ,{\tilde {\nu }}\right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f(X_{1}|X_{2})={\frac {\Gamma \left[({\tilde {\nu }}+p_{1})/2\right]}{\Gamma ( {\tilde {\nu }}/2)(\pi \,{\tilde {\nu }})^{p_{1}/2}\left|{\boldsymbol {\Psi }}\right|^{ 1/2}}}\left[1+{\frac {1}{\tilde {\nu }}}(X_{1}-\mu _{1|2})^{T}{\boldsymbol {\ Psi }}^{-1}(X_{1}-\mu _{1|2})\right]^{-({\tilde {\nu }}+p_{1})/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
dónde
Grados de libertad efectivos, aumentados por las variables en desuso.
es la media condicional de![{\displaystyle x_{1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
es el complemento de Schur de ; la covarianza condicional.![{\displaystyle \Sigma _{22}{\text{ en }}\Sigma }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
es la distancia de Mahalanobis al cuadrado con matriz de escala![{\displaystyle X_{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mu _{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Sigma _{22}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Psi ={\frac {\nu +d_{2}}{\nu +p_{2}}}\Sigma _{11|2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Cópulas basadas en la t multivariada
El uso de tales distribuciones está gozando de un interés renovado debido a las aplicaciones en finanzas matemáticas , especialmente mediante el uso de la cópula t de Student . [9]
Representación elíptica
Construida como una distribución elíptica , [10] toma el caso centralizado más simple con simetría esférica y sin escala, luego la t -PDF multivariada toma la forma![{\displaystyle \Sigma =\operatorname {I} \,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f_{X}(X)=g(X^{T}X)={\frac {\Gamma {\big (}{\frac {1}{2}}(\nu +p)\, {\big )}}{(\nu \pi )^{\,p/2}\Gamma {\big (}{\frac {1}{2}}\nu {\big )}}}{\bigg (}1+\nu ^{-1}X^{T}X{\bigg )}^{-(\nu +p)/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde y = grados de libertad como se define en Muirhead [6] sección 1.5. La covarianza de es![{\displaystyle X=(x_{1},\cdots ,x_{p})^{T}{\text{ es un }}p{\text{-vector}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle\nu}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \operatorname {E} \left(XX^{T}\right)=\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }f_{ X}(x_{1},\dots ,x_{p})XX^{T}\,dx_{1}\dots dx_{p}={\frac {\nu }{\nu -2}}\operatorname {I} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El objetivo es convertir la PDF cartesiana a radial. Kibria y Joarder, [11] definen la medida radial y, observando que la densidad depende sólo de r 2 , obtenemos![{\displaystyle r_{2}=R^{2}={\frac {X^{T}X}{p}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \operatorname {E} [r_{2}]=\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }f_{X}(x_{ 1},\dots ,x_{p}){\frac {X^{T}X}{p}}\,dx_{1}\dots dx_{p}={\frac {\nu }{\nu - 2}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
que es equivalente a la varianza del vector de elementos tratado como una secuencia aleatoria univariante de cola pesada y media cero con elementos no correlacionados, pero estadísticamente dependientes.![{\displaystyle p}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Distribución radial
sigue la Fisher-Snedecor o distribución:![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle r_{2}\sim f_{F}(p,\nu )=B{\bigg (}{\frac {p}{2}},{\frac {\nu }{2}}{\ grande )}^{-1}{\bigg (}{\frac {p}{\nu }}{\bigg )}^{p/2}r_{2}^{p/2-1}{\bigg (}1+{\frac {p}{\nu }}r_{2}{\bigg )}^{-(p+\nu )/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
teniendo valor medio . -Las distribuciones surgen naturalmente en pruebas de sumas de cuadrados de datos muestreados después de la normalización por la desviación estándar de la muestra.![{\displaystyle \operatorname {E} [r_{2}]={\frac {\nu }{\nu -2}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Mediante un cambio de variable aleatoria en la ecuación anterior, manteniendo -vector , tenemos una distribución de probabilidad ![{\displaystyle y={\frac {p}{\nu }}r_{2}={\frac {X^{T}X}{\nu }}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle p}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \operatorname {E} [y]=\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }f_{X}(X){\frac {X^{T}X}{\nu }}\,dx_{1}\dots dx_{p}={\frac {p}{\nu -2}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{aligned}f_{Y}(y|\,p,\nu )&=\left|{\frac {p}{\nu }}\right|^{-1}B{\ grande (}{\frac {p}{2}},{\frac {\nu }{2}}{\bigg )}^{-1}{\big (}{\frac {p}{\nu } }{\big )}^{\,p/2}{\big (}{\frac {p}{\nu }}{\big )}^{-p/2-1}y^{\,p /2-1}{\big (}1+y{\big )}^{-(p+\nu )/2}\\\\&=B{\bigg (}{\frac {p}{2} },{\frac {\nu }{2}}{\bigg )}^{-1}y^{\,p/2-1}(1+y)^{-(\nu +p)/2 }\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
que es una distribución Beta-prime regular que tiene un valor medio .![{\displaystyle y\sim \beta \,'{\bigg (}y;{\frac {p}{2}},{\frac {\nu }{2}}{\bigg )}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\frac {{\frac {1}{2}}p}{{\frac {1}{2}}\nu -1}}={\frac {p}{\nu -2}} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Distribución radial acumulativa
Dada la distribución Beta-prime, se conoce la función de distribución radial acumulativa de :![{\displaystyle y}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F_{Y}(y)\sim I\,{\bigg (}{\frac {y}{1+y}};\,{\frac {p}{2}},{\frac { \nu }{2}}{\bigg )}B{\bigg (}{\frac {p}{2}},{\frac {\nu }{2}}{\bigg )}^{-1} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde es la función Beta incompleta y se aplica con un supuesto esférico.![{\displaystyle I}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Sigma}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
En el caso escalar , la distribución es equivalente a t de Student con la equivalencia , la variable t tiene colas de doble cara para propósitos CDF, es decir, la "prueba t de dos colas".![{\displaystyle p=1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle t^{2}=y^{2}\sigma ^{-1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La distribución radial también se puede derivar mediante una sencilla transformación de coordenadas de cartesiana a esférica. Una superficie de radio constante con PDF es una superficie de isodensidad. Dado este valor de densidad, el cuanto de probabilidad en una capa de área de superficie y espesor en es .![{\displaystyle R=(X^{T}X)^{1/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle p_{X}(X)\propto {\bigg (}1+\nu ^{-1}R^{2}{\bigg )}^{-(\nu +p)/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle A_ {R}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \delta R}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle R}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \delta P=p_{X}(R)\,A_{R}\delta R}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La esfera encerrada de radio tiene área de superficie . La sustitución en muestra que el caparazón tiene un elemento de probabilidad que es equivalente a la función de densidad radial![{\displaystyle p}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle R}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A_{R}={\frac {2\pi ^{p/2}R^{\,p-1}}{\Gamma (p/2)}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \delta P}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \delta P=p_{X}(R){\frac {2\pi ^{p/2}R^{p-1}}{\Gamma (p/2)}}\delta R}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f_{R}(R)={\frac {\Gamma {\big (}{\frac {1}{2}}(\nu +p)\,{\big )}}{\nu ^ {\,p/2}\pi ^{\,p/2}\Gamma {\big (}{\frac {1}{2}}\nu {\big )}}}{\frac {2\pi ^{p/2}R^{p-1}}{\Gamma (p/2)}}{\bigg (}1+{\frac {R^{2}}{\nu }}{\bigg ) }^{-(\nu +p)/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
lo que simplifica aún más dónde está la función Beta .![{\displaystyle f_{R}(R)={\frac {2}{\nu ^{1/2}B{\big (}{\frac {1}{2}}p,{\frac {1} {2}}\nu {\big )}}}{\bigg (}{\frac {R^{2}}{\nu }}{\bigg )}^{(p-1)/2}{\ grande (}1+{\frac {R^{2}}{\nu }}{\bigg )}^{-(\nu +p)/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B(*,*)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Cambiar la variable radial para devolver la distribución Beta Prime anterior![{\displaystyle y=R^{2}/\nu }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f_{Y}(y)={\frac {1}{B{\big (}{\frac {1}{2}}p,{\frac {1}{2}}\nu {\ grande )}}}y^{\,p/2-1}{\bigg (}1+y{\bigg )}^{-(\nu +p)/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Para escalar las variables radiales sin cambiar la función de forma radial, defina la matriz de escala , lo que producirá una función de densidad cartesiana de 3 parámetros, es decir. la probabilidad en elemento de volumen es![{\displaystyle \Sigma =\alpha \operatorname {I} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Delta _ {P}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle dx_{1}\dots dx_{p}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Delta _{P}{\big (}f_{X}(X\,|\alpha ,p,\nu ){\big )}={\frac {\Gamma {\big (}{\ frac {1}{2}}(\nu +p)\,{\big )}}{(\nu \pi )^{\,p/2}\alpha ^{\,p/2}\Gamma { \big (}{\frac {1}{2}}\nu {\big )}}}{\bigg (}1+{\frac {X^{T}X}{\alpha \nu }}{\ grande )}^{-(\nu +p)/2}\;dx_{1}\dots dx_{p}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
o, en términos de variable radial escalar ,![{\displaystyle R}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f_{R}(R\,|\alpha ,p,\nu )={\frac {2}{\alpha ^{1/2}\;\nu ^{1/2}B{\big (}{\frac {1}{2}}p,{\frac {1}{2}}\nu {\big )}}}{\bigg (}{\frac {R^{2}}{\ alfa \,\nu }}{\bigg )}^{(p-1)/2}{\bigg (}1+{\frac {R^{2}}{\alpha \,\nu }}{\ grande )}^{-(\nu +p)/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Momentos radiales
Los momentos de todas las variables radiales, con el supuesto de distribución esférica, se pueden derivar de la distribución Beta Prime. Si es así , un resultado conocido. Así, para la variable tenemos ![{\displaystyle Z\sim \beta '(a,b)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \operatorname {E} (Z^{m})={\frac {B(a+m,bm)}{B(a,b)}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle y={\frac {p}{\nu }}R^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \operatorname {E} (y^{m})={\frac {B({\frac {1}{2}}p+m,{\frac {1}{2}}\nu -m )}{B({\frac {1}{2}}p,{\frac {1}{2}}\nu )}}={\frac {\Gamma {\big (}{\frac {1} {2}}p+m{\big )}\;\Gamma {\big (}{\frac {1}{2}}\nu -m{\big )}}{\Gamma {\big (}{ \frac {1}{2}}p{\big )}\;\Gamma {\big (}{\frac {1}{2}}\nu {\big )}}},\;\nu /2 >m}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Los momentos de son ![{\displaystyle r_{2}=\nu \,y}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \operatorname {E} (r_{2}^{m})=\nu ^{m}\operatorname {E} (y^{m})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
al introducir la matriz de escala se obtiene![{\displaystyle \alpha \operatorname {I} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \operatorname {E} (r_{2}^{m}|\alpha )=\alpha ^{m}\nu ^{m}\operatorname {E} (y^{m})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Los momentos relacionados con la variable radial se encuentran estableciendo y con lo cual![{\displaystyle R}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle R=(\alpha \nu y)^{1/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M=2m}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \operatorname {E} (R^{M})=\operatorname {E} {\big (}(\alpha \nu y)^{1/2}{\big )}^{2m}=( \alpha \nu )^{M/2}\operatorname {E} (y^{M/2})=(\alpha \nu )^{M/2}{\frac {B{\big (}{\ frac {1}{2}}(p+M),{\frac {1}{2}}(\nu -M){\big )}}{B({\frac {1}{2}}p ,{\frac {1}{2}}\nu )}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Combinaciones lineales y transformación afín
Transformación de rango completo
Esto se relaciona estrechamente con el método normal multivariado y se describe en Kotz y Nadarajah, Kibria y Joarder, Roth y Cornish. A partir de una versión algo simplificada del pdf central MV-t: , donde es una constante y es arbitraria pero fija, sea una matriz de rango completo y forme un vector . Luego, mediante un simple cambio de variables![{\displaystyle f_{X}(X)={\frac {\mathrm {K} }{\left|\Sigma \right|^{1/2}}}\left(1+\nu ^{-1} X^{T}\Sigma ^{-1}X\right)^{-\left(\nu +p\right)/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathrm {K} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle\nu}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Theta \in \mathbb {R} ^{p\times p}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Y=\Theta X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f_{Y}(Y)={\frac {\mathrm {K} }{\left|\Sigma \right|^{1/2}}}\left(1+\nu ^{-1} Y^{T}\Theta ^{-T}\Sigma ^{-1}\Theta ^{-1}Y\right)^{-\left(\nu +p\right)/2}\left|{ \frac {\Y parcial}{\X parcial}}\right|^{-1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La matriz de derivadas parciales es y la jacobiana se convierte en . De este modo![{\displaystyle {\frac {\partial Y_{i}}{\partial X_{j}}}=\Theta _{i,j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \left|{\frac {\partial Y}{\partial X}}\right|=\left|\Theta \right|}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f_{Y}(Y)={\frac {\mathrm {K} }{\left|\Sigma \right|^{1/2}\left|\Theta \right|}}\left(1 +\nu ^{-1}Y^{T}\Theta ^{-T}\Sigma ^{-1}\Theta ^{-1}Y\right)^{-\left(\nu +p\right )/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El denominador se reduce a
![{\displaystyle \left|\Sigma \right|^{1/2}\left|\Theta \right|=\left|\Sigma \right|^{1/2}\left|\Theta \right|^{ 1/2}\left|\Theta ^{T}\right|^{1/2}=\left|\Theta \Sigma \Theta ^{T}\right|^{1/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
En su totalidad:
![{\displaystyle f_{Y}(Y)={\frac {\Gamma \left[(\nu +p)/2\right]}{\Gamma (\nu /2)\,(\nu \,\pi )^{\,p/2}\left|\Theta \Sigma \Theta ^{T}\right|^{1/2}}}\left(1+\nu ^{-1}Y^{T} \left(\Theta \Sigma \Theta ^{T}\right)^{-1}Y\right)^{-\left(\nu +p\right)/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
que es una distribución regular MV- t .
En general, si y tiene rango completo , entonces![{\displaystyle X\sim t_{p}(\mu,\Sigma,\nu)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Theta ^{p\times p}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle p}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Theta X+c\sim t_{p}(\Theta \mu +c,\Theta \Sigma \Theta ^{T},\nu )}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Distribuciones marginales
Este es un caso especial de la siguiente transformación lineal de reducción de rango. Kotz define las distribuciones marginales de la siguiente manera. Partición en dos subvectores de elementos:![{\displaystyle X\sim t(p,\mu ,\Sigma ,\nu )}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle p_ {1}, p_ {2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X_{p}={\begin{bmatrix}X_{1}\\X_{2}\end{bmatrix}}\sim t\left(p_{1}+p_{2},\mu _{ p},\Sigma _{p\times p},\nu \right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
con , media , matriz de escala![{\displaystyle p_{1}+p_{2}=p}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mu _{p}={\begin{bmatrix}\mu _{1}\\\mu _{2}\end{bmatrix}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Sigma _{p\times p}={\begin{bmatrix}\Sigma _{11}&\Sigma _{12}\\\Sigma _{21}&\Sigma _{22}\end{ matrizb}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
entonces , tal que![{\displaystyle X_{1}\sim t\left(p_{1},\mu _{1},\Sigma _{11},\nu \right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X_{2}\sim t\left(p_{2},\mu _{2},\Sigma _{22},\nu \right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f(X_{1})={\frac {\Gamma \left[(\nu +p_{1})/2\right]}{\Gamma (\nu /2)\,(\nu \ ,\pi )^{\,p_{1}/2}\left|{{\boldsymbol {\Sigma }}_{11}}\right|^{1/2}}}\left[1+{\ frac {1}{\nu }}({\mathbf {X} _{1}}-{{\boldsymbol {\mu }}_{1}})^{T}{\boldsymbol {\Sigma }}_ {11}^{-1}({\mathbf {X} _{1}}-{{\boldsymbol {\mu }}_{1}})\right]^{-(\nu \,+\, p_ {1})/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f(X_{2})={\frac {\Gamma \left[(\nu +p_{2})/2\right]}{\Gamma (\nu /2)\,(\nu \ ,\pi )^{\,p_{2}/2}\left|{{\boldsymbol {\Sigma }}_{22}}\right|^{1/2}}}\left[1+{\ frac {1}{\nu }}({\mathbf {X} _{2}}-{{\boldsymbol {\mu }}_{2}})^{T}{\boldsymbol {\Sigma }}_ {22}^{-1}({\mathbf {X} _{2}}-{{\boldsymbol {\mu }}_{2}})\right]^{-(\nu \,+\, p_ {2})/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Si se construye una transformación en la forma
![{\displaystyle \Theta _{p_{1}\times \,p}={\begin{bmatrix}1&\cdots &0&\cdots &0\\0&\ddots &0&\cdots &0\\0&\cdots &1&\cdots &0\ fin {bmatrix}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
entonces el vector , como se analiza a continuación, tiene la misma distribución que la distribución marginal de .![{\displaystyle Y=\Theta X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X_{1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Transformación lineal de reducción de rango
En el caso de la transformación lineal, si es una matriz rectangular , el resultado de rango es la reducción de dimensionalidad. Aquí, el jacobiano es aparentemente rectangular, pero el valor en el denominador pdf es correcto. Hay una discusión sobre los determinantes del producto de matriz rectangular en Aitken. [12] En general, si y tiene rango completo , entonces![{\displaystyle \Theta}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Theta \in \mathbb {R} ^{m\times p},m<p}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle m}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \left|\Theta \right|}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \left|\Theta \Sigma \Theta ^{T}\right|^{1/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X\sim t(p,\mu ,\Sigma ,\nu )}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Theta ^{m\times p}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle m}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Y=\Theta X+c\sim t(m,\Theta \mu +c,\Theta \Sigma \Theta ^{T},\nu )}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f_{Y}(Y)={\frac {\Gamma \left[(\nu +m)/2\right]}{\Gamma (\nu /2)\,(\nu \,\pi )^{\,m/2}\left|\Theta \Sigma \Theta ^{T}\right|^{1/2}}}\left[1+{\frac {1}{\nu }}( Y-c_{1})^{T}(\Theta \Sigma \Theta ^{T})^{-1}(Y-c_{1})\right]^{-(\nu \,+\, m)/2},\;c_{1}=\Theta \mu +c}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
In extremis , si m = 1 y se convierte en un vector fila, entonces el escalar Y sigue una distribución t de Student univariada de doble cara definida por con los mismos grados de libertad. Kibria et. Alabama. use la transformación afín para encontrar las distribuciones marginales que también son MV- t .![{\displaystyle \Theta}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle t^{2}=Y^{2}/\sigma ^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle\nu}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- Durante las transformaciones afines de variables con distribuciones elípticas, todos los vectores deben derivar en última instancia de un vector esférico isotrópico inicial cuyos elementos permanecen "entrelazados" y no son estadísticamente independientes.
![{\displaystyle Z}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- Un vector de muestras t de Student independientes no es consistente con la distribución t multivariada.
- Agregar dos vectores t multivariados de muestra generados con muestras de Chi-cuadrado independientes y valores diferentes no producirá distribuciones internamente consistentes, aunque generarán un problema de Behrens-Fisher . [13]
![{\displaystyle\nu}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\textstyle {1}/{\sqrt {u_{1}/\nu _{1}}},\;\;{1}/{\sqrt {u_{2}/\nu _{2}}} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- Taleb compara muchos ejemplos de distribuciones multivariadas elípticas y no elípticas de cola gruesa
Conceptos relacionados
- En estadística univariante, la prueba t de Student utiliza la distribución t de Student
- La distribución elíptica multivariada t surge espontáneamente en soluciones de mínimos cuadrados linealmente restringidos que involucran datos de origen normales multivariados, por ejemplo, la solución de varianza mínima global de Markowitz en el análisis de cartera financiera. [14] [15] [2] que aborda un conjunto de vectores aleatorios normales o una matriz aleatoria. No surge en mínimos cuadrados ordinarios (MCO) ni en regresión múltiple con variables dependientes e independientes fijas, problema que tiende a producir probabilidades de error normales de buen comportamiento.
- La distribución T -cuadrada de Hotelling es una distribución que surge en la estadística multivariada.
- La distribución t matricial es una distribución de variables aleatorias dispuestas en una estructura matricial.
Ver también
Referencias
- ^ ab Roth, Michael (17 de abril de 2013). "Sobre la distribución t multivariada" (PDF) . Grupo de Control Automático. Universidad de Linköpin, Suecia . Archivado (PDF) desde el original el 31 de julio de 2022 . Consultado el 1 de junio de 2022 .
- ^ ab Bodnar, T; Okhrin, Y (2008). "Propiedades de la distribución Wishart particionada inversa singular, inversa y generalizada" (PDF) . Revista de análisis multivariado . 99 (ecuación 20): 2389–2405.
- ^ Botev, Z.; Chen, Y.-L. (2022). "Capítulo 4: Cálculos de estudiantes multivariados truncados mediante inclinación exponencial". En Botev, Zdravko; Keller, Alejandro; Lemieux, Christiane; Tuffin, Bruno (eds.). Avances en modelado y simulación: Festschrift para Pierre L'Ecuyer . Saltador. págs. 65–87. ISBN 978-3-031-10192-2.
- ^ Botev, ZI; L'Ecuyer, P. (6 de diciembre de 2015). "Estimación eficiente de probabilidad y simulación de la distribución t de Student multivariada truncada". Conferencia de simulación de invierno de 2015 (WSC) . Huntington Beach, California, Estados Unidos: IEEE. págs. 380–391. doi :10.1109/WSC.2015.7408180.
- ^ Genz, Alan (2009). Cálculo de probabilidades multivariadas normales y t. Apuntes de conferencias sobre estadística. vol. 195. Saltador. doi :10.1007/978-3-642-01689-9. ISBN 978-3-642-01689-9. Archivado desde el original el 27 de agosto de 2022 . Consultado el 5 de septiembre de 2017 .
- ^ ab Muirhead, Robb (1982). Aspectos de la teoría estadística multivariada . Estados Unidos: Wiley. Págs. 32–36 Teorema 1.5.4. ISBN 978-0-47 1-76985-9.
- ^ de Cornualles, EA (1954). "La distribución t multivariada asociada con un conjunto de desviaciones muestrales normales". Revista Australiana de Física . 7 : 531–542. doi : 10.1071/PH550193 .
- ^ Ding, Peng (2016). "Sobre la distribución condicional de la distribución t multivariada". El estadístico estadounidense . 70 (3): 293–295. arXiv : 1604.00561 . doi :10.1080/00031305.2016.1164756. S2CID 55842994.
- ^ Demarta, Stefano; McNeil, Alejandro (2004). «La t Cópula y Cópulas afines» (PDF) . Red de riesgo .
- ^ Osiewalski, Jacek; Steele, Marcos (1996). "Momentos posteriores de los parámetros de escala en modelos de muestreo elípticos". Análisis Bayesiano en Estadística y Econometría . Wiley. págs. 323–335. ISBN 0-471-11856-7.
- ^ Kibria, KMG; Joarder, AH (enero de 2006). "Una breve reseña de la distribución t multivariada" (PDF) . Revista de investigación estadística . 40 (1): 59–72. doi :10.1007/s42979-021-00503-0. S2CID 232163198.
- ^ Aitken, AC - (1948). Determinantes y matrices (5ª ed.). Edimburgo: Oliver y Boyd. págs. Capítulo IV, sección 36.
- ^ Girón, Javier; del Castillo, Carmen (2010). "La distribución multivariada de Behrens-Fisher". Revista de análisis multivariado . 101 (9): 2091-2102. doi : 10.1016/j.jmva.2010.04.008 .
- ^ Okrin, Y; Schmid, W (2006). "Propiedades distributivas de las ponderaciones de cartera". Revista de Econometría . 134 : 235–256.
- ^ Bodnar, T; Dmítriv, S; Parolya, N; Schmid, W (2019). "Pruebas para las ponderaciones de la cartera de varianza mínima global en un entorno de alta dimensión". Traducción IEEE. sobre procesamiento de señales . 67 (17): 4479–4493.
Literatura
- Kotz, Samuel; Nadarajah, Saralees (2004). Distribuciones t multivariadas y sus aplicaciones . Prensa de la Universidad de Cambridge. ISBN 978-0521826549.
- Cherubini, Umberto; Luciano, Elisa; Vecchiato, Walter (2004). Métodos de cópula en finanzas . John Wiley e hijos. ISBN 978-0470863442.
- Taleb, Nassim Nicolás (2023). Consecuencias estadísticas de Fat Tails (1ª ed.). Prensa académica. ISBN 979-8218248031.
enlaces externos
- Métodos de cópula versus distribuciones multivariadas canónicas: la distribución T de Student multivariada con grados de libertad generales
- Distribución t de Student multivariada