Generalización de la distribución normal unidimensional a dimensiones superiores.
En teoría de probabilidad y estadística , la distribución normal multivariada , la distribución gaussiana multivariada o la distribución normal conjunta es una generalización de la distribución normal unidimensional ( univariada ) a dimensiones superiores . Una definición es que se dice que un vector aleatorio tiene k -variación de distribución normal si cada combinación lineal de sus k componentes tiene una distribución normal univariada. Su importancia deriva principalmente del teorema del límite central multivariado . La distribución normal multivariada se utiliza a menudo para describir, al menos aproximadamente, cualquier conjunto de variables aleatorias de valor real (posiblemente) correlacionadas , cada una de las cuales se agrupa alrededor de un valor medio.
Definiciones
Notación y parametrización
La distribución normal multivariada de un vector aleatorio k -dimensional se puede escribir en la siguiente notación:
o para hacer saber explícitamente que X es k -dimensional,
Un vector aleatorio real se denomina vector aleatorio normal estándar si todos sus componentes son independientes y cada uno es una variable aleatoria de varianza unitaria de media cero distribuida normalmente, es decir, si para todos . [1] : pág. 454
Vector aleatorio normal centrado
Un vector aleatorio real se denomina vector aleatorio normal centrado si existe una matriz determinista que tenga la misma distribución que un vector aleatorio normal estándar con componentes. [1] : pág. 454
Vector aleatorio normal
Un vector aleatorio real se llama vector aleatorio normal si existe un vector aleatorio , que es un vector aleatorio normal estándar, un vector y una matriz , tal que . [2] : pág. 454 [1] : pág. 455
En el caso degenerado donde la matriz de covarianza es singular , la distribución correspondiente no tiene densidad; consulte la sección siguiente para obtener más detalles. Este caso surge frecuentemente en estadística ; por ejemplo, en la distribución del vector de residuos en la regresión de mínimos cuadrados ordinarios . En general no son independientes; pueden verse como el resultado de aplicar la matriz a una colección de variables gaussianas independientes .
Definiciones equivalentes
Las siguientes definiciones son equivalentes a la definición dada anteriormente. Un vector aleatorio tiene una distribución normal multivariada si satisface una de las siguientes condiciones equivalentes.
Toda combinación lineal de sus componentes tiene una distribución normal . Es decir, para cualquier vector constante , la variable aleatoria tiene una distribución normal univariada, donde una distribución normal univariada con varianza cero es una masa puntual en su media.
La distribución normal esférica se puede caracterizar como la distribución única donde los componentes son independientes en cualquier sistema de coordenadas ortogonales. [3] [4]
donde es un vector columna real de k dimensiones y es el determinante de , también conocido como varianza generalizada . La ecuación anterior se reduce a la de la distribución normal univariada si es una matriz (es decir, un único número real).
Cada lugar geométrico de isodensidad (el lugar geométrico de los puntos en el espacio k -dimensional, cada uno de los cuales da el mismo valor particular de la densidad) es una elipse o su generalización de dimensiones superiores; por tanto, la normal multivariada es un caso especial de distribuciones elípticas .
La cantidad se conoce como distancia de Mahalanobis , que representa la distancia del punto de prueba a la media . La distancia de Mahalanobis al cuadrado se descompone en una suma de k términos, siendo cada término un producto de tres componentes significativos. [6]
Tenga en cuenta que en el caso en que , la distribución se reduce a una distribución normal univariada y la distancia de Mahalanobis se reduce al valor absoluto de la puntuación estándar . Consulte también Intervalo a continuación.
En el caso bivariado, la primera condición equivalente para la reconstrucción multivariada de la normalidad puede hacerse menos restrictiva, ya que es suficiente verificar que un conjunto infinitamente numerable de combinaciones lineales distintas de y son normales para concluir que el vector de es normal bivariado. [7]
Los loci de isodensidad bivariados trazados en el plano son elipses , cuyos ejes principales están definidos por los vectores propios de la matriz de covarianza (los semidiámetros mayor y menor de la elipse son iguales a la raíz cuadrada de los valores propios ordenados).
A medida que aumenta el valor absoluto del parámetro de correlación , estos loci se comprimen hacia la siguiente línea:
Si la matriz de covarianza no tiene rango completo, entonces la distribución normal multivariada es degenerada y no tiene densidad. Más precisamente, no tiene densidad con respecto a la medida de Lebesgue k -dimensional (que es la medida habitual que se asume en los cursos de probabilidad a nivel de cálculo). Sólo se dice que los vectores aleatorios cuyas distribuciones son absolutamente continuas con respecto a una medida tienen densidades (con respecto a esa medida). Para hablar de densidades pero evitar lidiar con complicaciones de la teoría de la medida, puede ser más sencillo restringir la atención a un subconjunto de las coordenadas de tal que la matriz de covarianza para este subconjunto sea definida positiva; entonces las otras coordenadas pueden considerarse como una función afín de estas coordenadas seleccionadas. [9]
Entonces, para hablar de densidades de manera significativa en casos singulares, debemos seleccionar una medida base diferente. Usando el teorema de desintegración podemos definir una restricción de la medida de Lebesgue al subespacio afín -dimensional donde se admite la distribución gaussiana, es decir . Respecto a esta medida la distribución tiene la densidad del siguiente motivo:
La noción de función de distribución acumulativa (cdf) en la dimensión 1 se puede extender de dos maneras al caso multidimensional, basado en regiones rectangulares y elipsoidales.
La primera forma es definir la CDF de un vector aleatorio como la probabilidad de que todos los componentes de sean menores o iguales que los valores correspondientes en el vector : [11]
Aunque no existe una forma cerrada para , existen varios algoritmos que lo estiman numéricamente. [11] [12]
Otra forma es definir la cdf como la probabilidad de que una muestra se encuentre dentro del elipsoide determinada por su distancia de Mahalanobis del gaussiano, una generalización directa de la desviación estándar. [13]
Para calcular los valores de esta función, existen fórmulas analíticas cerradas, [13] como sigue.
Intervalo
El intervalo para la distribución normal multivariada produce una región que consta de aquellos vectores x que satisfacen
Aquí hay un vector dimensional, es el vector medio dimensional conocido, es la matriz de covarianza conocida y es la función cuantil para la probabilidad de la distribución chi-cuadrado con grados de libertad. [14]
Cuando la expresión define el interior de una elipse y la distribución chi-cuadrado se simplifica a una distribución exponencial con media igual a dos (tasa igual a la mitad).
Función de distribución acumulativa complementaria (distribución de cola)
La función de distribución acumulativa complementaria (ccdf) o distribución de cola
se define como . Cuando , entonces el ccdf se puede escribir como una probabilidad del máximo de las variables gaussianas dependientes: [15]
Si bien no existe una fórmula cerrada simple para calcular el ccdf, el máximo de variables gaussianas dependientes se puede estimar con precisión mediante el método de Monte Carlo . [15] [16]
Propiedades
Probabilidad en diferentes dominios
El contenido de probabilidad de la normal multivariada en un dominio cuadrático definido por (donde es una matriz, es un vector y es un escalar), que es relevante para la teoría de clasificación/decisión bayesiana utilizando el análisis discriminante gaussiano, viene dado por la chi- distribución al cuadrado . [17]
El contenido de probabilidad dentro de cualquier dominio general definido por (donde es una función general) se puede calcular utilizando el método numérico de trazado de rayos [17] (código Matlab).
donde la suma se toma de todas las asignaciones del conjunto en λ pares (desordenados). Es decir, para un k ésimo (= 2 λ = 6) momento central, se suman los productos de λ = 3 covarianzas (el valor esperado μ se considera 0 en aras de la parsimonia):
Esto produce términos en la suma (15 en el caso anterior), siendo cada uno el producto de λ (en este caso 3) covarianzas. Para momentos de cuarto orden (cuatro variables) hay tres términos. Para momentos de sexto orden hay 3 × 5 = 15 términos, y para momentos de octavo orden hay 3 × 5 × 7 = 105 términos.
Luego, las covarianzas se determinan reemplazando los términos de la lista por los términos correspondientes de la lista que consta de r 1 unos, luego r 2 dos, etc. Para ilustrar esto, examine el siguiente caso de momento central de cuarto orden:
¿Dónde está la covarianza de X i y X j ? Con el método anterior, primero se encuentra el caso general para un k ésimo momento con k variables X diferentes , y luego se simplifica esto en consecuencia. Por ejemplo, para , se supone que X i = X j y se utiliza el hecho de que .
Si se conocen la matriz de media y covarianza, el registro de probabilidad de un vector observado es simplemente el registro de la función de densidad de probabilidad :
,
La versión circularmente simétrica del caso complejo no central, donde es un vector de números complejos, sería
El logaritmo debe tomarse en base e, ya que los dos términos que siguen al logaritmo son en sí mismos logaritmos en base e de expresiones que son factores de la función de densidad o que surgen de forma natural. Por tanto, la ecuación da un resultado medido en nats . Al dividir toda la expresión anterior por log e 2 se obtiene la divergencia en bits .
Cuando ,
Información mutua
La información mutua de una distribución es un caso especial de la divergencia de Kullback-Leibler en la que es la distribución multivariada completa y es el producto de las distribuciones marginales unidimensionales. En la notación de la sección de divergencia Kullback-Leibler de este artículo, hay una matriz diagonal con las entradas diagonales de , y . La fórmula resultante para la información mutua es:
En el caso bivariado la expresión para la información mutua es:
Normalidad conjunta
Normalmente distribuido e independiente.
Si y están normalmente distribuidos e independientes , esto implica que están "normalmente distribuidos conjuntamente", es decir, el par debe tener una distribución normal multivariada. Sin embargo, un par de variables distribuidas normalmente de forma conjunta no tienen por qué ser independientes (solo lo serían si no estuvieran correlacionadas ).
Dos variables aleatorias distribuidas normalmente no necesitan ser normales bivariadas conjuntamente
El hecho de que dos variables aleatorias tengan una distribución normal no implica que el par tenga una distribución normal conjunta. Un ejemplo simple es aquel en el que X tiene una distribución normal con valor esperado 0 y varianza 1, y si y si , donde . Existen contraejemplos similares para más de dos variables aleatorias. En general, suman un modelo mixto . [ cita necesaria ]
Correlaciones e independencia
En general, las variables aleatorias pueden no estar correlacionadas pero ser estadísticamente dependientes. Pero si un vector aleatorio tiene una distribución normal multivariada, entonces dos o más de sus componentes que no están correlacionados son independientes . Esto implica que dos o más de sus componentes que son independientes por pares son independientes. Pero, como se señaló anteriormente, no es cierto que dos variables aleatorias que están ( por separado , marginalmente) normalmente distribuidas y no correlacionadas sean independientes.
Distribuciones condicionales
Si N -dimensional x se divide de la siguiente manera
y en consecuencia μ y Σ se dividen de la siguiente manera
entonces la distribución de x 1 condicional a x 2 = a es normal multivariada [23] ( x 1 | x 2 = a ) ~ N ( μ , Σ ) donde
y matriz de covarianza
[24]
Aquí está el inverso generalizado de . La matriz es el complemento de Schur de Σ 22 en Σ . Es decir, la ecuación anterior equivale a invertir la matriz de covarianza general, eliminar las filas y columnas correspondientes a las variables condicionadas y volver a invertir para obtener la matriz de covarianza condicional.
Tenga en cuenta que saber que x 2 = a altera la varianza, aunque la nueva varianza no depende del valor específico de a ; Quizás lo más sorprendente es que la media se desplaza en ; compare esto con la situación de no conocer el valor de a , en cuyo caso x 1 tendría distribución .
Un hecho interesante derivado para probar este resultado es que los vectores aleatorios y son independientes.
La matriz Σ 12 Σ 22 −1 se conoce como matriz de coeficientes de regresión .
Caso bivariado
En el caso bivariado donde x se divide en y , la distribución condicional de dado es [25]
Para obtener la distribución marginal sobre un subconjunto de variables aleatorias normales multivariadas, sólo es necesario eliminar las variables irrelevantes (las variables que se quieren marginar) del vector medio y la matriz de covarianza. La prueba de esto se desprende de las definiciones de distribuciones normales multivariadas y álgebra lineal. [27]
Ejemplo
Sean X = [ X 1 , X 2 , X 3 ] variables aleatorias normales multivariadas con vector medio μ = [ μ 1 , μ 2 , μ 3 ] y matriz de covarianza Σ (parametrización estándar para distribuciones normales multivariadas). Entonces la distribución conjunta de X ′ = [ X 1 , X 3 ] es normal multivariada con vector medio μ ′ = [ μ 1 , μ 3 ] y matriz de covarianza .
Transformacion afin
Si Y = c + BX es una transformación afín de donde c es un vector de constantes y B es una matriz constante , entonces Y tiene una distribución normal multivariada con valor esperado c + Bμ y varianza BΣB T , es decir, . En particular, cualquier subconjunto de X i tiene una distribución marginal que también es normal multivariada. Para ver esto, considere el siguiente ejemplo: para extraer el subconjunto ( X 1 , X 2 , X 4 ) T , use
que extrae los elementos deseados directamente.
Otro corolario es que la distribución de Z = b · X , donde b es un vector constante con el mismo número de elementos que X y el punto indica el producto escalar , es gaussiana univariada con . Este resultado se obtiene utilizando
Observe cómo la definición positiva de Σ implica que la varianza del producto escalar debe ser positiva.
Los contornos de equidensidad de una distribución normal multivariada no singular son elipsoides (es decir, transformaciones afines de hiperesferas ) centrados en la media. [28] Por lo tanto, la distribución normal multivariada es un ejemplo de la clase de distribuciones elípticas . Las direcciones de los ejes principales de los elipsoides vienen dadas por los vectores propios de la matriz de covarianza . Las longitudes relativas al cuadrado de los ejes principales vienen dadas por los valores propios correspondientes.
Si Σ = UΛU T = UΛ 1/2 ( UΛ 1/2 ) T es una descomposición propia donde las columnas de U son vectores propios unitarios y Λ es una matriz diagonal de los valores propios, entonces tenemos
Además, se puede elegir que U sea una matriz de rotación , ya que invertir un eje no tiene ningún efecto sobre N (0, Λ ), pero invertir una columna cambia el signo del determinante de U. La distribución N ( μ , Σ ) es, en efecto, N (0, I ) escalada por Λ 1/2 , rotada por U y trasladada por μ .
Por el contrario, cualquier elección de μ , matriz de rango completo U y entradas diagonales positivas Λ i produce una distribución normal multivariada no singular. Si cualquier Λ i es cero y U es cuadrado, la matriz de covarianza resultante UΛU T es singular . Geométricamente, esto significa que cada elipsoide de contorno es infinitamente delgado y tiene volumen cero en un espacio de n dimensiones, ya que al menos uno de los ejes principales tiene una longitud de cero; Este es el caso degenerado .
"El radio alrededor de la media verdadera en una variable aleatoria normal bivariada, reescrita en coordenadas polares (radio y ángulo), sigue una distribución de Hoyt ". [29]
En una dimensión, la probabilidad de encontrar una muestra de la distribución normal en el intervalo es aproximadamente del 68,27%, pero en dimensiones superiores la probabilidad de encontrar una muestra en la región de la elipse de desviación estándar es menor. [30]
(forma matricial; es la matriz identidad, J es una matriz de unos; el término entre paréntesis es, por tanto, la matriz centradora)
La matriz de información de Fisher para estimar los parámetros de una distribución normal multivariada tiene una expresión de forma cerrada. Esto se puede utilizar, por ejemplo, para calcular el límite de Cramér-Rao para la estimación de parámetros en esta configuración. Consulte la información de Fisher para obtener más detalles.
Las pruebas de normalidad multivariada verifican la similitud de un conjunto de datos determinado con la distribución normal multivariada . La hipótesis nula es que el conjunto de datos es similar a la distribución normal, por lo tanto, un valor p suficientemente pequeño indica datos no normales. Las pruebas de normalidad multivariadas incluyen la prueba de Cox-Small [32]
y la adaptación de Smith y Jain [33] de la prueba de Friedman-Rafsky creada por Larry Rafsky y Jerome Friedman . [34]
La prueba de Mardia [35] se basa en extensiones multivariadas de medidas de asimetría y curtosis . Para una muestra { x 1 , ..., x n } de vectores k -dimensionales calculamos
Bajo la hipótesis nula de normalidad multivariada, el estadístico A tendrá aproximadamente una distribución chi-cuadrado con 1/6 ⋅ k ( k + 1)( k + 2) grados de libertad, y B será aproximadamente normal estándar N (0,1).
La estadística de curtosis de Mardia está sesgada y converge muy lentamente a la distribución normal limitante. Para muestras de tamaño mediano , los parámetros de la distribución asintótica del estadístico de curtosis se modifican [36] Para pruebas de muestras pequeñas ( ) se utilizan valores críticos empíricos. Rencher [37] proporciona tablas de valores críticos para ambas estadísticas para k = 2, 3, 4.
Las pruebas de Mardia son invariantes por afinidad pero no consistentes. Por ejemplo, la prueba de asimetría multivariada no es consistente con alternativas simétricas no normales. [38]
La prueba BHEP [39] calcula la norma de la diferencia entre la función característica empírica y la función característica teórica de la distribución normal. El cálculo de la norma se realiza en el espacio L 2 ( μ ) de funciones integrables al cuadrado con respecto a la función de ponderación gaussiana . El estadístico de prueba es
La distribución límite de esta estadística de prueba es una suma ponderada de variables aleatorias de chi-cuadrado. [39]
Se encuentra disponible un estudio detallado de estos y otros procedimientos de prueba. [40]
Clasificación en clases normales multivariadas.
Análisis discriminante gaussiano
Supongamos que se supone que las observaciones (que son vectores) provienen de una de varias distribuciones normales multivariadas, con medias y covarianzas conocidas. Entonces, cualquier observación determinada puede asignarse a la distribución de la que tiene mayor probabilidad de surgir. Este procedimiento de clasificación se denomina análisis discriminante gaussiano. El rendimiento de la clasificación, es decir, las probabilidades de los diferentes resultados de la clasificación y el error de clasificación general, se pueden calcular mediante el método numérico de trazado de rayos [17] (código Matlab).
Métodos computacionales
Extraer valores de la distribución
Un método ampliamente utilizado para dibujar (muestrear) un vector aleatorio x de la distribución normal multivariada N -dimensional con vector medio μ y matriz de covarianza Σ funciona de la siguiente manera: [41]
Encuentre cualquier matriz real A tal que AA T = Σ . Cuando Σ es definida positiva, normalmente se usa la descomposición de Cholesky , y siempre se puede usar la forma extendida de esta descomposición (ya que la matriz de covarianza puede ser solo semidefinida positiva) en ambos casos se obtiene una matriz A adecuada. Una alternativa es utilizar la matriz A = UΛ 1/2 obtenida de una descomposición espectral Σ = UΛU −1 de Σ . El primer enfoque es más sencillo desde el punto de vista computacional, pero las matrices A cambian para diferentes ordenamientos de los elementos del vector aleatorio, mientras que el último enfoque proporciona matrices que están relacionadas mediante reordenamientos simples. En teoría, ambos enfoques ofrecen formas igualmente buenas de determinar una matriz A adecuada , pero existen diferencias en el tiempo de cálculo.
^ abc Lapidoth, Amós (2009). Una Fundación en Comunicación Digital . Prensa de la Universidad de Cambridge. ISBN 978-0-521-19395-5.
^ Tripa, Allan (2009). Un curso intermedio en probabilidad . Saltador. ISBN978-1-441-90161-3.
^ Kac, M. (1939). "Sobre una caracterización de la distribución normal". Revista Estadounidense de Matemáticas . 61 (3): 726–728. doi :10.2307/2371328. JSTOR 2371328.
^ Sinz, Fabián; Gerwinn, Sebastián; Bethge, Matías (2009). "Caracterización de la distribución normal p-generalizada". Revista de análisis multivariado . 100 (5): 817–820. doi : 10.1016/j.jmva.2008.07.006 .
^ Simon JD Prince (junio de 2012). Visión por computadora: modelos, aprendizaje e inferencia. Prensa de la Universidad de Cambridge. 3.7:"Distribución normal multivariada".
^ Kim, MG (2000). "Valores atípicos multivariados y descomposiciones de la distancia de Mahalanobis". Comunicaciones en estadística: teoría y métodos . 29 (7): 1511-1526. doi :10.1080/03610920008832559.
^ Hamedani, GG; Tata, MN (1975). "Sobre la determinación de la distribución normal bivariada a partir de distribuciones de combinaciones lineales de las variables". El Mensual Matemático Estadounidense . 82 (9): 913–915. doi :10.2307/2318494. JSTOR 2318494.
^ Wyatt, John (26 de noviembre de 2008). "Estimación del error cuadrático medio lineal" (PDF) . Apuntes del curso sobre probabilidad aplicada . Archivado desde el original (PDF) el 10 de octubre de 2015 . Consultado el 23 de enero de 2012 .
^ "álgebra lineal: mapeo entre funciones de coordenadas afines". Intercambio de pilas de matemáticas . Consultado el 24 de junio de 2022 .
^ Rao, CR (1973). Inferencia estadística lineal y sus aplicaciones . Nueva York: Wiley. págs. 527–528. ISBN0-471-70823-2.
^ ab Botev, ZI (2016). "La ley normal bajo restricciones lineales: simulación y estimación mediante inclinación minimax". Revista de la Royal Statistical Society, Serie B. 79 : 125-148. arXiv : 1603.04166 . Código Bib : 2016arXiv160304166B. doi :10.1111/rssb.12162. S2CID 88515228.
^ Genz, Alan (2009). Cálculo de probabilidades multivariadas normales y t. Saltador. ISBN978-3-642-01689-9.
^ ab Bensimhoun Michael, Función acumulativa N-dimensional y otros datos útiles sobre gaussianos y densidades normales (2006)
^ Siotani, Minoru (1964). "regiones de tolerancia para una población normal multivariada" (PDF) . Anales del Instituto de Matemática Estadística . 16 (1): 135-153. doi :10.1007/BF02868568. S2CID 123269490.
^ ab Botev, ZI; Mandjés, M.; Ridder, A. (6 a 9 de diciembre de 2015). "Distribución de cola del máximo de variables aleatorias gaussianas correlacionadas". Conferencia de simulación de invierno de 2015 (WSC) . Huntington Beach, California, Estados Unidos: IEEE. págs. 633–642. doi :10.1109/WSC.2015.7408202. hdl : 10419/130486 . ISBN978-1-4673-9743-8.
^ Adler, RJ; Blanchet, J.; Liu, J. (7 a 10 de diciembre de 2008). "Simulación eficiente de probabilidades de cola de campos aleatorios gaussianos". Conferencia de simulación de invierno de 2008 (WSC) . Miami, Florida, Estados Unidos: IEEE. págs. 328–336. doi :10.1109/WSC.2008.4736085. ISBN978-1-4244-2707-9.{{cite conference}}: CS1 maint: date and year (link)
^ abcdefghi Das, Abhranil; Wilson S Geisler (2020). "Métodos para integrar multinormales y calcular medidas de clasificación". arXiv : 2012.14331 [estad.ML].
^ Hernández-Stumpfhauser, Daniel; Breidt, F. Jay; van der Woerd, Mark J. (2017). "La distribución normal general proyectada de dimensión arbitraria: modelado e inferencia bayesiana". Análisis bayesiano . 12 (1): 113–133. doi : 10.1214/15-BA989 .
^ Tong, T. (2010) Regresión lineal múltiple: MLE y sus resultados distributivos Archivado el 16 de junio de 2013 en WebCite , Notas de la conferencia
^ Gokhale, DV; Ahmed, NA; Res, antes de Cristo; Piscataway, Nueva Jersey (mayo de 1989). "Expresiones de entropía y sus estimadores para distribuciones multivariadas". Transacciones IEEE sobre teoría de la información . 35 (3): 688–692. doi :10.1109/18.30996.
^ Duchi, J. "Derivaciones para optimización y álgebra lineal" (PDF) : 13.{{cite journal}}: Citar diario requiere |journal=( ayuda )
^ MacKay, David JC (6 de octubre de 2003). Teoría de la información, inferencia y algoritmos de aprendizaje (edición ilustrada). Cambridge: Prensa de la Universidad de Cambridge. ISBN978-0-521-64298-9.
^ Holt, W.; Nguyen, D. (2023). "Aspectos esenciales de la imputación de datos bayesianos". SSRN 4494314.{{cite journal}}: Citar diario requiere |journal=( ayuda )
^ Eaton, Morris L. (1983). Estadística multivariada: un enfoque del espacio vectorial . John Wiley e hijos. págs. 116-117. ISBN978-0-471-02776-8.
^ Jensen, J (2000). Estadísticas para ingenieros petroleros y geocientíficos . Ámsterdam: Elsevier. pag. 207.ISBN0-444-50552-0.
^ Maddala, GS (1983). Variables dependientes y cualitativas limitadas en econometría . Prensa de la Universidad de Cambridge. ISBN0-521-33825-5.
^ Aquí se muestra un cálculo algebraico de la distribución marginal http://fourier.eng.hmc.edu/e161/lectures/gaussianprocess/node7.html Archivado el 17 de enero de 2010 en Wayback Machine . Aquí se describe una prueba mucho más breve https://math.stackexchange.com/a/3832137
^ Nikolaus Hansen (2016). "La estrategia de evolución de CMA: un tutorial" (PDF) . arXiv : 1604.00772 . Código Bib : 2016arXiv160400772H. Archivado desde el original (PDF) el 31 de marzo de 2010 . Consultado el 7 de enero de 2012 .
^ Daniel Wollschläger. "The Hoyt Distribution (Documentación para el paquete R 'shotGroups' versión 0.6.2)".[ enlace muerto permanente ]
^ Wang, Bin; Shi, Wenzhong; Miao, Zelang (13 de marzo de 2015). Rocchini, Duccio (ed.). "Análisis de confianza de la elipse de desviación estándar y su extensión al espacio euclidiano de dimensiones superiores". MÁS UNO . 10 (3): e0118537. Código Bib : 2015PLoSO..1018537W. doi : 10.1371/journal.pone.0118537 . ISSN 1932-6203. PMC 4358977 . PMID 25769048.
^ ab Holt, W.; Nguyen, D. (2023). "Introducción a la imputación de datos bayesianos". SSRN 4494314.{{cite journal}}: Citar diario requiere |journal=( ayuda )
^ Cox, DR; Pequeño, NJH (1978). "Prueba de normalidad multivariada". Biometrika . 65 (2): 263. doi :10.1093/biomet/65.2.263.
^ Smith, SP; Jain, Alaska (1988). "Una prueba para determinar la normalidad multivariada de un conjunto de datos". Transacciones IEEE sobre análisis de patrones e inteligencia artificial . 10 (5): 757. doi : 10.1109/34.6789.
^ Friedman, JH; Rafsky, LC (1979). "Generalizaciones multivariadas de las pruebas de dos muestras de Wald-Wolfowitz y Smirnov". Los anales de la estadística . 7 (4): 697. doi : 10.1214/aos/1176344722 .
^ Mardia, KV (1970). "Medidas de asimetría y curtosis multivariada con aplicaciones". Biometrika . 57 (3): 519–530. doi :10.1093/biomet/57.3.519.
^ Rencher (1995), páginas 112-113.
^ Rencher (1995), páginas 493–495.
^ Baringhaus, L.; Henze, N. (1991). "Distribuciones límite para medidas de asimetría y curtosis multivariadas basadas en proyecciones". Revista de análisis multivariado . 38 : 51–69. doi : 10.1016/0047-259X(91)90031-V .
^ ab Baringhaus, L.; Henze, N. (1988). "Una prueba consistente de normalidad multivariada basada en la función característica empírica". Métrica . 35 (1): 339–348. doi :10.1007/BF02613322. S2CID 122362448.
^ Henze, Norberto (2002). "Pruebas invariantes de normalidad multivariada: una revisión crítica". Artículos estadísticos . 43 (4): 467–506. doi :10.1007/s00362-002-0119-6. S2CID 122934510.
^ Gentil, JE (2009). Estadística Computacional. Estadística y Computación. Nueva York: Springer. págs. 315–316. doi :10.1007/978-0-387-98144-4. ISBN978-0-387-98143-7.
Literatura
Rencher, AC (1995). Métodos de Análisis Multivariado . Nueva York: Wiley.
Tong, YL (1990). La distribución normal multivariada . Serie Springer en Estadística. Nueva York: Springer-Verlag. doi :10.1007/978-1-4613-9655-0. ISBN 978-1-4613-9657-4. S2CID 120348131.