Una distribución de razón (también conocida como distribución de cociente ) es una distribución de probabilidad construida como la distribución de la razón de variables aleatorias que tienen otras dos distribuciones conocidas. Dadas dos variables aleatorias (normalmente independientes ) X e Y , la distribución de la variable aleatoria Z que se forma como la razón Z = X / Y es una distribución de razón .
A menudo, las distribuciones de proporciones tienen colas pesadas y puede resultar difícil trabajar con ellas y desarrollar una prueba estadística asociada . Se ha sugerido un método basado en la mediana como "solución alternativa". [10]
Álgebra de variables aleatorias
La distribución de proporciones es un tipo de álgebra para variables aleatorias: relacionadas con la distribución de proporciones están la distribución de producto , la distribución de suma y la distribución de diferencia. De manera más general, se puede hablar de combinaciones de sumas, diferencias, productos y proporciones. Muchas de estas distribuciones se describen en el libro de Melvin D. Springer de 1979 The Algebra of Random Variables . [8]
Las reglas algebraicas conocidas con los números ordinarios no se aplican al álgebra de variables aleatorias. Por ejemplo, si un producto es C = AB y una razón es D = C/A, no significa necesariamente que las distribuciones de D y B sean las mismas. De hecho, se observa un efecto peculiar para la distribución de Cauchy : el producto y la razón de dos distribuciones de Cauchy independientes (con el mismo parámetro de escala y el parámetro de ubicación establecido en cero) darán la misma distribución. [8]
Esto se hace evidente cuando se considera la distribución de Cauchy como una distribución de razón de dos distribuciones gaussianas de medias cero: Consideremos dos variables aleatorias de Cauchy, cada una construida a partir de dos distribuciones gaussianas y luego
donde . El primer término es el cociente de dos distribuciones de Cauchy mientras que el último término es el producto de dos de dichas distribuciones.
Derivación
Una forma de derivar la distribución de razón de a partir de la distribución conjunta de las otras dos variables aleatorias X , Y , con función de densidad de probabilidad conjunta , es mediante la integración de la siguiente forma [3]
Si las dos variables son independientes entonces y esto se convierte en
Esto puede no ser tan sencillo. Tomemos como ejemplo el problema clásico de la relación entre dos muestras gaussianas estándar. La función de densidad de probabilidad conjunta es
Definiendo lo que tenemos
Usando la integral definida conocida obtenemos
que es la distribución de Cauchy, o distribución t de Student con n = 1
En el caso de variables independientes positivas, proceda de la siguiente manera. El diagrama muestra una distribución bivariada separable que tiene soporte en el cuadrante positivo y deseamos encontrar la función de densidad de probabilidad del cociente . El volumen rayado sobre la línea representa la distribución acumulada de la función multiplicada por la función lógica . La densidad se integra primero en franjas horizontales; la franja horizontal a la altura y se extiende desde x = 0 hasta x = Ry y tiene una probabilidad incremental .
En segundo lugar, al integrar las franjas horizontales hacia arriba sobre todo y se obtiene el volumen de probabilidad sobre la línea
Por último, diferenciar con respecto a para obtener la pdf .
Mueva la diferenciación dentro de la integral:
y desde entonces
entonces
A modo de ejemplo, encuentre la función de densidad de probabilidad de la relación R cuando
Tenemos
de este modo
La diferenciación con respecto a R da como resultado la función de densidad de probabilidad de R
Momentos de proporciones aleatorias
De la teoría de la transformada de Mellin , para distribuciones que existen solo en la semirrecta positiva , tenemos la identidad del producto siempre que sean independientes. Para el caso de una proporción de muestras como , para hacer uso de esta identidad es necesario utilizar momentos de la distribución inversa. Establezca de manera que . Por lo tanto, si los momentos de y se pueden determinar por separado, entonces se pueden encontrar los momentos de . Los momentos de se determinan a partir de la función de densidad de probabilidad inversa de , a menudo un ejercicio manejable. En el caso más simple, .
se toma como muestra de una distribución gamma inversa con parámetro y tiene función de densidad de probabilidad . Los momentos de esta función de densidad de probabilidad son
Multiplicando los momentos correspondientes se obtiene
Independientemente, se sabe que la relación de las dos muestras Gamma sigue la distribución Beta Prime:
cuyos momentos son
Sustituyendo tenemos
que es consistente con el producto de momentos anterior.
Medias y varianzas de proporciones aleatorias
En la sección de distribución de productos , y derivado de la teoría de la transformada de Mellin (ver sección anterior), se encuentra que la media de un producto de variables independientes es igual al producto de sus medias. En el caso de los ratios, tenemos
lo cual, en términos de distribuciones de probabilidad, es equivalente a
Téngase en cuenta que , es decir,
La varianza de una relación de variables independientes es
Distribuciones de razón normal
Razón normal central no correlacionada
Cuando X e Y son independientes y tienen una distribución gaussiana con media cero, la forma de su distribución de proporciones es una distribución de Cauchy . Esto se puede derivar estableciendo y luego demostrando que tiene simetría circular. Para una distribución gaussiana no correlacionada bivariada tenemos
Si es una función solo de r, entonces se distribuye uniformemente con densidad, por lo que el problema se reduce a encontrar la distribución de probabilidad de Z bajo la función
Tenemos, por conservación de probabilidad
y desde entonces
y configurando obtenemos
Aquí hay un factor espurio de 2. En realidad, dos valores de espaciados por se asignan al mismo valor de z , la densidad se duplica y el resultado final es
Cuando cualquiera de las dos distribuciones normales no es central, el resultado para la distribución de la razón es mucho más complicado y se da a continuación en la forma sucinta presentada por David Hinkley . [6] Sin embargo, el método trigonométrico para una razón se extiende a distribuciones radiales como las normales bivariadas o una t de Student bivariada en la que la densidad depende solo del radio . No se extiende a la razón de dos distribuciones t de Student independientes que dan la razón de Cauchy que se muestra en una sección a continuación para un grado de libertad.
Razón normal no central no correlacionada
En ausencia de correlación , la función de densidad de probabilidad de las dos variables normales X = N ( μ X , σ X 2 ) e Y = N ( μ Y , σ Y 2 ) relación Z = X / Y se da exactamente por la siguiente expresión, derivada de varias fuentes: [6]
Bajo varias suposiciones (que generalmente se cumplen en aplicaciones prácticas), es posible derivar una aproximación sólida de alta precisión a la PDF. Los principales beneficios son la complejidad reducida de las fórmulas, la CDF de forma cerrada, la mediana definida de manera simple, la gestión de errores bien definida, etc. Para simplificar, introduzcamos los parámetros: , y . Luego, la denominada aproximación sólida a la PDF de razón normal no central no correlacionada se expresa mediante la ecuación [11].
En determinadas condiciones, es posible una aproximación normal, con varianza: [12]
Razón normal central correlacionada
La expresión anterior se vuelve más complicada cuando las variables X e Y están correlacionadas. Si pero y se obtiene la distribución de Cauchy más general
Esto se demostró en el problema 4.28 de Springer 1979.
Katz (1978) sugirió una transformación al dominio logarítmico (véase la sección binomial a continuación). Sea la relación
.
Toma troncos para conseguir
Desde entonces asintóticamente
Alternativamente, Geary (1930) sugirió que
tiene aproximadamente una distribución gaussiana estándar : [1]
Esta transformación se ha denominado transformación de Geary-Hinkley ; [7] la aproximación es buena si es poco probable que Y asuma valores negativos, básicamente .
Relación normal no central correlacionada exacta
Este método fue desarrollado por Dale (problema 4.28 de Springer 1979) y Hinkley 1969. Geary demostró cómo la razón correlacionada se podía transformar en una forma casi gaussiana y desarrolló una aproximación para la función dependiente de la probabilidad de que los valores negativos del denominador sean extremadamente pequeños. El análisis posterior de la razón correlacionada de Fieller es exacto, pero se debe tener cuidado al combinar los paquetes matemáticos modernos con las condiciones verbales de la literatura más antigua. Pham-Ghia ha analizado exhaustivamente estos métodos. Los resultados correlacionados de Hinkley son exactos, pero se muestra a continuación que la condición de razón correlacionada también se puede transformar en una no correlacionada, por lo que solo se requieren las ecuaciones simplificadas de Hinkley anteriores, no la versión completa de la razón correlacionada.
Sea la razón:
en el que las variables normales correlacionadas con media cero tienen varianzas y tienen medias.
Escribe de modo que se vuelvan no correlacionadas y tengan desviación estándar.
La proporción:
es invariante bajo esta transformación y conserva la misma función de densidad de probabilidad. El término en el numerador parece hacerse separable al expandir:
Llegar
en el que y z se ha convertido ahora en una relación de muestras normales no centrales no correlacionadas con un desplazamiento z invariante (esto no está probado formalmente, aunque parece haber sido utilizado por Geary),
Finalmente, para ser explícito, la función de densidad de probabilidad de la relación de las variables correlacionadas se obtiene ingresando los parámetros modificados en la ecuación de Hinkley anterior, que devuelve la función de densidad de probabilidad de la relación correlacionada con un desplazamiento constante en .
Las figuras anteriores muestran un ejemplo de una relación correlacionada positivamente con en la que las cuñas sombreadas representan el incremento del área seleccionada por una relación dada que acumula probabilidad donde se superponen a la distribución. La distribución teórica, derivada de las ecuaciones en discusión combinadas con las ecuaciones de Hinkley, es altamente consistente con un resultado de simulación utilizando 5.000 muestras. En la figura superior está claro que para una relación la cuña casi ha pasado por alto la masa de distribución principal por completo y esto explica el mínimo local en la función de densidad de probabilidad teórica . Por el contrario, a medida que se acerca o se aleja de una, la cuña abarca más de la masa central, acumulando una mayor probabilidad.
Razón normal compleja
Baxley et al. [13] determinaron la relación de variables distribuidas de manera normal compleja simétrica circularmente y con media cero correlacionadas , y desde entonces se extendió al caso de media no cero y no simétrico. [14] En el caso de media cero correlacionada, la distribución conjunta de x , y es
dónde
es una transposición hermítica y
Se encontró que el PDF de es
En el caso habitual de que nos llegue
También se dan más resultados en forma cerrada para la CDF.
El gráfico muestra la función de densidad de probabilidad de la relación entre dos variables normales complejas con un coeficiente de correlación de . El pico de la función de densidad de probabilidad se produce aproximadamente en el conjugado complejo de una variable reducida .
Relación entre logaritmo-normal
La razón de las log-normales independientes o correlacionadas es log-normal. Esto se deduce de que si y tienen una distribución log-normal , entonces y tienen una distribución normal. Si son independientes o sus logaritmos siguen una distribución normal bivariada , entonces el logaritmo de su razón es la diferencia de las variables aleatorias independientes o correlacionadas con una distribución normal, que tiene una distribución normal. [nota 1]
Esto es importante para muchas aplicaciones que requieren la relación de variables aleatorias que deben ser positivas, donde la distribución conjunta de y se aproxima adecuadamente mediante una log-normal. Este es un resultado común del teorema del límite central multiplicativo , también conocido como ley de Gibrat , cuando es el resultado de una acumulación de muchos cambios porcentuales pequeños y debe ser positiva y estar distribuida aproximadamente de forma log-normal. [15]
Distribución de razón uniforme
Con dos variables aleatorias independientes que siguen una distribución uniforme , por ejemplo,
La distribución de proporciones se convierte en
Distribución de coeficientes de Cauchy
Si dos variables aleatorias independientes, X e Y, siguen cada una una distribución de Cauchy con mediana igual a cero y factor de forma
Entonces la distribución de razón para la variable aleatoria es [16]
Esta distribución no depende de y el resultado indicado por Springer [8] (p158 Pregunta 4.6) no es correcto. La distribución de razón es similar pero no igual a la distribución del producto de la variable aleatoria :
[8]
De manera más general, si dos variables aleatorias independientes X e Y siguen cada una una distribución de Cauchy con mediana igual a cero y factor de forma y respectivamente, entonces:
La distribución de razones para la variable aleatoria es [16]
El resultado de la distribución de proporciones se puede obtener a partir de la distribución del producto reemplazando con
Relación entre la normal estándar y la uniforme estándar
Si X tiene una distribución normal estándar e Y tiene una distribución uniforme estándar, entonces Z = X / Y tiene una distribución conocida como distribución de barra , con función de densidad de probabilidad
donde φ( z ) es la función de densidad de probabilidad de la distribución normal estándar. [17]
Distribuciones Chi-cuadrado, Gamma y Beta
Sea G una distribución normal (0,1), Y y Z distribuciones de chi-cuadrado con m y n grados de libertad respectivamente, todas independientes, con . Entonces
define la distribución de densidad F de Fisher, la PDF de la relación de dos Chi-cuadrados con m, n grados de libertad.
La CDF de la densidad de Fisher, que se encuentra en las tablas F , se define en el artículo sobre la distribución beta prima . Si ingresamos una tabla de prueba F con m = 3, n = 4 y 5 % de probabilidad en la cola derecha, se encuentra que el valor crítico es 6,59. Esto coincide con la integral
que incluye las distribuciones gamma, chi, chi-cuadrado, exponencial, Rayleigh, Nakagami y Weibull regulares que involucran potencias fraccionarias. Nótese que aquí a es un parámetro de escala , en lugar de un parámetro de velocidad; d es un parámetro de forma.
Si
entonces [19]
dónde
Modelado de una mezcla de diferentes factores de escala
En las proporciones anteriores, las muestras Gamma, U , V pueden tener diferentes tamaños de muestra pero deben extraerse de la misma distribución con igual escala .
En situaciones en las que U y V tienen escalas diferentes, una transformación de variables permite determinar la función de densidad de probabilidad de razón aleatoria modificada. Sea arbitrario y, de lo anterior, .
Reescalar V arbitrariamente, definiendo
Tenemos y sustituyendo en Y obtenemos
Transformando X en Y obtenemos
Observando que finalmente tenemos
Por lo tanto, si y entonces se distribuye como con
La distribución de Y está limitada aquí al intervalo [0,1]. Puede generalizarse escalando de modo que si entonces
dónde
es entonces una muestra de
Recíprocos de muestras de distribuciones beta
Aunque no son distribuciones de razón de dos variables, las siguientes identidades para una variable son útiles:
Si entonces
Si entonces
Combinando las dos últimas ecuaciones obtenemos
Si entonces .
Si entonces
Corolario
, la distribución de los recíprocos de las muestras.
Si son variables aleatorias exponenciales independientes con media μ , entonces X − Y es una variable aleatoria exponencial doble con media 0 y escala μ .
Distribución binomial
Este resultado fue obtenido por Katz et al. [20].
Supóngase que y y , son independientes. Sea .
Entonces se distribuye aproximadamente de manera normal con media y varianza .
La distribución de la razón binomial es importante en los ensayos clínicos: si se conoce la distribución de T como se indica más arriba, se puede estimar la probabilidad de que una razón dada surja puramente por casualidad, es decir, un ensayo con falsos positivos. Varios artículos comparan la solidez de diferentes aproximaciones para la razón binomial. [ cita requerida ]
Distribuciones de Poisson y Poisson truncada
En la relación de las variables de Poisson R = X/Y existe el problema de que Y es cero con probabilidad finita, por lo que R no está definido. Para contrarrestar esto, considere la relación truncada o censurada R' = X/Y' , donde se descuentan las muestras cero de Y. Además, en muchas encuestas de tipo médico, existen problemas sistemáticos con la confiabilidad de las muestras cero tanto de X como de Y y puede ser una buena práctica ignorar las muestras cero de todos modos.
La probabilidad de que una muestra de Poisson nula sea , la función de densidad de probabilidad genérica de una distribución de Poisson truncada a la izquierda es
que suma la unidad. Siguiendo a Cohen, [21] para n ensayos independientes, la función de densidad de probabilidad truncada multidimensional es
y la probabilidad logarítmica se convierte en
En la diferenciación obtenemos
y al establecerlo en cero se obtiene la estimación de máxima verosimilitud
Obsérvese que, como en ese caso, la estimación de máxima verosimilitud truncada , aunque correcta tanto para distribuciones truncadas como no truncadas, da un valor medio truncado que está muy sesgado en relación con el no truncado. No obstante, parece que es una estadística suficiente para , ya que depende de los datos solo a través de la media de la muestra en la ecuación anterior, lo que es coherente con la metodología de la distribución de Poisson convencional .
En ausencia de soluciones en forma cerrada, la siguiente reversión aproximada para truncado es válida en todo el rango .
que se compara con la versión no truncada que es simplemente . Tomar la razón es una operación válida aunque se pueda usar un modelo no truncado mientras que tiene uno truncado a la izquierda.
Luego, sustituyendo la ecuación anterior, obtenemos la estimación de la varianza de Cohen.
La varianza de la estimación puntual de la media , sobre la base de n ensayos, disminuye asintóticamente a cero a medida que n aumenta hasta el infinito. Para valores pequeños, diverge de la varianza de la función de densidad de probabilidad truncada en Springael [22], por ejemplo, quien cita una varianza de
Para n muestras en la función de densidad de probabilidad truncada a la izquierda que se muestra en la parte superior de esta sección, Cohen demostró que la varianza de la estimación en relación con la varianza de la función de densidad de probabilidad, , varía de 1 para valores grandes (100 % de eficiencia) hasta 2 cuando se acerca a cero (50 % de eficiencia).
Estas estimaciones de los parámetros de media y varianza, junto con las estimaciones paralelas de X , se pueden aplicar a aproximaciones normales o binomiales para el cociente de Poisson. Las muestras de los ensayos pueden no ser adecuadas para el proceso de Poisson; Dietz y Bohning [23] ofrecen una discusión más detallada del truncamiento de Poisson y hay una entrada en Wikipedia sobre la distribución de Poisson truncada por cero .
Distribución doble Lomax
Esta distribución es la relación de dos distribuciones de Laplace . [24] Sean X e Y variables aleatorias distribuidas idénticamente según Laplace y sea z = X / Y . Entonces la distribución de probabilidad de z es
Sea la media de X e Y a . Entonces la distribución estándar doble Lomax es simétrica alrededor de a .
Esta distribución tiene una media y varianza infinitas.
Si Z tiene una distribución doble Lomax estándar, entonces 1/ Z también tiene una distribución doble Lomax estándar.
La distribución Lomax estándar es unimodal y tiene colas más pesadas que la distribución de Laplace.
es proporcional al producto de variables aleatorias independientes F. En el caso en que X e Y sean de distribuciones Wishart estandarizadas independientes , entonces la relación
Razones de formas cuadráticas que involucran matrices de Wishart
En relación con las distribuciones matriciales de Wishart, si es una matriz de Wishart de muestra y el vector es arbitrario, pero estadísticamente independiente, el corolario 3.2.9 de Muirhead [26] establece
La discrepancia de uno en los números de muestra surge de la estimación de la media de la muestra al formar la covarianza de la muestra, una consecuencia del teorema de Cochran . De manera similar
^ Sin embargo, tenga en cuenta que y pueden tener una distribución log-normal individual sin tener una distribución log-normal bivariada. A fecha de 2022-06-08, el artículo de Wikipedia sobre " Cópula (teoría de la probabilidad) " incluye un gráfico de densidad y contorno de dos marginales normales unidas con una cópula de Gumbel, donde la distribución conjunta no es normal bivariada.
^ Fieller, EC (noviembre de 1932). "La distribución del índice en una población bivariada normal". Biometrika . 24 (3/4): 428–440. doi :10.2307/2331976. JSTOR 2331976.
^ ab Curtiss, JH (diciembre de 1941). "Sobre la distribución del cociente de dos variables aleatorias". Anales de estadística matemática . 12 (4): 409–421. doi : 10.1214/aoms/1177731679 . JSTOR 2235953.
^ abc Hinkley, DV (diciembre de 1969). "Sobre la relación de dos variables aleatorias normales correlacionadas". Biometrika . 56 (3): 635–639. doi :10.2307/2334671. JSTOR 2334671.
^ ab Hayya, Jack ; Armstrong, Donald; Gressis, Nicolas (julio de 1975). "Una nota sobre la relación de dos variables distribuidas normalmente". Management Science . 21 (11): 1338–1341. doi :10.1287/mnsc.21.11.1338. JSTOR 2629897.
^ abcdef Springer, Melvin Dale (1979). El álgebra de variables aleatorias . Wiley . ISBN0-471-01406-0.
^ ab Pham-Gia, T.; Turkkan, N.; Marchand, E. (2006). "Densidad de la razón de dos variables aleatorias normales y aplicaciones". Comunicaciones en estadística: teoría y métodos . 35 (9). Taylor & Francis : 1569–1591. doi :10.1080/03610920600683689. S2CID 120891296.
^ Brody, James P.; Williams, Brian A.; Wold, Barbara J.; Quake, Stephen R. (octubre de 2002). "Significación y errores estadísticos en el análisis de datos de microarrays de ADN" (PDF) . Proc Natl Acad Sci USA . 99 (20): 12975–12978. Bibcode :2002PNAS...9912975B. doi : 10.1073/pnas.162468199 . PMC 130571 . PMID 12235357.
^ Šimon, Ján; Ftorek, Branislav (15 de septiembre de 2022). "Propiedades estadísticas básicas de la eficiencia del nudo". Simetría . 14 (9). MDPI: 1926. Bibcode :2022Symm...14.1926S. doi : 10.3390/sym14091926 . ISSN 2073-8994.
^ Díaz-Francés, Eloísa; Rubio, Francisco J. (24 de enero de 2012). "Sobre la existencia de una aproximación normal a la distribución del cociente de dos variables aleatorias normales independientes". Artículos estadísticos . 54 (2). Springer Science and Business Media LLC: 309–323. doi :10.1007/s00362-012-0429-2. ISSN 0932-5026. S2CID 122038290.
^ Baxley, RT; Waldenhorst, BT; Acosta-Marum, G (2010). "Distribución de razón gaussiana compleja con aplicaciones para el cálculo de tasa de error en canales con desvanecimiento con CSI imperfecto". Conferencia global de telecomunicaciones IEEE 2010 GLOBECOM 2010. págs. 1–5. doi :10.1109/GLOCOM.2010.5683407. ISBN .978-1-4244-5636-9.S2CID14100052 .
^ Sourisseau, M.; Wu, H.-T.; Zhou, Z. (octubre de 2022). "Análisis asintótico de la transformada de sincroexpresión: hacia la inferencia estadística con análisis de tiempo-frecuencia de tipo no lineal". Anales de Estadística . 50 (5): 2694–2712. arXiv : 1904.09534 . doi :10.1214/22-AOS2203.
^ Por supuesto, cualquier invocación de un teorema de límite central supone condiciones de regularidad adecuadas y comúnmente cumplidas, por ejemplo, varianza finita.
^ abc Kermond, John (2010). "Introducción al álgebra de variables aleatorias". Actas de la 47.ª conferencia anual de la Asociación Matemática de Victoria: nuevo plan de estudios. Nuevas oportunidades . Asociación Matemática de Victoria: 1–16. ISBN978-1-876949-50-1.
^ "SLAPPF". División de Ingeniería Estadística, Instituto Nacional de Ciencia y Tecnología . Consultado el 2 de julio de 2009 .
^ Hamedani, GG (octubre de 2013). "Caracterización de la distribución de la razón de las variables aleatorias de Rayleigh". Revista de Estadística de Pakistán . 29 (4): 369–376.
^ Raja Rao, B.; Garg., ML (1969). "Una nota sobre la distribución de Cauchy generalizada (positiva)". Canadian Mathematical Bulletin . 12 (6): 865–868. doi : 10.4153/CMB-1969-114-2 .
^ Katz D. et al . (1978) Obtención de intervalos de confianza para la razón de riesgo en estudios de cohorte. Biometrics 34:469–474
^ Cohen, A Clifford (junio de 1960). "Estimación del parámetro en una distribución de Poisson condicional". Biometrics . 60 (2): 203–211. doi :10.2307/2527552. JSTOR 2527552.
^ Springael, Johan (2006). "Sobre la suma de variables aleatorias independientes de Poisson truncadas por cero" (PDF) . Universidad de Amberes, Facultad de Economía y Negocios .
^ Dietz, Ekkehart; Bohning, Dankmar (2000). "Sobre la estimación del parámetro de Poisson en modelos de Poisson modificados por cero". Computational Statistics & Data Analysis . 34 (4): 441–459. doi :10.1016/S0167-9473(99)00111-5.
^ Bindu P y Sangita K (2015) Distribución doble de Lomax y sus aplicaciones. Statistica LXXV (3) 331–342
^ Brennan, LE; Reed, IS (enero de 1982). "Un algoritmo de procesamiento de señales de matriz adaptativa para comunicaciones". IEEE Transactions on Aerospace and Electronic Systems . AES-18 No 1: 124–130. Bibcode :1982ITAES..18..124B. doi :10.1109/TAES.1982.309212. S2CID 45721922.
^ ab Muirhead, Robb (1982). Aspectos de la teoría estadística multivariante . Estados Unidos: Wiley. págs. 96, Teorema 3.2.12.