stringtranslate.com

Distribución de proporciones

Una distribución de razón (también conocida como distribución de cociente ) es una distribución de probabilidad construida como la distribución de la razón de variables aleatorias que tienen otras dos distribuciones conocidas. Dadas dos variables aleatorias (normalmente independientes ) X e Y , la distribución de la variable aleatoria Z que se forma como la razón Z = X / Y es una distribución de razón .

Un ejemplo es la distribución de Cauchy (también llamada distribución de razón normal ), que surge como la razón de dos variables distribuidas normalmente con media cero. Otras dos distribuciones que se utilizan a menudo en las estadísticas de prueba también son distribuciones de razón: la distribución t surge de una variable aleatoria gaussiana dividida por una variable aleatoria independiente con distribución chi , mientras que la distribución F se origina a partir de la razón de dos variables aleatorias independientes con distribución chi-cuadrado . En la literatura se han considerado distribuciones de razón más generales. [1] [2] [3] [4] [5] [6] [7] [8] [9]

A menudo, las distribuciones de proporciones tienen colas pesadas y puede resultar difícil trabajar con ellas y desarrollar una prueba estadística asociada . Se ha sugerido un método basado en la mediana como "solución alternativa". [10]

Álgebra de variables aleatorias

La distribución de proporciones es un tipo de álgebra para variables aleatorias: relacionadas con la distribución de proporciones están la distribución de producto , la distribución de suma y la distribución de diferencia. De manera más general, se puede hablar de combinaciones de sumas, diferencias, productos y proporciones. Muchas de estas distribuciones se describen en el libro de Melvin D. Springer de 1979 The Algebra of Random Variables . [8]

Las reglas algebraicas conocidas con los números ordinarios no se aplican al álgebra de variables aleatorias. Por ejemplo, si un producto es C = AB y una razón es D = C/A, no significa necesariamente que las distribuciones de D y B sean las mismas. De hecho, se observa un efecto peculiar para la distribución de Cauchy : el producto y la razón de dos distribuciones de Cauchy independientes (con el mismo parámetro de escala y el parámetro de ubicación establecido en cero) darán la misma distribución. [8] Esto se hace evidente cuando se considera la distribución de Cauchy como una distribución de razón de dos distribuciones gaussianas de medias cero: Consideremos dos variables aleatorias de Cauchy, cada una construida a partir de dos distribuciones gaussianas y luego

donde . El primer término es el cociente de dos distribuciones de Cauchy mientras que el último término es el producto de dos de dichas distribuciones.

Derivación

Una forma de derivar la distribución de razón de a partir de la distribución conjunta de las otras dos variables aleatorias X , Y , con función de densidad de probabilidad conjunta , es mediante la integración de la siguiente forma [3]

Si las dos variables son independientes entonces y esto se convierte en

Esto puede no ser tan sencillo. Tomemos como ejemplo el problema clásico de la relación entre dos muestras gaussianas estándar. La función de densidad de probabilidad conjunta es

Definiendo lo que tenemos

Usando la integral definida conocida obtenemos

que es la distribución de Cauchy, o distribución t de Student con n = 1

También se ha sugerido la transformada de Mellin para la derivación de distribuciones de proporciones. [8]

En el caso de variables independientes positivas, proceda de la siguiente manera. El diagrama muestra una distribución bivariada separable que tiene soporte en el cuadrante positivo y deseamos encontrar la función de densidad de probabilidad del cociente . El volumen rayado sobre la línea representa la distribución acumulada de la función multiplicada por la función lógica . La densidad se integra primero en franjas horizontales; la franja horizontal a la altura y se extiende desde x = 0 hasta x = Ry y tiene una probabilidad incremental . En segundo lugar, al integrar las franjas horizontales hacia arriba sobre todo y se obtiene el volumen de probabilidad sobre la línea

Por último, diferenciar con respecto a para obtener la pdf .

Mueva la diferenciación dentro de la integral:

y desde entonces

entonces

A modo de ejemplo, encuentre la función de densidad de probabilidad de la relación R cuando

Evaluación de la distribución acumulativa de una razón

Tenemos

de este modo

La diferenciación con respecto a R da como resultado la función de densidad de probabilidad de R

Momentos de proporciones aleatorias

De la teoría de la transformada de Mellin , para distribuciones que existen solo en la semirrecta positiva , tenemos la identidad del producto siempre que sean independientes. Para el caso de una proporción de muestras como , para hacer uso de esta identidad es necesario utilizar momentos de la distribución inversa. Establezca de manera que . Por lo tanto, si los momentos de y se pueden determinar por separado, entonces se pueden encontrar los momentos de . Los momentos de se determinan a partir de la función de densidad de probabilidad inversa de , a menudo un ejercicio manejable. En el caso más simple, .

Para ilustrarlo, tomemos una muestra de una distribución Gamma estándar

cuyo momento -ésimo es .

se toma como muestra una distribución gamma inversa con parámetro y tiene función de densidad de probabilidad . Los momentos de esta función de densidad de probabilidad son

Multiplicando los momentos correspondientes se obtiene

Independientemente, se sabe que la relación de las dos muestras Gamma sigue la distribución Beta Prime:

cuyos momentos son

Sustituyendo tenemos que es consistente con el producto de momentos anterior.

Medias y varianzas de proporciones aleatorias

En la sección de distribución de productos , y derivado de la teoría de la transformada de Mellin (ver sección anterior), se encuentra que la media de un producto de variables independientes es igual al producto de sus medias. En el caso de los ratios, tenemos

lo cual, en términos de distribuciones de probabilidad, es equivalente a

Téngase en cuenta que , es decir,

La varianza de una relación de variables independientes es

Distribuciones de razón normal

Razón normal central no correlacionada

Cuando X e Y son independientes y tienen una distribución gaussiana con media cero, la forma de su distribución de proporciones es una distribución de Cauchy . Esto se puede derivar estableciendo y luego demostrando que tiene simetría circular. Para una distribución gaussiana no correlacionada bivariada tenemos

Si es una función solo de r, entonces se distribuye uniformemente con densidad , por lo que el problema se reduce a encontrar la distribución de probabilidad de Z bajo la función

Tenemos, por conservación de probabilidad

y desde entonces

y configurando obtenemos

Aquí hay un factor espurio de 2. En realidad, dos valores de espaciados por se asignan al mismo valor de z , la densidad se duplica y el resultado final es

Cuando cualquiera de las dos distribuciones normales no es central, el resultado para la distribución de la razón es mucho más complicado y se da a continuación en la forma sucinta presentada por David Hinkley . [6] Sin embargo, el método trigonométrico para una razón se extiende a distribuciones radiales como las normales bivariadas o una t de Student bivariada en la que la densidad depende solo del radio . No se extiende a la razón de dos distribuciones t de Student independientes que dan la razón de Cauchy que se muestra en una sección a continuación para un grado de libertad.

Razón normal no central no correlacionada

En ausencia de correlación , la función de densidad de probabilidad de las dos variables normales X = N ( μ X , σ X 2 ) e Y = N ( μ Y , σ Y 2 ) relación Z = X / Y se da exactamente por la siguiente expresión, derivada de varias fuentes: [6]

dónde

y es la función de distribución acumulativa normal :

Razón normal central correlacionada

La expresión anterior se vuelve más complicada cuando las variables X e Y están correlacionadas. Si pero y se obtiene la distribución de Cauchy más general

donde ρ es el coeficiente de correlación entre X e Y y

La distribución compleja también se ha expresado con la función hipergeométrica confluente de Kummer o la función de Hermite . [9]

Razón normal no central correlacionada

Esto se demostró en el problema 4.28 de Springer 1979.

Katz (1978) sugirió una transformación al dominio logarítmico (véase la sección binomial a continuación). Sea la relación

.

Toma troncos para conseguir

Desde entonces asintóticamente

Alternativamente, Geary (1930) sugirió que

tiene aproximadamente una distribución gaussiana estándar : [1] Esta transformación se ha denominado transformación de Geary-Hinkley ; [7] la aproximación es buena si es poco probable que Y asuma valores negativos, básicamente .

Relación normal no central correlacionada exacta

Este método fue desarrollado por Dale (problema 4.28 de Springer 1979) y Hinkley 1969. Geary demostró cómo la razón correlacionada se podía transformar en una forma casi gaussiana y desarrolló una aproximación para la función dependiente de la probabilidad de que los valores negativos del denominador sean extremadamente pequeños. El análisis posterior de la razón correlacionada de Fieller es exacto, pero se debe tener cuidado al combinar los paquetes matemáticos modernos con las condiciones verbales de la literatura más antigua. Pham-Ghia ha analizado exhaustivamente estos métodos. Los resultados correlacionados de Hinkley son exactos, pero se muestra a continuación que la condición de razón correlacionada también se puede transformar en una no correlacionada, por lo que solo se requieren las ecuaciones simplificadas de Hinkley anteriores, no la versión completa de la razón correlacionada.

Sea la razón:

en el que las variables normales con media cero están correlacionadas con varianzas y tienen medias. Escribe de modo que se vuelvan no correlacionadas y tengan desviación estándar.

La proporción:

es invariante bajo esta transformación y conserva la misma función de densidad de probabilidad. El término en el numerador parece hacerse separable al expandir:

Llegar

en el que y z se ha convertido ahora en una relación de muestras normales no centrales no correlacionadas con un desplazamiento z invariante (esto no está probado formalmente, aunque parece haber sido utilizado por Geary),

Finalmente, para ser explícito, la función de densidad de probabilidad de la relación de las variables correlacionadas se obtiene ingresando los parámetros modificados en la ecuación de Hinkley anterior, que devuelve la función de densidad de probabilidad de la relación correlacionada con un desplazamiento constante en .

Las figuras anteriores muestran un ejemplo de una relación correlacionada positivamente con en la que las cuñas sombreadas representan el incremento del área seleccionada por una relación dada que acumula probabilidad donde se superponen a la distribución. La distribución teórica, derivada de las ecuaciones en discusión combinadas con las ecuaciones de Hinkley, es altamente consistente con un resultado de simulación usando 5.000 muestras. En la figura superior está claro que para una relación la cuña casi ha pasado por alto la masa de distribución principal por completo y esto explica el mínimo local en la función de densidad de probabilidad teórica . Por el contrario, a medida que se acerca o se aleja de una, la cuña abarca más de la masa central, acumulando una mayor probabilidad.

Razón normal compleja

Baxley et al. [13] determinaron la relación de variables distribuidas de manera normal compleja simétrica circularmente y con media cero correlacionadas , y desde entonces se extendió al caso de media no cero y no simétrico. [14] En el caso de media cero correlacionada, la distribución conjunta de x , y es

dónde

es una transposición hermítica y

Se encontró que el PDF de es

En el caso habitual de que nos llegue

También se dan más resultados en forma cerrada para la CDF.

Distribución de razones de variables complejas correlacionadas, rho = 0,7 exp(i pi/4).

El gráfico muestra la función de densidad de probabilidad de la relación entre dos variables normales complejas con un coeficiente de correlación de . El pico de la función de densidad de probabilidad se produce aproximadamente en el conjugado complejo de una variable reducida .

Relación entre logaritmo-normal

La razón de las log-normales independientes o correlacionadas es log-normal. Esto se deduce de que si y tienen una distribución log-normal , entonces y tienen una distribución normal. Si son independientes o sus logaritmos siguen una distribución normal bivariada , entonces el logaritmo de su razón es la diferencia de las variables aleatorias independientes o correlacionadas con una distribución normal, que tiene una distribución normal. [nota 1]

Esto es importante para muchas aplicaciones que requieren la relación de variables aleatorias que deben ser positivas, donde la distribución conjunta de y se aproxima adecuadamente mediante una log-normal. Este es un resultado común del teorema del límite central multiplicativo , también conocido como ley de Gibrat , cuando es el resultado de una acumulación de muchos cambios porcentuales pequeños y debe ser positiva y estar distribuida aproximadamente de forma log-normal. [15]

Distribución de razón uniforme

Con dos variables aleatorias independientes que siguen una distribución uniforme , por ejemplo,

La distribución de proporciones se convierte en

Distribución de coeficientes de Cauchy

Si dos variables aleatorias independientes, X e Y, siguen cada una una distribución de Cauchy con mediana igual a cero y factor de forma

Entonces la distribución de razón para la variable aleatoria es [16]

Esta distribución no depende de y el resultado indicado por Springer [8] (p158 Pregunta 4.6) no es correcto. La distribución de razón es similar pero no igual a la distribución del producto de la variable aleatoria :

[8]

De manera más general, si dos variables aleatorias independientes X e Y siguen cada una una distribución de Cauchy con mediana igual a cero y factor de forma y respectivamente, entonces:

  1. La distribución de razones para la variable aleatoria es [16]
  2. La distribución del producto para la variable aleatoria es [16]

El resultado de la distribución de proporciones se puede obtener a partir de la distribución del producto reemplazando con

Relación entre la normal estándar y la uniforme estándar

Si X tiene una distribución normal estándar e Y tiene una distribución uniforme estándar, entonces Z  =  X  /  Y tiene una distribución conocida como distribución de barra , con función de densidad de probabilidad

donde φ( z ) es la función de densidad de probabilidad de la distribución normal estándar. [17]

Distribuciones Chi-cuadrado, Gamma y Beta

Sea G una distribución normal (0,1), Y y Z distribuciones de chi-cuadrado con m y n grados de libertad respectivamente, todas independientes, con . Entonces

La distribución t de Student
es decir, distribución de la prueba F de Fisher
La distribución beta
La distribución beta prima estándar

Si , una distribución chi-cuadrado no central , y y es independiente de entonces

, una distribución F no central .

define la distribución de densidad F de Fisher, la PDF de la relación de dos Chi-cuadrados con m, n grados de libertad.

La CDF de la densidad de Fisher, que se encuentra en las tablas F , se define en el artículo sobre la distribución beta prima . Si ingresamos una tabla de prueba F con m = 3, n = 4 y 5 % de probabilidad en la cola derecha, se encuentra que el valor crítico es 6,59. Esto coincide con la integral

Para distribuciones gamma U y V con parámetros de forma arbitrarios α 1 y α 2 y sus parámetros de escala ambos establecidos en la unidad, es decir, , donde , entonces

Si , entonces . Nótese que aquí θ es un parámetro de escala , en lugar de un parámetro de velocidad.

Si , entonces al reescalar el parámetro a la unidad tenemos

De este modo

en el que representa la distribución beta prima generalizada .

De lo anterior se desprende que si entonces . Más explícitamente, puesto que

Si entonces

dónde

Distribuciones de Rayleigh

Si X , Y son muestras independientes de la distribución de Rayleigh , la relación Z = X / Y sigue la distribución [18]

y tiene cdf

La distribución de Rayleigh tiene como único parámetro la escala. La distribución de la siguiente manera

y tiene cdf

Distribuciones gamma fraccionarias (incluidas chi, chi-cuadrado, exponencial, Rayleigh y Weibull)

La distribución gamma generalizada es

que incluye las distribuciones gamma, chi, chi-cuadrado, exponencial, Rayleigh, Nakagami y Weibull regulares que involucran potencias fraccionarias. Nótese que aquí a es un parámetro de escala , en lugar de un parámetro de velocidad; d es un parámetro de forma.

Si
entonces [19]
dónde

Modelado de una mezcla de diferentes factores de escala

En las proporciones anteriores, las muestras Gamma, U , V pueden tener diferentes tamaños de muestra pero deben extraerse de la misma distribución con igual escala .

En situaciones en las que U y V tienen escalas diferentes, una transformación de variables permite determinar la función de densidad de probabilidad de razón aleatoria modificada. Sea donde arbitrario y, de lo anterior, .

Reescalar V arbitrariamente, definiendo

Tenemos y sustituyendo en Y obtenemos

Transformando X en Y obtenemos

Observando que finalmente tenemos

Por lo tanto, si y entonces se distribuye como con

La distribución de Y está limitada aquí al intervalo [0,1]. Puede generalizarse escalando de modo que si entonces

dónde

es entonces una muestra de

Recíprocos de muestras de distribuciones beta

Aunque no son distribuciones de razón de dos variables, las siguientes identidades para una variable son útiles:

Si entonces
Si entonces

Combinando las dos últimas ecuaciones obtenemos

Si entonces .
Si entonces

Corolario

, la distribución de los recíprocos de las muestras.

Si entonces y

Se pueden encontrar más resultados en el artículo Distribución inversa .

Distribución binomial

Este resultado fue obtenido por Katz et al. [20].

Supóngase que y y , son independientes. Sea .

Entonces se distribuye aproximadamente de manera normal con media y varianza .

La distribución de la razón binomial es importante en los ensayos clínicos: si se conoce la distribución de T como se indica más arriba, se puede estimar la probabilidad de que una razón dada surja puramente por casualidad, es decir, un ensayo con falsos positivos. Varios artículos comparan la solidez de diferentes aproximaciones para la razón binomial. [ cita requerida ]

Distribuciones de Poisson y Poisson truncada

En la relación de las variables de Poisson R = X/Y existe el problema de que Y es cero con probabilidad finita, por lo que R no está definido. Para contrarrestar esto, considere la relación truncada o censurada R' = X/Y' , donde se descuentan las muestras cero de Y. Además, en muchas encuestas de tipo médico, existen problemas sistemáticos con la confiabilidad de las muestras cero tanto de X como de Y y puede ser una buena práctica ignorar las muestras cero de todos modos.

La probabilidad de que una muestra de Poisson nula sea , la función de densidad de probabilidad genérica de una distribución de Poisson truncada a la izquierda es

que suma la unidad. Siguiendo a Cohen, [21] para n ensayos independientes, la función de densidad de probabilidad truncada multidimensional es

y la probabilidad logarítmica se convierte en

En la diferenciación obtenemos

y al establecerlo en cero se obtiene la estimación de máxima verosimilitud

Obsérvese que, como entonces , la estimación de máxima verosimilitud truncada , aunque correcta tanto para distribuciones truncadas como no truncadas, da un valor medio truncado que está muy sesgado en relación con el no truncado. No obstante, parece que es una estadística suficiente para ya que depende de los datos solo a través de la media de la muestra en la ecuación anterior, lo que es coherente con la metodología de la distribución de Poisson convencional .

En ausencia de soluciones en forma cerrada, la siguiente reversión aproximada para truncado es válida en todo el rango .

que se compara con la versión no truncada que es simplemente . Tomar la razón es una operación válida aunque se pueda usar un modelo no truncado mientras que tiene uno truncado a la izquierda.

El límite asintótico grande (y el límite de Cramér-Rao ) es

en el que sustituyendo L se obtiene

Luego, sustituyendo la ecuación anterior, obtenemos la estimación de la varianza de Cohen.

La varianza de la estimación puntual de la media , sobre la base de n ensayos, disminuye asintóticamente a cero a medida que n aumenta hasta el infinito. Para valores pequeños, diverge de la varianza de la función de densidad de probabilidad truncada en Springael [22], por ejemplo, quien cita una varianza de

Para n muestras en la función de densidad de probabilidad truncada a la izquierda que se muestra en la parte superior de esta sección, Cohen demostró que la varianza de la estimación en relación con la varianza de la función de densidad de probabilidad, , varía de 1 para valores grandes (100 % de eficiencia) hasta 2 cuando se acerca a cero (50 % de eficiencia).

Estas estimaciones de los parámetros de media y varianza, junto con las estimaciones paralelas de X , se pueden aplicar a aproximaciones normales o binomiales para el cociente de Poisson. Las muestras de los ensayos pueden no ser adecuadas para el proceso de Poisson; Dietz y Bohning [23] ofrecen una discusión más detallada del truncamiento de Poisson y hay una entrada en Wikipedia sobre la distribución de Poisson truncada por cero .

Distribución doble Lomax

Esta distribución es la relación de dos distribuciones de Laplace . [24] Sean X e Y variables aleatorias distribuidas idénticamente según el método de Laplace estándar y sea z = X / Y. Entonces, la distribución de probabilidad de z es

Sea la media de X e Y a . Entonces la distribución doble estándar de Lomax es simétrica alrededor de a .

Esta distribución tiene una media y varianza infinitas.

Si Z tiene una distribución doble Lomax estándar, entonces 1/ Z también tiene una distribución doble Lomax estándar.

La distribución Lomax estándar es unimodal y tiene colas más pesadas que la distribución de Laplace.

Para 0 < a < 1, existe el momento a -ésimo.

donde Γ es la función gamma .

Distribuciones de proporciones en el análisis multivariado

Las distribuciones de razón también aparecen en el análisis multivariado . [25] Si las matrices aleatorias X e Y siguen una distribución Wishart , entonces la relación de los determinantes

es proporcional al producto de variables aleatorias independientes F. En el caso en que X e Y sean de distribuciones Wishart estandarizadas independientes , entonces la relación

tiene una distribución lambda de Wilks .

Razones de formas cuadráticas que involucran matrices de Wishart

En relación con las distribuciones matriciales de Wishart, si es una matriz de Wishart de muestra y el vector es arbitrario, pero estadísticamente independiente, el corolario 3.2.9 de Muirhead [26] establece

La discrepancia de uno en los números de muestra surge de la estimación de la media de la muestra al formar la covarianza de la muestra, una consecuencia del teorema de Cochran . De manera similar

que es el Teorema 3.2.12 de Muirhead [26]

Véase también

Notas

  1. ^ Sin embargo, cabe señalar que y pueden tener una distribución log-normal individual sin tener una distribución log-normal bivariada. A fecha de 2022-06-08, el artículo de Wikipedia sobre " Cópula (teoría de la probabilidad) " incluye un gráfico de densidad y contorno de dos marginales normales unidas con una cópula de Gumbel, donde la distribución conjunta no es normal bivariada.

Referencias

  1. ^ ab Geary, RC (1930). "La distribución de frecuencia del cociente de dos variables normales". Revista de la Royal Statistical Society . 93 (3): 442–446. doi :10.2307/2342070. JSTOR  2342070.
  2. ^ Fieller, EC (noviembre de 1932). "La distribución del índice en una población bivariada normal". Biometrika . 24 (3/4): 428–440. doi :10.2307/2331976. JSTOR  2331976.
  3. ^ ab Curtiss, JH (diciembre de 1941). "Sobre la distribución del cociente de dos variables aleatorias". Anales de estadística matemática . 12 (4): 409–421. doi : 10.1214/aoms/1177731679 . JSTOR  2235953.
  4. ^ George Marsaglia (abril de 1964). Razones de variables normales y razones de sumas de variables uniformes . Centro de Información Técnica de Defensa .
  5. ^ Marsaglia, George (marzo de 1965). «Razones de variables normales y razones de sumas de variables uniformes». Journal of the American Statistical Association . 60 (309): 193–204. doi :10.2307/2283145. JSTOR  2283145. Archivado desde el original el 23 de septiembre de 2017.
  6. ^ abc Hinkley, DV (diciembre de 1969). "Sobre la relación de dos variables aleatorias normales correlacionadas". Biometrika . 56 (3): 635–639. doi :10.2307/2334671. JSTOR  2334671.
  7. ^ ab Hayya, Jack ; Armstrong, Donald; Gressis, Nicolas (julio de 1975). "Una nota sobre la relación de dos variables distribuidas normalmente". Management Science . 21 (11): 1338–1341. doi :10.1287/mnsc.21.11.1338. JSTOR  2629897.
  8. ^ abcdef Springer, Melvin Dale (1979). El álgebra de variables aleatorias . Wiley . ISBN 0-471-01406-0.
  9. ^ ab Pham-Gia, T.; Turkkan, N.; Marchand, E. (2006). "Densidad de la razón de dos variables aleatorias normales y aplicaciones". Comunicaciones en estadística: teoría y métodos . 35 (9). Taylor & Francis : 1569–1591. doi :10.1080/03610920600683689. S2CID  120891296.
  10. ^ Brody, James P.; Williams, Brian A.; Wold, Barbara J.; Quake, Stephen R. (octubre de 2002). "Significación y errores estadísticos en el análisis de datos de microarrays de ADN" (PDF) . Proc Natl Acad Sci USA . 99 (20): 12975–12978. Bibcode :2002PNAS...9912975B. doi : 10.1073/pnas.162468199 . PMC 130571 . PMID  12235357. 
  11. ^ Šimon, Ján; Ftorek, Branislav (15 de septiembre de 2022). "Propiedades estadísticas básicas de la eficiencia del nudo". Simetría . 14 (9). MDPI: 1926. doi : 10.3390/sym14091926 . ISSN  2073-8994.
  12. ^ Díaz-Francés, Eloísa; Rubio, Francisco J. (24 de enero de 2012). "Sobre la existencia de una aproximación normal a la distribución del cociente de dos variables aleatorias normales independientes". Statistical Papers . 54 (2). Springer Science and Business Media LLC: 309–323. doi :10.1007/s00362-012-0429-2. ISSN  0932-5026. S2CID  122038290.
  13. ^ Baxley, RT; Waldenhorst, BT; Acosta-Marum, G (2010). "Distribución de razón gaussiana compleja con aplicaciones para el cálculo de tasa de error en canales con desvanecimiento con CSI imperfecto". Conferencia de telecomunicaciones globales IEEE 2010 GLOBECOM 2010. págs. 1–5. doi :10.1109/GLOCOM.2010.5683407. ISBN . 978-1-4244-5636-9.S2CID14100052  .​
  14. ^ Sourisseau, M.; Wu, H.-T.; Zhou, Z. (octubre de 2022). "Análisis asintótico de la transformada de sincroexpresión: hacia la inferencia estadística con análisis de tiempo-frecuencia de tipo no lineal". Anales de Estadística . 50 (5): 2694–2712. arXiv : 1904.09534 . doi :10.1214/22-AOS2203.
  15. ^ Por supuesto, cualquier invocación de un teorema de límite central supone condiciones de regularidad adecuadas y comúnmente cumplidas, por ejemplo, varianza finita.
  16. ^ abc Kermond, John (2010). "Introducción al álgebra de variables aleatorias". Actas de la 47.ª conferencia anual de la Asociación Matemática de Victoria: nuevo plan de estudios. Nuevas oportunidades . Asociación Matemática de Victoria: 1–16. ISBN 978-1-876949-50-1.
  17. ^ "SLAPPF". División de Ingeniería Estadística, Instituto Nacional de Ciencia y Tecnología . Consultado el 2 de julio de 2009 .
  18. ^ Hamedani, GG (octubre de 2013). "Caracterización de la distribución de la razón de las variables aleatorias de Rayleigh". Revista de Estadística de Pakistán . 29 (4): 369–376.
  19. ^ Raja Rao, B.; Garg., ML (1969). "Una nota sobre la distribución de Cauchy generalizada (positiva)". Canadian Mathematical Bulletin . 12 (6): 865–868. doi : 10.4153/CMB-1969-114-2 .
  20. ^ Katz D. et al . (1978) Obtención de intervalos de confianza para la razón de riesgo en estudios de cohorte. Biometrics 34:469–474
  21. ^ Cohen, A Clifford (junio de 1960). "Estimación del parámetro en una distribución de Poisson condicional". Biometrics . 60 (2): 203–211. doi :10.2307/2527552. JSTOR  2527552.
  22. ^ Springael, Johan (2006). "Sobre la suma de variables aleatorias independientes de Poisson truncadas por cero" (PDF) . Universidad de Amberes, Facultad de Economía y Negocios .
  23. ^ Dietz, Ekkehart; Bohning, Dankmar (2000). "Sobre la estimación del parámetro de Poisson en modelos de Poisson modificados por cero". Computational Statistics & Data Analysis . 34 (4): 441–459. doi :10.1016/S0167-9473(99)00111-5.
  24. ^ Bindu P y Sangita K (2015) Distribución doble de Lomax y sus aplicaciones. Statistica LXXV (3) 331–342
  25. ^ Brennan, LE; Reed, IS (enero de 1982). "Un algoritmo de procesamiento de señales de matriz adaptativa para comunicaciones". IEEE Transactions on Aerospace and Electronic Systems . AES-18 No 1: 124–130. Bibcode :1982ITAES..18..124B. doi :10.1109/TAES.1982.309212. S2CID  45721922.
  26. ^ ab Muirhead, Robb (1982). Aspectos de la teoría estadística multivariante . Estados Unidos: Wiley. págs. 96, Teorema 3.2.12.

Enlaces externos