stringtranslate.com

Distribución de Cauchy

La distribución de Cauchy , llamada así en honor a Augustin Cauchy , es una distribución de probabilidad continua . También se la conoce, especialmente entre los físicos , como distribución de Lorentz (en honor a Hendrik Lorentz ), distribución de Cauchy-Lorentz , función de Lorentz(ian) o distribución de Breit-Wigner . La distribución de Cauchy es la distribución de la intersección con el eje x de un rayo que sale con un ángulo uniformemente distribuido. También es la distribución de la proporción de dos variables aleatorias independientes distribuidas normalmente con media cero.

La distribución de Cauchy se utiliza a menudo en estadística como ejemplo canónico de una distribución " patológica ", ya que tanto su valor esperado como su varianza no están definidos (pero consulte § Momentos a continuación). La distribución de Cauchy no tiene momentos finitos de orden mayores o iguales a uno; sólo existen momentos absolutos fraccionarios. [1] La distribución de Cauchy no tiene función generadora de momentos .

En matemáticas , está estrechamente relacionado con el núcleo de Poisson , que es la solución fundamental de la ecuación de Laplace en el semiplano superior .

Es una de las pocas distribuciones estables con una función de densidad de probabilidad que puede expresarse analíticamente, siendo las otras la distribución normal y la distribución de Lévy .

Historia

La estimación de la media y la desviación estándar a través de muestras de una distribución de Cauchy (abajo) no converge con más muestras, como en la distribución normal (arriba). Puede haber saltos arbitrariamente grandes en las estimaciones, como se ve en los gráficos de la parte inferior. (Haga clic para ampliar)

Fermat estudió geométricamente una función con la forma de función de densidad de la distribución de Cauchy en 1659, y más tarde fue conocida como la bruja de Agnesi , después de que Agnesi la incluyera como ejemplo en su libro de texto de cálculo de 1748. A pesar de su nombre, el primer análisis explícito de las propiedades de la distribución de Cauchy fue publicado por el matemático francés Poisson en 1824, y Cauchy sólo se asoció con ella durante una controversia académica en 1853. [2] Poisson señaló que si la media de las observaciones Después de tomar tal distribución, el error medio [ se necesita más explicación ] no convergió a ningún número finito. Como tal, el uso de Laplace del teorema del límite central con tal distribución fue inapropiado, ya que suponía una media y una varianza finitas. A pesar de esto, Poisson no consideró la cuestión importante, a diferencia de Bienaymé , que entabló con Cauchy una larga disputa sobre el asunto.

Construcciones

Aquí se muestran las construcciones más importantes.

Simetría rotacional

Si uno se para frente a una línea y patea una pelota con una dirección (más precisamente, un ángulo) uniformemente aleatoria hacia la línea, entonces la distribución del punto donde la pelota golpea la línea es una distribución de Cauchy.

Más formalmente, considere un punto en el plano xy y seleccione una línea que pase por el punto, con su dirección (ángulo con el eje -) elegida uniformemente (entre -90° y +90°) al azar. La intersección de la línea con el eje x es la distribución de Cauchy con ubicación y escala .

Esta definición proporciona una forma sencilla de tomar muestras de la distribución estándar de Cauchy. Sea una muestra de una distribución uniforme de , luego podemos generar una muestra, a partir de la distribución estándar de Cauchy usando

Cuando y son dos variables aleatorias independientes distribuidas normalmente con valor esperado 0 y varianza 1, entonces la relación tiene la distribución estándar de Cauchy.

De manera más general, si hay una distribución rotacionalmente simétrica en el plano, entonces la relación tiene la distribución estándar de Cauchy.

Función de densidad de probabilidad (PDF)

La distribución de Cauchy es la distribución de probabilidad con la siguiente función de densidad de probabilidad (PDF) [1] [3]

donde es el parámetro de ubicación , que especifica la ubicación del pico de la distribución, y es el parámetro de escala que especifica la mitad del ancho en la mitad del máximo (HWHM), alternativamente es el ancho completo en la mitad del máximo (FWHM). También es igual a la mitad del rango intercuartil y a veces se le llama error probable . Augustin-Louis Cauchy explotó dicha función de densidad en 1827 con un parámetro de escala infinitesimal , definiendo lo que ahora se llamaría función delta de Dirac .

Propiedades del PDF

El valor máximo o amplitud del PDF de Cauchy se encuentra en .

A veces es conveniente expresar la PDF en términos del parámetro complejo

El caso especial cuando y se denomina distribución estándar de Cauchy con la función de densidad de probabilidad [4] [5]

En física, se suele utilizar una función de Lorentz de tres parámetros:

¿Dónde está la altura del pico? La función Lorentziana de tres parámetros indicada no es, en general, una función de densidad de probabilidad, ya que no se integra a 1, excepto en el caso especial donde

Función de distribución acumulativa (CDF)

La distribución de Cauchy es la distribución de probabilidad con la siguiente función de distribución acumulativa (CDF):

y la función cuantil ( cdf inversa ) de la distribución de Cauchy es

De ello se deduce que el primer y tercer cuartil son , y por tanto el rango intercuartil es .

Para la distribución estándar, la función de distribución acumulativa se simplifica a la función arcotangente :

Otras construcciones

La distribución de Cauchy estándar es la distribución t de Student con un grado de libertad, por lo que puede construirse mediante cualquier método que construya la distribución t de Student.

Si es una matriz de covarianza semidefinida positiva con entradas diagonales estrictamente positivas, entonces para independientes e idénticamente distribuidos y cualquier vector aleatorio independiente de y tal que y (definiendo una distribución categórica ) se cumple que

[6]

Propiedades

La distribución de Cauchy es un ejemplo de una distribución que no tiene media , varianza o momentos superiores definidos. Su moda y mediana están bien definidas y ambas son iguales a .

La distribución de Cauchy es una distribución de probabilidad infinitamente divisible . También es una distribución estrictamente estable . [7]

Como todas las distribuciones estables, la familia de escala de ubicación a la que pertenece la distribución de Cauchy está cerrada bajo transformaciones lineales con coeficientes reales . Además, la distribución de Cauchy está cerrada bajo transformaciones fraccionarias lineales con coeficientes reales. [8] A este respecto, véase también la parametrización de McCullagh de las distribuciones de Cauchy .

Suma de distribuciones de Cauchy

Si las muestras IID provienen de la distribución estándar de Cauchy, entonces su media muestral también es la distribución estándar de Cauchy. En particular, el promedio no converge con la media, por lo que la distribución estándar de Cauchy no sigue la ley de los números grandes.

Esto se puede demostrar mediante la integración repetida con el PDF, o más convenientemente, utilizando la función característica de la distribución estándar de Cauchy (ver más abajo):

De manera más general, si son independientes y están distribuidos por Cauchy con parámetros de ubicación y escalas , y son números reales, entonces Cauchy está distribuido con ubicación y escala . Vemos que no existe una ley de grandes números para ninguna suma ponderada de distribuciones de Cauchy independientes.

Esto muestra que la condición de varianza finita en el teorema del límite central no se puede eliminar. También es un ejemplo de una versión más generalizada del teorema del límite central que es característico de todas las distribuciones estables , de las cuales la distribución de Cauchy es un caso especial.

Teorema del límite central

Si las muestras IID con PDF son finitas, pero distintas de cero, entonces convergen en distribución a una distribución de Cauchy con escala . [9]

Función característica

Denotemos una variable aleatoria distribuida de Cauchy. La función característica de la distribución de Cauchy viene dada por

que es simplemente la transformada de Fourier de la densidad de probabilidad. La densidad de probabilidad original se puede expresar en términos de la función característica, esencialmente utilizando la transformada inversa de Fourier:

El enésimo momento de una distribución es la enésima derivada de la función característica evaluada en . Observe que la función característica no es diferenciable en el origen: esto corresponde al hecho de que la distribución de Cauchy no tiene momentos bien definidos superiores al momento cero.

Divergencia Kullback-Leibler

La divergencia de Kullback-Leibler entre dos distribuciones de Cauchy tiene la siguiente fórmula simétrica de forma cerrada: [10]

Cualquier divergencia f entre dos distribuciones de Cauchy es simétrica y puede expresarse como una función de la divergencia chi-cuadrado. [11] Están disponibles expresiones en forma cerrada para la variación total , la divergencia de Jensen-Shannon , la distancia de Hellinger , etc.

entropía

La entropía de la distribución de Cauchy viene dada por:

La derivada de la función cuantil , la función de densidad cuantil, para la distribución de Cauchy es:

La entropía diferencial de una distribución se puede definir en términos de su densidad cuantil, [12] específicamente:

La distribución de Cauchy es la distribución de probabilidad de entropía máxima para una variable aleatoria para la cual

En su forma estándar, es la distribución de probabilidad de entropía máxima para una variable aleatoria para la cual [13]

Momentos

La distribución de Cauchy se suele utilizar como contraejemplo ilustrativo en cursos de probabilidad elemental, como una distribución sin momentos bien definidos (o "indefinidos").

Momentos de muestra

Si tomamos muestras IID de la distribución estándar de Cauchy, entonces la secuencia de su media muestral es , que también tiene la distribución estándar de Cauchy. En consecuencia, no importa cuántos términos tomemos, el promedio muestral no converge.

De manera similar, la varianza muestral tampoco converge.

Una trayectoria típica de las medias muestrales parece ser largos períodos de lenta convergencia a cero, interrumpidos por grandes saltos que se alejan de cero, pero que nunca se alejan demasiado. Una trayectoria típica de varianzas muestrales parece similar, pero los saltos se acumulan más rápido que la caída, divergiendo hasta el infinito.

Una trayectoria típica parece ser largos períodos de lenta convergencia hacia cero, interrumpidos por grandes saltos desde cero, pero sin alejarse demasiado. Una trayectoria típica de parece similar, pero los saltos se acumulan más rápido que la decadencia, divergiendo hasta el infinito. Estos dos tipos de trayectorias se representan en la figura.

Los momentos de muestra inferiores al orden 1 convergerían a cero. Los momentos de muestra superiores al orden 2 divergirían hasta el infinito incluso más rápido que la varianza de la muestra.

Significar

Si una distribución de probabilidad tiene una función de densidad , entonces la media, si existe, viene dada por

Podemos evaluar esta integral impropia de dos lados calculando la suma de dos integrales impropias de un lado. Eso es,

para un número real arbitrario .

Para que la integral exista (incluso como un valor infinito), al menos uno de los términos de esta suma debe ser finito, o ambos deben ser infinitos y tener el mismo signo. Pero en el caso de la distribución de Cauchy, ambos términos de esta suma ( 2 ) son infinitos y tienen signo opuesto. Por tanto ( 1 ) no está definida y, por tanto, también lo es la media. [14] Cuando la media de una función de distribución de probabilidad (PDF) no está definida, nadie puede calcular un promedio confiable sobre los puntos de datos experimentales, independientemente del tamaño de la muestra.

Tenga en cuenta que el valor principal de Cauchy de la media de la distribución de Cauchy es

no1

Varios resultados de la teoría de la probabilidad sobre los valores esperados , como la ley fuerte de los grandes números , no se cumplen para la distribución de Cauchy. [14]

Momentos más pequeños

Los momentos absolutos para están definidos. porque tenemos

Momentos más altos

La distribución de Cauchy no tiene momentos finitos de ningún orden. Algunos de los momentos brutos superiores existen y tienen un valor infinito, por ejemplo, el segundo momento bruto:

Al reorganizar la fórmula, se puede ver que el segundo momento es esencialmente la integral infinita de una constante (aquí 1). Los momentos brutos de mayor potencia uniforme también se evaluarán hasta el infinito. Los momentos crudos con poderes extraños, sin embargo, no están definidos, lo que es claramente diferente de existir con el valor del infinito. Los momentos brutos de potencia impar no están definidos porque sus valores son esencialmente equivalentes, ya que las dos mitades de la integral divergen y tienen signos opuestos. El primer momento crudo es el medio, que por ser extraño no existe. (Véase también la discusión anterior sobre esto). Esto a su vez significa que todos los momentos centrales y momentos estandarizados no están definidos ya que todos se basan en la media. La varianza, que es el segundo momento central, tampoco existe (a pesar de que el segundo momento bruto existe con el valor infinito).

Los resultados para momentos superiores se derivan de la desigualdad de Hölder , lo que implica que los momentos superiores (o mitades de momentos) divergen si los inferiores lo hacen.

Momentos de distribuciones truncadas.

Considere la distribución truncada definida restringiendo la distribución estándar de Cauchy al intervalo [−10 100 , 10 100 ] . Una distribución truncada de este tipo tiene todos los momentos (y el teorema del límite central se aplica a las observaciones iid de ella); sin embargo, para casi todos los propósitos prácticos se comporta como una distribución de Cauchy. [15]

Estimación de parámetros

Debido a que los parámetros de la distribución de Cauchy no corresponden a una media y una varianza, intentar estimar los parámetros de la distribución de Cauchy utilizando una media muestral y una varianza muestral no tendrá éxito. [16] Por ejemplo, si se toma una muestra iid de tamaño n de una distribución de Cauchy, se puede calcular la media muestral como:

Aunque los valores muestrales se concentrarán alrededor del valor central , la media muestral será cada vez más variable a medida que se realicen más observaciones, debido a la mayor probabilidad de encontrar puntos muestrales con un valor absoluto grande. De hecho, la distribución de la media muestral será igual a la distribución de las observaciones mismas; es decir, la media muestral de una muestra grande no es un mejor (o peor) estimador que cualquier observación individual de la muestra. De manera similar, calcular la varianza de la muestra dará como resultado valores que aumentan a medida que se toman más observaciones.

Por lo tanto, se necesitan medios más sólidos para estimar el valor central y el parámetro de escala . Un método simple es tomar el valor mediano de la muestra como estimador de y la mitad del rango intercuartil de la muestra como estimador de . Se han desarrollado otros métodos más precisos y sólidos [17] [18]. Por ejemplo, la media truncada del 24% central de las estadísticas del orden de la muestra produce una estimación que es más eficiente que usar la mediana de la muestra o la muestra completa. significar. [19] [20] Sin embargo, debido a las colas gruesas de la distribución de Cauchy, la eficiencia del estimador disminuye si se utiliza más del 24% de la muestra. [19] [20]

La máxima verosimilitud también se puede utilizar para estimar los parámetros y . Sin embargo, esto tiende a complicarse por el hecho de que requiere encontrar las raíces de un polinomio de alto grado, y puede haber múltiples raíces que representen máximos locales. [21] Además, si bien el estimador de máxima verosimilitud es asintóticamente eficiente, es relativamente ineficiente para muestras pequeñas. [22] [23] La función de probabilidad logarítmica para la distribución de Cauchy para el tamaño de la muestra es:

Maximizar la función logarítmica de verosimilitud con respecto a y tomando la primera derivada produce el siguiente sistema de ecuaciones:

Tenga en cuenta que

es una función monótona y que la solución debe satisfacer

Resolver solo por requiere resolver un polinomio de grado , [21] y resolver solo por requiere resolver un polinomio de grado . Por lo tanto, ya sea para resolver un parámetro o ambos parámetros simultáneamente, normalmente se requiere una solución numérica en una computadora. El beneficio de la estimación de máxima verosimilitud es la eficiencia asintótica; estimar utilizando la mediana muestral es sólo alrededor del 81% tan asintóticamente eficiente como estimar por máxima verosimilitud. [20] [24] La media de la muestra truncada utilizando las estadísticas de orden medio del 24% es aproximadamente un 88% tan asintóticamente eficiente como un estimador de la estimación de máxima verosimilitud. [20] Cuando se utiliza el método de Newton para encontrar la solución para la estimación de máxima verosimilitud, las estadísticas de orden medio del 24% se pueden utilizar como solución inicial para .

La forma se puede estimar utilizando la mediana de valores absolutos, ya que para la ubicación 0 variables de Cauchy , el parámetro de forma.

Distribución de Cauchy multivariada

Se dice que un vector aleatorio tiene la distribución de Cauchy multivariada si cada combinación lineal de sus componentes tiene una distribución de Cauchy. Es decir, para cualquier vector constante , la variable aleatoria debe tener una distribución de Cauchy univariada. [25] La función característica de una distribución de Cauchy multivariada viene dada por:

donde y son funciones reales con una función homogénea de grado uno y una función homogénea positiva de grado uno. [25] Más formalmente: [25]

para todos .

Un ejemplo de distribución de Cauchy bivariada puede darse mediante: [26]

Tenga en cuenta que en este ejemplo, aunque la covarianza entre y es 0, y no son estadísticamente independientes . [26]

También podemos escribir esta fórmula para variables complejas. Entonces la función de densidad de probabilidad de Cauchy complejo es:

Al igual que la distribución de Cauchy estándar es la distribución t de Student con un grado de libertad, la densidad de Cauchy multidimensional es la distribución de Student multivariada con un grado de libertad. La densidad de una dimensión Distribución de Student con un grado de libertad es:

Las propiedades de la distribución de Cauchy multidimensional son entonces casos especiales de la distribución de Student multivariada.

Propiedades de transformación

medida de levy

La distribución de Cauchy es la distribución estable del índice 1. La representación de Lévy-Khintchine de dicha distribución estable de parámetro viene dada por:

dónde

y puede expresarse explícitamente. [29] En el caso de la distribución de Cauchy, se tiene .

Esta última representación es consecuencia de la fórmula

Distribuciones relacionadas

Distribución relativista de Breit-Wigner

En física nuclear y de partículas , el perfil energético de una resonancia se describe mediante la distribución relativista de Breit-Wigner , mientras que la distribución de Cauchy es la distribución (no relativista) de Breit-Wigner. [ cita necesaria ]

Ocurrencia y aplicaciones

Distribución acumulada de Cauchy ajustada a las precipitaciones máximas de un día utilizando CumFreq , ver también ajuste de distribución [32]

Ver también

Referencias

  1. ^ a b C NL Johnson; S. Kotz; N. Balakrishnan (1994). Distribuciones univariadas continuas, volumen 1 . Nueva York: Wiley., Capítulo 16.
  2. ^ Cauchy y la bruja de Agnesi en Estadísticas sobre la mesa , SM Stigler Harvard 1999 Capítulo 18
  3. ^ Feller, William (1971). Introducción a la teoría de la probabilidad y sus aplicaciones, volumen II (2 ed.). Nueva York: John Wiley & Sons Inc. págs. 704. ISBN 978-0-471-25709-7.
  4. ^ Riley, Ken F.; Hobson, Michael P.; Bence, Stephen J. (2006). Métodos matemáticos para física e ingeniería (3 ed.). Cambridge, Reino Unido: Cambridge University Press. págs.1333. ISBN 978-0-511-16842-0.
  5. ^ Balakrishnan, N.; Nevrozov, VB (2003). Introducción a las distribuciones estadísticas (1 ed.). Hoboken, Nueva Jersey: John Wiley & Sons Inc. págs. 305. ISBN 0-471-42798-5.
  6. ^ Pillai N.; Meng, XL (2016). "Un encuentro inesperado con Cauchy y Lévy". Los anales de la estadística . 44 (5): 2089–2097. arXiv : 1505.01957 . doi :10.1214/15-AOS1407. S2CID  31582370.
  7. ^ Campbell B. Leer; N. Balakrishnan; Brani Vidakovic; Samuel Kotz (2006). Enciclopedia de Ciencias Estadísticas (2ª ed.). John Wiley e hijos . pag. 778.ISBN 978-0-471-15044-2.
  8. ^ Caballero, Franck B. (1976). "Una caracterización del tipo Cauchy". Actas de la Sociedad Matemática Estadounidense . 55 (1): 130-135. doi : 10.2307/2041858 . JSTOR  2041858.
  9. ^ "Actualizaciones del límite central de Cauchy". Cálculo Cuántico . 13 de noviembre de 2022 . Consultado el 21 de junio de 2023 .
  10. ^ Federico, Chyzak; Nielsen, Frank (2019). "Una fórmula cerrada para la divergencia Kullback-Leibler entre distribuciones de Cauchy". arXiv : 1905.10965 [cs.IT].
  11. ^ Nielsen, Frank; Okamura, Kazuki (2023). "Sobre las f-divergencias entre distribuciones de Cauchy". Transacciones IEEE sobre teoría de la información . 69 (5): 3150–3171. arXiv : 2101.12459 . doi :10.1109/TIT.2022.3231645. S2CID  231728407.
  12. ^ Vasicek, Oldrich (1976). "Una prueba de normalidad basada en la entropía de la muestra". Revista de la Royal Statistical Society, Serie B. 38 (1): 54–59. doi :10.1111/j.2517-6161.1976.tb01566.x.
  13. ^ Parque, Sung Y.; Bera, Anil K. (2009). "Modelo de heterocedasticidad condicional autorregresiva de máxima entropía" (PDF) . Revista de Econometría . 150 (2). Elsevier: 219-230. doi :10.1016/j.jeconom.2008.12.014. Archivado desde el original (PDF) el 30 de septiembre de 2011 . Consultado el 2 de junio de 2011 .
  14. ^ ab Kyle Siegrist. "Distribución Cauchy". Aleatorio . Archivado desde el original el 9 de julio de 2021 . Consultado el 5 de julio de 2021 .
  15. ^ Hampel, Frank (1998), "¿Son las estadísticas demasiado difíciles?" (PDF) , Canadian Journal of Statistics , 26 (3): 497–513, doi :10.2307/3315772, hdl : 20.500.11850/145503 , JSTOR  3315772, S2CID  53117661, archivado desde el original el 25 de enero de 2022 , recuperado 2019-09-25.
  16. ^ "Ilustración de la inestabilidad de las medias muestrales". Archivado desde el original el 24 de marzo de 2017 . Consultado el 22 de noviembre de 2014 .
  17. ^ Caña, Gwenda J. (1974). "Estimación lineal de parámetros de la distribución de Cauchy basada en cuantiles de muestra". Revista de la Asociación Estadounidense de Estadística . 69 (345): 243–245. doi :10.1080/01621459.1974.10480163. JSTOR  2285535.
  18. ^ Zhang, Jin (2010). "Un estimador L altamente eficiente para el parámetro de ubicación de la distribución de Cauchy". Estadística Computacional . 25 (1): 97-105. doi :10.1007/s00180-009-0163-y. S2CID  123586208.
  19. ^ ab Rothenberg, Thomas J.; Pescador, Franklin, M.; Tilanus, CB (1964). "Una nota sobre la estimación a partir de una muestra de Cauchy". Revista de la Asociación Estadounidense de Estadística . 59 (306): 460–463. doi :10.1080/01621459.1964.10482170.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  20. ^ abc Bloch, Daniel (1966). "Una nota sobre la estimación de los parámetros de ubicación de la distribución de Cauchy". Revista de la Asociación Estadounidense de Estadística . 61 (316): 852–855. doi :10.1080/01621459.1966.10480912. JSTOR  2282794.
  21. ^ ab Ferguson, Thomas S. (1978). "Estimaciones de máxima verosimilitud de los parámetros de la distribución de Cauchy para muestras de tamaño 3 y 4". Revista de la Asociación Estadounidense de Estadística . 73 (361): 211–213. doi :10.1080/01621459.1978.10480031. JSTOR  2286549.
  22. ^ Cohen Freue, Gabriella V. (2007). "El estimador Pitman del parámetro de ubicación de Cauchy" (PDF) . Revista de planificación e inferencia estadística . 137 (6): 1901. doi :10.1016/j.jspi.2006.05.002. Archivado desde el original (PDF) el 16 de agosto de 2011.
  23. ^ Wilcox, Rand (2012). Introducción a la estimación robusta y las pruebas de hipótesis . Elsevier.
  24. ^ Barnett, VD (1966). "Estimadores de estadísticas de pedidos de la ubicación de la distribución de Cauchy". Revista de la Asociación Estadounidense de Estadística . 61 (316): 1205-1218. doi :10.1080/01621459.1966.10482205. JSTOR  2283210.
  25. ^ abc Ferguson, Thomas S. (1962). "Una representación de la distribución de Cauchy bivariada simétrica". Los anales de la estadística matemática . 33 (4): 1256-1266. doi : 10.1214/aoms/1177704357 . JSTOR  2237984 . Consultado el 7 de enero de 2017 .
  26. ^ ab Molenberghs, Geert; Lesaffre, Emmanuel (1997). "Ecuaciones integrales no lineales para aproximar densidades bivariadas con márgenes dados y función de dependencia" (PDF) . Estadística Sínica . 7 : 713–738. Archivado desde el original (PDF) el 14 de septiembre de 2009.
  27. ^ Lemons, Don S. (2002), "Introducción a los procesos estocásticos en física", American Journal of Physics , 71 (2), The Johns Hopkins University Press: 35, Bibcode : 2003AmJPh..71..191L, doi : 10.1119/1.1526134, ISBN 0-8018-6866-1
  28. ^ ab McCullagh, P. , "Inferencia condicional y modelos de Cauchy", Biometrika , volumen 79 (1992), páginas 247-259. PDF Archivado el 10 de junio de 2010 en Wayback Machine desde la página de inicio de McCullagh.
  29. ^ Kyprianou, Andreas (2009). Procesos de Lévy y procesos de ramificación de estado continuo: parte I (PDF) . pag. 11. Archivado (PDF) desde el original el 3 de marzo de 2016 . Consultado el 4 de mayo de 2016 .
  30. ^ E. Hecht (1987). Óptica (2ª ed.). Addison-Wesley . pag. 603.
  31. ^ White, JS (diciembre de 1958). "La distribución límite del coeficiente de correlación serial en el caso explosivo". Los anales de la estadística matemática . 29 (4): 1188-1197. doi : 10.1214/aoms/1177706450 .
  32. ^ "CumFreq, software gratuito para análisis de frecuencia acumulada y ajuste de distribución de probabilidad". Archivado desde el original el 21 de febrero de 2018.
  33. ^ Gull, SF (1988) Inferencia inductiva bayesiana y máxima entropía. Kluwer Academic Publishers, Berlín. https://doi.org/10.1007/978-94-009-3049-0_4 Archivado el 25 de enero de 2022 en Wayback Machine.
  34. ^ Tong Liu (2012), Una distribución intermedia entre las distribuciones gaussiana y de Cauchy. https://arxiv.org/pdf/1208.5109.pdf Archivado el 24 de junio de 2020 en Wayback Machine.

enlaces externos