stringtranslate.com

Distribución de Cauchy

La distribución de Cauchy , llamada así por Augustin-Louis Cauchy , es una distribución de probabilidad continua . También se la conoce, especialmente entre los físicos , como distribución de Lorentz (en honor a Hendrik Lorentz ), distribución de Cauchy-Lorentz , función de Lorentz(iana) o distribución de Breit-Wigner . La distribución de Cauchy es la distribución de la intersección con el eje x de un rayo que sale de con un ángulo distribuido uniformemente. También es la distribución del cociente de dos variables aleatorias independientes distribuidas normalmente con media cero.

La distribución de Cauchy se utiliza a menudo en estadística como el ejemplo canónico de una distribución " patológica ", ya que tanto su valor esperado como su varianza no están definidos (pero véase § Momentos más adelante). La distribución de Cauchy no tiene momentos finitos de orden mayor o igual a uno; solo existen momentos absolutos fraccionarios. [1] La distribución de Cauchy no tiene función generadora de momentos .

En matemáticas , está estrechamente relacionado con el núcleo de Poisson , que es la solución fundamental de la ecuación de Laplace en el semiplano superior .

Es una de las pocas distribuciones estables con una función de densidad de probabilidad que puede expresarse analíticamente, siendo las otras la distribución normal y la distribución de Lévy .

Historia

La estimación de la media y la desviación estándar a través de una muestra de una distribución de Cauchy (abajo) no converge a medida que aumenta el tamaño de la muestra, como en la distribución normal (arriba). Puede haber saltos arbitrarios en las estimaciones, como se ve en los gráficos de la parte inferior. (Haga clic para ampliar)

Una función con la forma de la función de densidad de la distribución de Cauchy fue estudiada geométricamente por Fermat en 1659, y más tarde fue conocida como la bruja de Agnesi , después de que Agnesi la incluyera como ejemplo en su libro de texto de cálculo de 1748. A pesar de su nombre, el primer análisis explícito de las propiedades de la distribución de Cauchy fue publicado por el matemático francés Poisson en 1824, y Cauchy solo se asoció con ella durante una controversia académica en 1853. [2] Poisson notó que si se tomaba la media de las observaciones que seguían tal distribución, el error medio [ se necesita más explicación ] no convergía a ningún número finito. Como tal, el uso de Laplace del teorema del límite central con tal distribución era inapropiado, ya que asumía una media y varianza finitas. A pesar de esto, Poisson no consideró que el tema fuera importante, en contraste con Bienaymé , quien entablaría una larga disputa con Cauchy sobre el asunto.

Construcciones

Aquí se muestran las construcciones más importantes.

Simetría rotacional

Si uno se para frente a una línea y patea una pelota con una dirección (más precisamente, un ángulo) uniformemente aleatoria hacia la línea, entonces la distribución del punto donde la pelota golpea la línea es una distribución de Cauchy.

De manera más formal, considere un punto en el plano xy y seleccione una línea que pase por el punto, con su dirección (ángulo con el eje ) elegida uniformemente (entre -90° y +90°) al azar. La intersección de la línea con el eje x es la distribución de Cauchy con ubicación y escala .

Esta definición proporciona una forma sencilla de tomar muestras de la distribución estándar de Cauchy. Sea una muestra de una distribución uniforme de , entonces podemos generar una muestra, de la distribución estándar de Cauchy utilizando

Cuando y son dos variables aleatorias independientes distribuidas normalmente con valor esperado 0 y varianza 1, entonces la relación tiene la distribución de Cauchy estándar.

De manera más general, si es una distribución rotacionalmente simétrica en el plano, entonces la relación tiene la distribución de Cauchy estándar.

Función de densidad de probabilidad (PDF)

La distribución de Cauchy es la distribución de probabilidad con la siguiente función de densidad de probabilidad (PDF) [1] [3]

donde es el parámetro de ubicación , que especifica la ubicación del pico de la distribución, y es el parámetro de escala que especifica el ancho medio en la mitad del máximo (HWHM), alternativamente es el ancho completo en la mitad del máximo (FWHM). también es igual a la mitad del rango intercuartil y a veces se denomina error probable . Augustin-Louis Cauchy explotó dicha función de densidad en 1827 con un parámetro de escala infinitesimal , definiendo lo que ahora se llamaría una función delta de Dirac .

Propiedades de PDF

El valor máximo o amplitud de la PDF de Cauchy es , ubicado en .

A veces es conveniente expresar la PDF en términos del parámetro complejo

El caso especial cuando y se llama distribución de Cauchy estándar con la función de densidad de probabilidad [4] [5]

En física, a menudo se utiliza una función lorentziana de tres parámetros:

donde es la altura del pico. La función lorentziana de tres parámetros indicada no es, en general, una función de densidad de probabilidad, ya que no integra a 1, excepto en el caso especial donde

Función de distribución acumulativa (CDF)

La distribución de Cauchy es la distribución de probabilidad con la siguiente función de distribución acumulativa (CDF):

y la función cuantil ( cdf inversa ) de la distribución de Cauchy es

De ello se deduce que el primer y el tercer cuartil son , y por lo tanto el rango intercuartil es .

Para la distribución estándar, la función de distribución acumulativa se simplifica a la función arcotangente :

Otras construcciones

La distribución de Cauchy estándar es la distribución t de Student con un grado de libertad, por lo que puede construirse mediante cualquier método que construya la distribución t de Student.

Si es una matriz de covarianza positiva-semidefinida con entradas diagonales estrictamente positivas, entonces para cualquier vector aleatorio independiente e idénticamente distribuido e independiente de y tal que y (que define una distribución categórica ) se cumple que

[6]

Propiedades

La distribución de Cauchy es un ejemplo de distribución que no tiene media , varianza ni momentos superiores definidos. Su moda y mediana están bien definidas y ambas son iguales a .

La distribución de Cauchy es una distribución de probabilidad infinitamente divisible y también es una distribución estrictamente estable . [7]

Como todas las distribuciones estables, la familia de escala de localización a la que pertenece la distribución de Cauchy está cerrada bajo transformaciones lineales con coeficientes reales . Además, la familia de variables aleatorias distribuidas según Cauchy está cerrada bajo transformaciones fraccionarias lineales con coeficientes reales. [8] En este sentido, véase también la parametrización de las distribuciones de Cauchy de McCullagh .

Suma de variables aleatorias distribuidas según Cauchy

Si se trata de una muestra IID de la distribución estándar de Cauchy, entonces la media de la muestra también se distribuye según la distribución estándar de Cauchy. En particular, el promedio no converge a la media, por lo que la distribución estándar de Cauchy no sigue la ley de los grandes números.

Esto se puede demostrar mediante la integración repetida con la PDF, o más convenientemente, utilizando la función característica de la distribución de Cauchy estándar (ver más abajo): Con esto, tenemos , y por lo tanto tiene una distribución de Cauchy estándar.

En términos más generales, si son independientes y se distribuyen con parámetros de ubicación y escalas de Cauchy , y son números reales, entonces se distribuyen con parámetros de ubicación y escala de Cauchy. Vemos que no existe una ley de los grandes números para ninguna suma ponderada de distribuciones de Cauchy independientes.

Esto demuestra que no se puede descartar la condición de varianza finita del teorema del límite central . También es un ejemplo de una versión más generalizada del teorema del límite central que es característica de todas las distribuciones estables , de las cuales la distribución de Cauchy es un caso especial.

Teorema del límite central

Si son y IID muestran una PDF tal que es finita, pero distinta de cero, entonces converge en distribución a una distribución de Cauchy con escala . [9]

Función característica

Sea una variable aleatoria con distribución de Cauchy. La función característica de la distribución de Cauchy está dada por

que es simplemente la transformada de Fourier de la densidad de probabilidad. La densidad de probabilidad original puede expresarse en términos de la función característica, básicamente utilizando la transformada de Fourier inversa:

El momento n de una distribución es la derivada n de la función característica evaluada en . Obsérvese que la función característica no es diferenciable en el origen: esto corresponde al hecho de que la distribución de Cauchy no tiene momentos bien definidos superiores al momento cero.

Divergencia de Kullback-Leibler

La divergencia de Kullback-Leibler entre dos distribuciones de Cauchy tiene la siguiente fórmula simétrica de forma cerrada: [10]

Cualquier divergencia f entre dos distribuciones de Cauchy es simétrica y puede expresarse como una función de la divergencia chi-cuadrado. [11] Existen expresiones de forma cerrada para la variación total , la divergencia de Jensen-Shannon , la distancia de Hellinger , etc.

Entropía

La entropía de la distribución de Cauchy viene dada por:

La derivada de la función cuantil , la función de densidad cuantil, para la distribución de Cauchy es:

La entropía diferencial de una distribución se puede definir en términos de su densidad cuantil, [12] específicamente:

La distribución de Cauchy es la distribución de probabilidad de entropía máxima para una variable aleatoria para la cual [13]

Momentos

La distribución de Cauchy se utiliza habitualmente como contraejemplo ilustrativo en cursos de probabilidad elemental, como una distribución sin momentos bien definidos (o "indefinidos").

Momentos de muestra

Si tomamos una muestra de IID de la distribución estándar de Cauchy, entonces la secuencia de su media muestral es , que también tiene la distribución estándar de Cauchy. En consecuencia, sin importar cuántos términos tomemos, la media muestral no converge.

De manera similar, la varianza de la muestra tampoco converge.

Una trayectoria típica de medias muestrales parece la de largos períodos de convergencia lenta hacia cero, interrumpidos por grandes saltos que se alejan de cero, pero que nunca se alejan demasiado. Una trayectoria típica de varianzas muestrales parece similar, pero los saltos se acumulan más rápido que la caída, divergiendo hasta el infinito.

Una trayectoria típica de parece ser la de largos períodos de convergencia lenta hacia cero, interrumpidos por grandes saltos que se alejan del cero, pero que nunca se alejan demasiado. Una trayectoria típica de parece similar, pero los saltos se acumulan más rápido que la decadencia, divergiendo hacia el infinito. Estos dos tipos de trayectorias se representan en la figura.

Los momentos de la muestra de orden inferior a 1 convergerían a cero. Los momentos de la muestra de orden superior a 2 divergirían hasta el infinito incluso más rápido que la varianza de la muestra.

Significar

Si una distribución de probabilidad tiene una función de densidad , entonces la media, si existe, viene dada por

Podemos evaluar esta integral impropia bilateral calculando la suma de dos integrales impropias unilaterales. Es decir,

para un número real arbitrario .

Para que exista la integral (incluso como un valor infinito), al menos uno de los términos de esta suma debe ser finito, o ambos deben ser infinitos y tener el mismo signo. Pero en el caso de la distribución de Cauchy, ambos términos de esta suma ( 2 ) son infinitos y tienen signo opuesto. Por lo tanto, ( 1 ) no está definido y, por lo tanto, tampoco lo está la media. [14] Cuando la media de una función de distribución de probabilidad (PDF) no está definida, nadie puede calcular un promedio confiable sobre los puntos de datos experimentales, independientemente del tamaño de la muestra.

Obsérvese que el valor principal de Cauchy de la media de la distribución de Cauchy es que es cero. Por otra parte, la integral relacionada no es cero, como se puede ver al calcular la integral. Esto demuestra nuevamente que la media ( 1 ) no puede existir.

Varios resultados de la teoría de probabilidad sobre valores esperados , como la ley fuerte de los grandes números , no se cumplen para la distribución de Cauchy. [14]

Momentos más pequeños

Los momentos absolutos para están definidos. Porque tenemos

Momentos más elevados

La distribución de Cauchy no tiene momentos finitos de ningún orden. Algunos de los momentos brutos superiores sí existen y tienen un valor infinito, por ejemplo, el segundo momento bruto:

Al reorganizar la fórmula, se puede ver que el segundo momento es esencialmente la integral infinita de una constante (aquí 1). Los momentos brutos de potencia par superior también se evaluarán como infinito. Sin embargo, los momentos brutos de potencia impar no están definidos, lo que es claramente diferente de existir con el valor de infinito. Los momentos brutos de potencia impar no están definidos porque sus valores son esencialmente equivalentes a , ya que las dos mitades de la integral divergen y tienen signos opuestos. El primer momento bruto es la media, que, al ser impar, no existe. (Véase también la discusión anterior sobre esto). Esto, a su vez, significa que todos los momentos centrales y los momentos estandarizados no están definidos, ya que todos se basan en la media. La varianza, que es el segundo momento central, también es inexistente (a pesar del hecho de que el segundo momento bruto existe con el valor infinito).

Los resultados para momentos superiores se derivan de la desigualdad de Hölder , que implica que los momentos superiores (o mitades de momentos) divergen si lo hacen los inferiores.

Momentos de distribuciones truncadas

Consideremos la distribución truncada definida restringiendo la distribución de Cauchy estándar al intervalo [−10 100 , 10 100 ] . Una distribución truncada de este tipo tiene todos los momentos (y el teorema del límite central se aplica para las observaciones iid de ella); sin embargo, para casi todos los fines prácticos se comporta como una distribución de Cauchy. [15]

Estimación de parámetros

Debido a que los parámetros de la distribución de Cauchy no corresponden a una media y una varianza, intentar estimar los parámetros de la distribución de Cauchy utilizando una media de muestra y una varianza de muestra no tendrá éxito. [16] Por ejemplo, si se toma una muestra iid de tamaño n de una distribución de Cauchy, se puede calcular la media de muestra como:

Aunque los valores de la muestra se concentrarán en torno al valor central , la media de la muestra se tornará cada vez más variable a medida que se tomen más observaciones, debido a la mayor probabilidad de encontrar puntos de muestra con un valor absoluto grande. De hecho, la distribución de la media de la muestra será igual a la distribución de las propias observaciones; es decir, la media de la muestra de una muestra grande no es mejor (ni peor) estimador de que cualquier observación individual de la muestra. De manera similar, el cálculo de la varianza de la muestra dará como resultado valores que se harán más grandes a medida que se tomen más observaciones.

Por lo tanto, se necesitan medios más robustos para estimar el valor central y el parámetro de escala . Un método simple es tomar el valor mediano de la muestra como estimador de y la mitad del rango intercuartil de la muestra como estimador de . Se han desarrollado otros métodos más precisos y robustos [17] [18] Por ejemplo, la media truncada del 24% medio de las estadísticas de orden de la muestra produce una estimación para que es más eficiente que usar la mediana de la muestra o la media de la muestra completa. [19] [20] Sin embargo, debido a las colas gruesas de la distribución de Cauchy, la eficiencia del estimador disminuye si se usa más del 24% de la muestra. [19] [20]

La máxima verosimilitud también se puede utilizar para estimar los parámetros y . Sin embargo, esto tiende a complicarse por el hecho de que requiere encontrar las raíces de un polinomio de alto grado, y puede haber múltiples raíces que representen máximos locales. [21] Además, si bien el estimador de máxima verosimilitud es asintóticamente eficiente, es relativamente ineficiente para muestras pequeñas. [22] [23] La función de log-verosimilitud para la distribución de Cauchy para el tamaño de la muestra es:

Maximizando la función de verosimilitud logarítmica con respecto a y tomando la primera derivada se obtiene el siguiente sistema de ecuaciones:

Tenga en cuenta que

es una función monótona en y que la solución debe satisfacer

Para resolver solo para se requiere resolver un polinomio de grado , [21] y para resolver solo para se requiere resolver un polinomio de grado . Por lo tanto, ya sea para resolver un parámetro o para ambos parámetros simultáneamente, normalmente se requiere una solución numérica en una computadora. El beneficio de la estimación de máxima verosimilitud es la eficiencia asintótica; la estimación utilizando la mediana de la muestra es solo alrededor del 81% tan eficiente asintóticamente como la estimación por máxima verosimilitud. [20] [24] La media de la muestra truncada utilizando las estadísticas de orden medio del 24% es un estimador de aproximadamente el 88% tan eficiente asintóticamente como la estimación de máxima verosimilitud. [20] Cuando se utiliza el método de Newton para encontrar la solución para la estimación de máxima verosimilitud, las estadísticas de orden medio del 24% se pueden utilizar como una solución inicial para .

La forma se puede estimar utilizando la mediana de valores absolutos, ya que para la ubicación 0 variables de Cauchy , el parámetro de forma.

Distribución de Cauchy multivariante

Se dice que un vector aleatorio tiene una distribución de Cauchy multivariada si cada combinación lineal de sus componentes tiene una distribución de Cauchy. Es decir, para cualquier vector constante , la variable aleatoria debería tener una distribución de Cauchy univariante. [25] La función característica de una distribución de Cauchy multivariada viene dada por:

donde y son funciones reales con una función homogénea de grado uno y una función homogénea positiva de grado uno. [25] Más formalmente: [25]

Para todos .

Un ejemplo de una distribución de Cauchy bivariada puede darse por: [26]

Obsérvese que en este ejemplo, aunque la covarianza entre y es 0, y no son estadísticamente independientes . [26]

También podemos escribir esta fórmula para una variable compleja. Entonces, la función de densidad de probabilidad de Cauchy compleja es:

Así como la distribución de Cauchy estándar es la distribución t de Student con un grado de libertad, la densidad de Cauchy multidimensional es la distribución de Student multivariada con un grado de libertad. La densidad de una distribución de Student dimensional con un grado de libertad es:

Las propiedades de la distribución de Cauchy multidimensional son entonces casos especiales de la distribución de Student multivariada.

Propiedades de transformación

Medida de Lévy

La distribución de Cauchy es la distribución estable de índice 1. La representación de Lévy-Khintchine de dicha distribución estable de parámetros se da por:

dónde

y puede expresarse explícitamente. [29] En el caso de la distribución de Cauchy, se tiene .

Esta última representación es una consecuencia de la fórmula

Distribuciones relacionadas

Distribución relativista de Breit-Wigner

En física nuclear y de partículas , el perfil energético de una resonancia se describe mediante la distribución relativista de Breit-Wigner , mientras que la distribución de Cauchy es la distribución (no relativista) de Breit-Wigner. [ cita requerida ]

Ocurrencia y aplicaciones

Distribución de Cauchy acumulada ajustada a las precipitaciones máximas de un día utilizando CumFreq , véase también ajuste de distribución [32]

Véase también

Referencias

  1. ^ abc NL Johnson; S. Kotz; N. Balakrishnan (1994). Distribuciones univariadas continuas, volumen 1. Nueva York: Wiley., Capítulo 16.
  2. ^ Cauchy y la bruja de Agnesi en Estadísticas sobre la mesa , SM Stigler Harvard 1999 Capítulo 18
  3. ^ Feller, William (1971). Introducción a la teoría de la probabilidad y sus aplicaciones, volumen II (2.ª ed.). Nueva York: John Wiley & Sons Inc., págs. 704. ISBN 978-0-471-25709-7.
  4. ^ Riley, Ken F.; Hobson, Michael P.; Bence, Stephen J. (2006). Métodos matemáticos para la física y la ingeniería (3.ª edición). Cambridge, Reino Unido: Cambridge University Press. pp. 1333. ISBN 978-0-511-16842-0.
  5. ^ Balakrishnan, N.; Nevrozov, VB (2003). Introducción a las distribuciones estadísticas (1.ª ed.). Hoboken, Nueva Jersey: John Wiley & Sons Inc., págs. 305. ISBN 0-471-42798-5.
  6. ^ Pillai N.; Meng, XL (2016). "Un encuentro inesperado con Cauchy y Lévy". Anales de Estadística . 44 (5): 2089–2097. arXiv : 1505.01957 . doi :10.1214/15-AOS1407. S2CID  31582370.
  7. ^ Campbell B. Read; N. Balakrishnan; Brani Vidakovic; Samuel Kotz (2006). Enciclopedia de ciencias estadísticas (2.ª ed.). John Wiley & Sons . pág. 778. ISBN 978-0-471-15044-2.
  8. ^ Knight, Franck B. (1976). "Una caracterización del tipo Cauchy". Actas de la American Mathematical Society . 55 (1): 130–135. doi : 10.2307/2041858 . JSTOR  2041858.
  9. ^ "Actualizaciones del límite central de Cauchy". Cálculo cuántico . 13 de noviembre de 2022 . Consultado el 21 de junio de 2023 .
  10. ^ Frederic, Chyzak; Nielsen, Frank (2019). "Una fórmula de forma cerrada para la divergencia de Kullback-Leibler entre distribuciones de Cauchy". arXiv : 1905.10965 [cs.IT].
  11. ^ Nielsen, Frank; Okamura, Kazuki (2023). "Sobre las divergencias f entre distribuciones de Cauchy". IEEE Transactions on Information Theory . 69 (5): 3150–3171. arXiv : 2101.12459 . doi :10.1109/TIT.2022.3231645. S2CID  231728407.
  12. ^ Vasicek, Oldrich (1976). "Una prueba de normalidad basada en la entropía de la muestra". Journal of the Royal Statistical Society, Serie B . 38 (1): 54–59. doi :10.1111/j.2517-6161.1976.tb01566.x.
  13. ^ Park, Sung Y.; Bera, Anil K. (2009). "Modelo de heterocedasticidad condicional autorregresiva de máxima entropía" (PDF) . Journal of Econometrics . 150 (2). Elsevier: 219–230. doi :10.1016/j.jeconom.2008.12.014. Archivado desde el original (PDF) el 2011-09-30 . Consultado el 2011-06-02 .
  14. ^ de Kyle Siegrist. «Distribución de Cauchy». Aleatorio . Archivado desde el original el 9 de julio de 2021. Consultado el 5 de julio de 2021 .
  15. ^ Hampel, Frank (1998), "¿Es la estadística demasiado difícil?" (PDF) , Canadian Journal of Statistics , 26 (3): 497–513, doi :10.2307/3315772, hdl : 20.500.11850/145503 , JSTOR  3315772, S2CID  53117661, archivado desde el original el 25 de enero de 2022 , consultado el 25 de septiembre de 2019.
  16. ^ "Ilustración de la inestabilidad de las medias muestrales". Archivado desde el original el 24 de marzo de 2017. Consultado el 22 de noviembre de 2014 .
  17. ^ Cane, Gwenda J. (1974). "Estimación lineal de parámetros de la distribución de Cauchy basada en cuantiles de muestra". Revista de la Asociación Estadounidense de Estadística . 69 (345): 243–245. doi :10.1080/01621459.1974.10480163. JSTOR  2285535.
  18. ^ Zhang, Jin (2010). "Un estimador L altamente eficiente para el parámetro de ubicación de la distribución de Cauchy". Computational Statistics . 25 (1): 97–105. doi :10.1007/s00180-009-0163-y. S2CID  123586208.
  19. ^ ab Rothenberg, Thomas J.; Fisher, Franklin, M.; Tilanus, CB (1964). "Una nota sobre la estimación a partir de una muestra de Cauchy". Revista de la Asociación Estadounidense de Estadística . 59 (306): 460–463. doi :10.1080/01621459.1964.10482170.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  20. ^ abcd Bloch, Daniel (1966). "Una nota sobre la estimación de los parámetros de localización de la distribución de Cauchy". Revista de la Asociación Estadounidense de Estadística . 61 (316): 852–855. doi :10.1080/01621459.1966.10480912. JSTOR  2282794.
  21. ^ ab Ferguson, Thomas S. (1978). "Estimaciones de máxima verosimilitud de los parámetros de la distribución de Cauchy para muestras de tamaño 3 y 4". Revista de la Asociación Estadounidense de Estadística . 73 (361): 211–213. doi :10.1080/01621459.1978.10480031. JSTOR  2286549.
  22. ^ Cohen Freue, Gabriella V. (2007). "El estimador Pitman del parámetro de localización de Cauchy" (PDF) . Journal of Statistical Planning and Inference . 137 (6): 1901. doi :10.1016/j.jspi.2006.05.002. Archivado desde el original (PDF) el 2011-08-16.
  23. ^ Wilcox, Rand (2012). Introducción a la estimación robusta y a las pruebas de hipótesis . Elsevier.
  24. ^ Barnett, VD (1966). "Estimadores estadísticos de orden de la ubicación de la distribución de Cauchy". Revista de la Asociación Estadounidense de Estadística . 61 (316): 1205–1218. doi :10.1080/01621459.1966.10482205. JSTOR  2283210.
  25. ^ abc Ferguson, Thomas S. (1962). "Una representación de la distribución de Cauchy bivariada simétrica". Anales de estadística matemática . 33 (4): 1256–1266. doi : 10.1214/aoms/1177704357 . JSTOR  2237984 . Consultado el 7 de enero de 2017 .
  26. ^ ab Molenberghs, Geert; Lesaffre, Emmanuel (1997). "Ecuaciones integrales no lineales para aproximar densidades bivariadas con marginales y función de dependencia dadas" (PDF) . Statistica Sinica . 7 : 713–738. Archivado desde el original (PDF) el 14 de septiembre de 2009.
  27. ^ Lemons, Don S. (2002), "Introducción a los procesos estocásticos en física", American Journal of Physics , 71 (2), The Johns Hopkins University Press: 35, Bibcode :2003AmJPh..71..191L, doi :10.1119/1.1526134, ISBN 0-8018-6866-1
  28. ^ ab McCullagh, P. , "Inferencia condicional y modelos de Cauchy", Biometrika , volumen 79 (1992), páginas 247–259. PDF Archivado el 10 de junio de 2010 en Wayback Machine desde la página de inicio de McCullagh.
  29. ^ Kyprianou, Andreas (2009). Procesos de Lévy y procesos de ramificación de estado continuo: parte I (PDF) . p. 11. Archivado (PDF) desde el original el 2016-03-03 . Consultado el 2016-05-04 .
  30. ^ E. Hecht (1987). Óptica (2.ª ed.). Addison-Wesley . pág. 603.
  31. ^ White, JS (diciembre de 1958). "La distribución limitante del coeficiente de correlación serial en el caso explosivo". Anales de estadística matemática . 29 (4): 1188–1197. doi : 10.1214/aoms/1177706450 .
  32. ^ "CumFreq, software libre para análisis de frecuencias acumulativas y ajuste de distribuciones de probabilidad". Archivado desde el original el 21 de febrero de 2018.
  33. ^ Gull, SF (1988) Inferencia inductiva bayesiana y máxima entropía. Kluwer Academic Publishers, Berlín. https://doi.org/10.1007/978-94-009-3049-0_4 Archivado el 25 de enero de 2022 en Wayback Machine.
  34. ^ Tong Liu (2012), Una distribución intermedia entre las distribuciones gaussiana y de Cauchy. https://arxiv.org/pdf/1208.5109.pdf Archivado el 24 de junio de 2020 en Wayback Machine.

Enlaces externos