stringtranslate.com

Distribución de probabilidad

En teoría de probabilidad y estadística , una distribución de probabilidad es la función matemática que da las probabilidades de ocurrencia de diferentes resultados posibles para un experimento . [1] [2] Es una descripción matemática de un fenómeno aleatorio en términos de su espacio muestral y las probabilidades de eventos ( subconjuntos del espacio muestral). [3]

Por ejemplo, si X se utiliza para indicar el resultado de un lanzamiento de moneda ("el experimento"), entonces la distribución de probabilidad de X tomaría el valor 0,5 (1 en 2 o 1/2) para X = cara , y 0,5 para X = cruz (suponiendo que la moneda sea justa ). Más comúnmente, las distribuciones de probabilidad se utilizan para comparar la aparición relativa de muchos valores aleatorios diferentes.

Las distribuciones de probabilidad se pueden definir de diferentes maneras y para variables discretas o continuas. Las distribuciones con propiedades especiales o para aplicaciones especialmente importantes reciben nombres específicos.

Introducción

Una distribución de probabilidad es una descripción matemática de las probabilidades de eventos, subconjuntos del espacio muestral . El espacio muestral, a menudo representado en notación por, es el conjunto de todos los resultados posibles de un fenómeno aleatorio que se observa; puede ser cualquier conjunto: un conjunto de números reales , un conjunto de etiquetas descriptivas, un conjunto de vectores , un conjunto de valores arbitrarios no numéricos, etc. Por ejemplo, el espacio muestral de un lanzamiento de moneda sería  Ω = { " caras", "cruces" } .

Para definir distribuciones de probabilidad para el caso específico de variables aleatorias (de modo que el espacio muestral pueda verse como un conjunto numérico), es común distinguir entre variables aleatorias discretas y absolutamente continuas . En el caso discreto, es suficiente especificar una función de masa de probabilidad que asigne una probabilidad a cada resultado posible: por ejemplo, al lanzar un dado justo , cada uno de los seis dígitos “1” a “6” , correspondientes al número de puntos en el dado, tiene la probabilidad. La probabilidad de un evento se define entonces como la suma de las probabilidades de los resultados que satisfacen el evento; por ejemplo, la probabilidad del evento "el dado arroja un valor par" es

Por el contrario, cuando una variable aleatoria toma valores de un continuo, normalmente cualquier resultado individual tiene probabilidad cero y sólo los eventos que incluyen una cantidad infinita de resultados, como los intervalos, pueden tener probabilidad positiva. Por ejemplo, considere medir el peso de un trozo de jamón en el supermercado y suponga que la báscula tiene muchos dígitos de precisión. La probabilidad de que pese exactamente 500  g es cero, ya que lo más probable es que tenga algunos dígitos decimales distintos de cero. Sin embargo, se podría exigir, en control de calidad, que un paquete de "500 g" de jamón pese entre 490 gy 510 g con al menos un 98% de probabilidad, y esta exigencia es menos sensible a la precisión de los instrumentos de medición.

El gráfico de la izquierda muestra una función de densidad de probabilidad. El gráfico de la derecha muestra la función de distribución acumulativa, para la cual el valor en a es igual al área bajo la curva de densidad de probabilidad a la izquierda de a .

Las distribuciones de probabilidad absolutamente continuas se pueden describir de varias maneras. La función de densidad de probabilidad describe la probabilidad infinitesimal de cualquier valor dado, y la probabilidad de que el resultado se encuentre en un intervalo dado se puede calcular integrando la función de densidad de probabilidad en ese intervalo. [4] Una descripción alternativa de la distribución es mediante la función de distribución acumulativa , que describe la probabilidad de que la variable aleatoria no sea mayor que un valor dado (es decir, para algunos ). La función de distribución acumulativa es el área bajo la función de densidad de probabilidad desde hasta como se describe en la imagen de la derecha. [5]

Definición general de probabilidad

Una distribución de probabilidad se puede describir de varias formas, como mediante una función de masa de probabilidad o una función de distribución acumulativa. Una de las descripciones más generales, que se aplica a variables absolutamente continuas y discretas, es mediante una función de probabilidad cuyo espacio de entrada es una σ-álgebra , y da como salida una probabilidad de número real , en particular, un número en .

La función de probabilidad puede tomar como argumentos subconjuntos del propio espacio muestral, como en el ejemplo del lanzamiento de una moneda, donde la función se definió de modo que P (cara) = 0,5 y P (cruz) = 0,5 . Sin embargo, debido al uso generalizado de variables aleatorias , que transforman el espacio muestral en un conjunto de números (p. ej., , ), es más común estudiar distribuciones de probabilidad cuyo argumento son subconjuntos de estos tipos particulares de conjuntos (conjuntos de números). [6] y todas las distribuciones de probabilidad analizadas en este artículo son de este tipo. Es común denotar como la probabilidad de que un determinado valor de la variable pertenezca a un determinado evento . [7] [8]

La función de probabilidad anterior sólo caracteriza una distribución de probabilidad si satisface todos los axiomas de Kolmogorov , es decir:

  1. , entonces la probabilidad no es negativa
  2. , por lo que ninguna probabilidad excede
  3. para cualquier familia de conjuntos disjuntos contables

El concepto de función de probabilidad se hace más riguroso al definirlo como el elemento de un espacio de probabilidad , donde es el conjunto de resultados posibles, es el conjunto de todos los subconjuntos cuya probabilidad se puede medir y es la función de probabilidad, o medida de probabilidad , que asigna una probabilidad a cada uno de estos subconjuntos mensurables . [9]

Las distribuciones de probabilidad suelen pertenecer a una de dos clases. Una distribución de probabilidad discreta es aplicable a los escenarios donde el conjunto de resultados posibles es discreto (por ejemplo, un lanzamiento de moneda, un lanzamiento de dado) y las probabilidades están codificadas por una lista discreta de las probabilidades de los resultados; en este caso la distribución de probabilidad discreta se conoce como función de masa de probabilidad . Por otro lado, las distribuciones de probabilidad absolutamente continuas son aplicables a escenarios donde el conjunto de resultados posibles puede tomar valores en un rango continuo (por ejemplo, números reales), como la temperatura en un día determinado. En el caso absolutamente continuo, las probabilidades se describen mediante una función de densidad de probabilidad y la distribución de probabilidad es, por definición, la integral de la función de densidad de probabilidad. [7] [4] [8] La distribución normal es una distribución de probabilidad absolutamente continua que se encuentra comúnmente. Los experimentos más complejos, como los que involucran procesos estocásticos definidos en tiempo continuo , pueden exigir el uso de medidas de probabilidad más generales .

Una distribución de probabilidad cuyo espacio muestral es unidimensional (por ejemplo números reales, lista de etiquetas, etiquetas ordenadas o binaria) se llama univariada , mientras que una distribución cuyo espacio muestral es un espacio vectorial de dimensión 2 o más se llama multivariada . Una distribución univariada da las probabilidades de que una sola variable aleatoria tome varios valores diferentes; Una distribución multivariada (una distribución de probabilidad conjunta ) proporciona las probabilidades de que un vector aleatorio (una lista de dos o más variables aleatorias) adopte varias combinaciones de valores. Las distribuciones de probabilidad univariadas importantes y comúnmente encontradas incluyen la distribución binomial , la distribución hipergeométrica y la distribución normal . Una distribución multivariada que se encuentra comúnmente es la distribución normal multivariada .

Además de la función de probabilidad, la función de distribución acumulativa, la función de masa de probabilidad y la función de densidad de probabilidad, la función generadora de momento y la función característica también sirven para identificar una distribución de probabilidad, ya que determinan de forma única una función de distribución acumulativa subyacente. [10]

La función de densidad de probabilidad (pdf) de la distribución normal , también llamada gaussiana o "curva de campana", la distribución aleatoria absolutamente continua más importante. Como se indica en la figura, las probabilidades de intervalos de valores corresponden al área bajo la curva.

Terminología

A continuación se enumeran algunos conceptos y términos clave, ampliamente utilizados en la literatura sobre el tema de las distribuciones de probabilidad. [1]

Términos básicos

Distribuciones de probabilidad discretas

Distribuciones de probabilidad absolutamente continuas

Términos relacionados

Función de distribución acumulativa

En el caso especial de una variable aleatoria de valor real, la distribución de probabilidad puede representarse de manera equivalente mediante una función de distribución acumulativa en lugar de una medida de probabilidad. La función de distribución acumulativa de una variable aleatoria con respecto a una distribución de probabilidad se define como

La función de distribución acumulativa de cualquier variable aleatoria de valor real tiene las propiedades:

Por el contrario, cualquier función que satisfaga las cuatro primeras propiedades anteriores es la función de distribución acumulativa de alguna distribución de probabilidad de los números reales. [13]

Cualquier distribución de probabilidad se puede descomponer como la mezcla de una distribución discreta , absolutamente continua y singular continua , [14] y, por lo tanto, cualquier función de distribución acumulativa admite una descomposición como la suma convexa de las tres funciones de distribución acumulativas correspondientes.

Distribución de probabilidad discreta

La función de masa de probabilidad (pmf) especifica la distribución de probabilidad para la suma de conteos de dos dados . Por ejemplo, la figura muestra que . La pmf permite el cálculo de probabilidades de eventos como y todas las demás probabilidades en la distribución.
La función de masa de probabilidad de una distribución de probabilidad discreta. Las probabilidades de los singletons {1}, {3} y {7} son respectivamente 0,2, 0,5 y 0,3. Un conjunto que no contiene ninguno de estos puntos tiene probabilidad cero.
La CDF de una distribución de probabilidad discreta, ...
... de una distribución de probabilidad continua, ...
... de una distribución que tiene tanto una parte continua como una parte discreta

Una distribución de probabilidad discreta es la distribución de probabilidad de una variable aleatoria que puede tomar solo un número contable de valores [15] ( casi con seguridad ) [16] , lo que significa que la probabilidad de cualquier evento se puede expresar como (finita o contablemente infinita). ) suma:

función de masa de probabilidad

Las distribuciones de probabilidad discretas conocidas utilizadas en el modelado estadístico incluyen la distribución de Poisson , la distribución de Bernoulli , la distribución binomial , la distribución geométrica , la distribución binomial negativa y la distribución categórica . [3] Cuando se extrae una muestra (un conjunto de observaciones) de una población más grande, los puntos de muestra tienen una distribución empírica que es discreta y que proporciona información sobre la distribución de la población. Además, la distribución uniforme discreta se usa comúnmente en programas de computadora que realizan selecciones aleatorias de igual probabilidad entre varias opciones.

Función de distribución acumulativa

Una variable aleatoria discreta de valor real puede definirse de manera equivalente como una variable aleatoria cuya función de distribución acumulativa aumenta sólo mediante discontinuidades de salto , es decir, su CDF aumenta sólo cuando "salta" a un valor más alto y es constante en intervalos sin saltos. Los puntos donde se producen los saltos son precisamente los valores que puede tomar la variable aleatoria. Por tanto, la función de distribución acumulativa tiene la forma

Los puntos donde salta la cdf siempre forman un conjunto contable; este puede ser cualquier conjunto contable y, por tanto, incluso puede ser denso en números reales.

Representación del delta de Dirac

Una distribución de probabilidad discreta a menudo se representa con medidas de Dirac , las distribuciones de probabilidad de variables aleatorias deterministas . Para cualquier resultado , sea la medida de Dirac concentrada en . Dada una distribución de probabilidad discreta, existe un conjunto contable con una función de masa de probabilidad . Si hay algún evento, entonces

De manera similar, las distribuciones discretas se pueden representar con la función delta de Dirac como una función de densidad de probabilidad generalizada , donde

[17]

Representación de función de indicador

Para una variable aleatoria discreta , sean los valores que puede tomar con probabilidad distinta de cero. Denotar

Estos son conjuntos disjuntos y para tales conjuntos

De ello se deduce que la probabilidad de que tome cualquier valor excepto es cero y, por lo tanto, se puede escribir como

excepto en un conjunto de probabilidad cero, donde es la función indicadora de . Esto puede servir como una definición alternativa de variables aleatorias discretas.

Distribución de un punto

Un caso especial es la distribución discreta de una variable aleatoria que sólo puede tomar un valor fijo; en otras palabras, es una distribución determinista . Expresado formalmente, la variable aleatoria tiene una distribución de un punto si tiene un resultado posible tal que [18] Todos los demás resultados posibles tienen entonces probabilidad 0. Su función de distribución acumulativa salta inmediatamente de 0 a 1.

Distribución de probabilidad absolutamente continua

Una distribución de probabilidad absolutamente continua es una distribución de probabilidad de números reales con incontables valores posibles, como un intervalo completo en la línea real, y donde la probabilidad de cualquier evento se puede expresar como una integral. [19] Más precisamente, una variable aleatoria real tiene una distribución de probabilidad absolutamente continua si existe una función tal que para cada intervalo la probabilidad de pertenecer a esté dada por la integral de sobre : ​​[20] [21]

función de densidad de probabilidadintegral

Una variable aleatoria absolutamente continua es una variable aleatoria cuya distribución de probabilidad es absolutamente continua.

Hay muchos ejemplos de distribuciones de probabilidad absolutamente continuas: normal , uniforme , chi-cuadrado y otras .

Función de distribución acumulativa

Las distribuciones de probabilidad absolutamente continuas, tal como se definen anteriormente, son precisamente aquellas con una función de distribución acumulativa absolutamente continua . En este caso, la función de distribución acumulativa tiene la forma

Nota sobre terminología: Las distribuciones absolutamente continuas deben distinguirse de las distribuciones continuas , que son aquellas que tienen una función de distribución acumulativa continua. Toda distribución absolutamente continua es una distribución continua, pero lo contrario no es cierto, existen distribuciones singulares , que no son absolutamente continuas ni discretas ni una mezcla de ellas, y no tienen densidad. Un ejemplo lo da la distribución de Cantor . Sin embargo, algunos autores utilizan el término "distribución continua" para designar todas las distribuciones cuya función de distribución acumulativa es absolutamente continua , es decir, se refieren a distribuciones absolutamente continuas como distribuciones continuas. [7]

Para obtener una definición más general de funciones de densidad y las medidas absolutamente continuas equivalentes, consulte medida absolutamente continua .

definición de Kolmogorov

En la formalización teórica de la medida de la teoría de la probabilidad , una variable aleatoria se define como una función medible desde un espacio de probabilidad hasta un espacio medible . Dado que las probabilidades de eventos de la forma satisfacen los axiomas de probabilidad de Kolmogorov , la distribución de probabilidad de es la medida de imagen de , que es una medida de probabilidad al satisfacer . [22] [23] [24]

Otros tipos de distribuciones

"Una solución para las ecuaciones de Rabinovich-Fabrikant ". ¿Cuál es la probabilidad de observar un estado en un determinado lugar del soporte (es decir, el subconjunto rojo)?

Las distribuciones absolutamente continuas y discretas con soporte o son extremadamente útiles para modelar una infinidad de fenómenos, [7] [5] ya que la mayoría de las distribuciones prácticas se apoyan en subconjuntos relativamente simples, como hipercubos o bolas . Sin embargo, esto no siempre es así, y existen fenómenos con apoyos que en realidad son curvas complicadas dentro de algún espacio o similares. En estos casos, la distribución de probabilidad se apoya en la imagen de dicha curva y es probable que se determine empíricamente, en lugar de encontrar una fórmula cerrada para ella. [25]

En la figura de la derecha se muestra un ejemplo, que muestra la evolución de un sistema de ecuaciones diferenciales (comúnmente conocido como ecuaciones de Rabinovich-Fabrikant ) que se puede utilizar para modelar el comportamiento de las ondas de Langmuir en el plasma . [26] Cuando se estudia este fenómeno, los estados observados del subconjunto son los indicados en rojo. Entonces uno podría preguntarse cuál es la probabilidad de observar un estado en una determinada posición del subconjunto rojo; si tal probabilidad existe, se llama medida de probabilidad del sistema. [27] [25]

Este tipo de soporte complicado aparece con bastante frecuencia en sistemas dinámicos . No es sencillo establecer que el sistema tiene una medida de probabilidad, y el principal problema es el siguiente. Sean instantes en el tiempo y un subconjunto del soporte; si la medida de probabilidad existe para el sistema, uno esperaría que la frecuencia de los estados observados dentro del conjunto fuera igual en el intervalo y , lo que podría no suceder; por ejemplo, podría oscilar de forma similar a un seno, cuyo límite cuando no converge. Formalmente, la medida existe sólo si el límite de la frecuencia relativa converge cuando el sistema se observa en el futuro infinito. [28] La rama de los sistemas dinámicos que estudia la existencia de una medida de probabilidad es la teoría ergódica .

Tenga en cuenta que incluso en estos casos, la distribución de probabilidad, si existe, aún podría denominarse "absolutamente continua" o "discreta" dependiendo de si el soporte es incontable o contable, respectivamente.

Generación de números aleatorios

La mayoría de los algoritmos se basan en un generador de números pseudoaleatorios que produce números distribuidos uniformemente en el intervalo medio abierto [0, 1) . Estas variables aleatorias luego se transforman mediante algún algoritmo para crear una nueva variable aleatoria que tenga la distribución de probabilidad requerida. Con esta fuente de pseudoaleatoriedad uniforme, se pueden generar realizaciones de cualquier variable aleatoria. [29]

Por ejemplo, supongamos que tiene una distribución uniforme entre 0 y 1. Para construir una variable aleatoria de Bernoulli para algunos , definimos

Esta variable aleatoria X tiene una distribución de Bernoulli con parámetro . [29] Esta es una transformación de variable aleatoria discreta.

Para una función de distribución de una variable aleatoria absolutamente continua, se debe construir una variable aleatoria absolutamente continua. , una función inversa de , se relaciona con la variable uniforme :

Por ejemplo, supongamos que se debe construir una variable aleatoria que tiene una distribución exponencial.

[29]

Un problema frecuente en las simulaciones estadísticas (el método de Montecarlo ) es la generación de números pseudoaleatorios que se distribuyen de una forma determinada.

Distribuciones de probabilidad comunes y sus aplicaciones.

El concepto de distribución de probabilidad y las variables aleatorias que describen subyace a la disciplina matemática de la teoría de la probabilidad y a la ciencia de la estadística. Hay dispersión o variabilidad en casi cualquier valor que pueda medirse en una población (por ejemplo, altura de las personas, durabilidad de un metal, crecimiento de las ventas, flujo de tráfico, etc.); casi todas las mediciones se realizan con algún error intrínseco; En física, muchos procesos se describen probabilísticamente, desde las propiedades cinéticas de los gases hasta la descripción mecánicocuántica de partículas fundamentales . Por estas y muchas otras razones, los números simples suelen ser inadecuados para describir una cantidad, mientras que las distribuciones de probabilidad suelen ser más apropiadas.

La siguiente es una lista de algunas de las distribuciones de probabilidad más comunes, agrupadas por el tipo de proceso con el que están relacionadas. Para obtener una lista más completa, consulte la lista de distribuciones de probabilidad , que agrupa según la naturaleza del resultado considerado (discreto, absolutamente continuo, multivariado, etc.)

Todas las distribuciones univariadas siguientes tienen un solo pico; es decir, se supone que los valores se agrupan alrededor de un único punto. En la práctica, las cantidades realmente observadas pueden agruparse en torno a múltiples valores. Estas cantidades se pueden modelar utilizando una distribución de mezcla .

Crecimiento lineal (por ejemplo, errores, compensaciones)

Crecimiento exponencial (por ejemplo, precios, ingresos, poblaciones)

Cantidades distribuidas uniformemente

Ensayos de Bernoulli (eventos sí/no, con una probabilidad determinada)

Resultados categóricos (eventos con K resultados posibles)

Proceso de Poisson (eventos que ocurren de forma independiente con una velocidad determinada)

Valores absolutos de vectores con componentes normalmente distribuidos.

Cantidades normalmente distribuidas operadas con suma de cuadrados

Como distribuciones previas conjugadas en la inferencia bayesiana

Algunas aplicaciones especializadas de distribuciones de probabilidad.

Adecuado

El ajuste de la distribución de probabilidad o simplemente el ajuste de la distribución es el ajuste de una distribución de probabilidad a una serie de datos relacionados con la medición repetida de un fenómeno variable. El objetivo del ajuste de la distribución es predecir la probabilidad o pronosticar la frecuencia de ocurrencia de la magnitud del fenómeno en un intervalo determinado.

Hay muchas distribuciones de probabilidad (ver lista de distribuciones de probabilidad ) de las cuales algunas pueden ajustarse más estrechamente a la frecuencia observada de los datos que otras, dependiendo de las características del fenómeno y de la distribución. Se supone que una distribución que se ajusta perfectamente conduce a buenas predicciones.

Por lo tanto, al ajustar la distribución es necesario seleccionar una distribución que se adapte bien a los datos.

Ver también

Liza

Referencias

Citas

  1. ^ ab Everitt, Brian (2006). El diccionario de estadística de Cambridge (3ª ed.). Cambridge, Reino Unido: Cambridge University Press. ISBN 978-0-511-24688-3. OCLC  161828328.
  2. ^ Ceniza, Robert B. (2008). Teoría básica de la probabilidad (Dover ed.). Mineola, Nueva York: Publicaciones de Dover. págs. 66–69. ISBN 978-0-486-46628-6. OCLC  190785258.
  3. ^ ab Evans, Michael; Rosenthal, Jeffrey S. (2010). Probabilidad y estadística: la ciencia de la incertidumbre (2ª ed.). Nueva York: WH Freeman and Co. p. 38.ISBN 978-1-4292-2462-8. OCLC  473463742.
  4. ^ ab "1.3.6.1. ¿Qué es una distribución de probabilidad?". www.itl.nist.gov . Consultado el 10 de septiembre de 2020 .
  5. ^ ab Dekking, Michel (1946–) (2005). Una introducción moderna a la probabilidad y la estadística: comprender por qué y cómo . Londres, Reino Unido: Springer. ISBN 978-1-85233-896-1. OCLC  262680588.{{cite book}}: CS1 maint: numeric names: authors list (link)
  6. ^ Walpole, RE; Myers, RH; Myers, SL; Sí, K. (1999). Probabilidad y estadística para ingenieros . Prentice Hall.
  7. ^ abcd Ross, Sheldon M. (2010). Un primer curso de probabilidad . Pearson.
  8. ^ ab DeGroot, Morris H.; Schervish, Mark J. (2002). Probabilidades y estadísticas . Addison-Wesley.
  9. ^ Billingsley, P. (1986). Probabilidad y medida . Wiley. ISBN 9780471804789.
  10. ^ Shephard, NG (1991). "De la función característica a la función de distribución: un marco simple para la teoría". Teoría econométrica . 7 (4): 519–529. doi :10.1017/S0266466600004746. S2CID  14668369.
  11. ^ Capítulos 1 y 2 de Vapnik (1998)
  12. ^ ab Puede encontrar más información y ejemplos en los artículos Distribución de cola pesada , Distribución de cola larga , Distribución de cola gruesa
  13. ^ Erhan, Çınlar (2011). Probabilidad y estocástica . Nueva York: Springer. pag. 57.ISBN 9780387878584.
  14. ^ ver el teorema de descomposición de Lebesgue
  15. ^ Erhan, Çınlar (2011). Probabilidad y estocástica . Nueva York: Springer. pag. 51.ISBN 9780387878591. OCLC  710149819.
  16. ^ Cohn, Donald L. (1993). Teoría de la medida . Birkhäuser.
  17. ^ Khuri, André I. (marzo de 2004). "Aplicaciones de la función delta de Dirac en estadística". Revista Internacional de Educación Matemática en Ciencia y Tecnología . 35 (2): 185-195. doi : 10.1080/00207390310001638313. ISSN  0020-739X. S2CID  122501973.
  18. ^ Fisz, Marek (1963). Teoría de la probabilidad y estadística matemática (3ª ed.). John Wiley e hijos. pag. 129.ISBN 0-471-26250-1.
  19. ^ Jeffrey Seth Rosenthal (2000). Una primera mirada a la teoría rigurosa de la probabilidad . Científico mundial.
  20. ^ Capítulo 3.2 de DeGroot & Schervish (2002)
  21. ^ Bourne, Murray. "11. Distribuciones de probabilidad - Conceptos". www.intmath.com . Consultado el 10 de septiembre de 2020 .
  22. ^ W., Stroock, Daniel (1999). Teoría de la probabilidad: una visión analítica (Rev. ed.). Cambridge [Inglaterra]: Cambridge University Press. pag. 11.ISBN 978-0521663496. OCLC  43953136.{{cite book}}: CS1 maint: multiple names: authors list (link)
  23. ^ Kolmogorov, Andrey (1950) [1933]. Fundamentos de la teoría de la probabilidad . Nueva York, Estados Unidos: Chelsea Publishing Company. págs. 21-24.
  24. ^ Joyce, David (2014). "Axiomas de probabilidad" (PDF) . Universidad Clark . Consultado el 5 de diciembre de 2019 .
  25. ^ ab Alligood, KT; Sauer, TD; Yorke, JA (1996). Caos: una introducción a los sistemas dinámicos . Saltador.
  26. ^ Rabinovich, Michigan; Fabrikant, AL (1979). "Automodulación estocástica de ondas en medios de desequilibrio". J. Exp. Teor. Física . 77 : 617–629. Código Bib : 1979JETP...50..311R.
  27. ^ Sección 1.9 de Ross, SM; Peköz, EA (2007). Un segundo curso de probabilidad (PDF) .
  28. ^ Walters, Peter (2000). Una introducción a la teoría ergódica . Saltador.
  29. ^ abc Dekking, Frederik Michel; Kraaikamp, ​​Cornelis; Lopuhaä, Hendrik Paul; Meester, Ludolf Erwin (2005), "¿Por qué probabilidad y estadística?", Una introducción moderna a la probabilidad y la estadística , Springer London, págs. 1-11, doi :10.1007/1-84628-168-7_1, ISBN 978-1-85233-896-1
  30. ^ Obispo, Christopher M. (2006). Reconocimiento de patrones y aprendizaje automático . Nueva York: Springer. ISBN 0-387-31073-8. OCLC  71008143.
  31. ^ Chang, Raymond. (2014). Química física para las ciencias químicas . Thoman, John W., Jr., 1960-. [Mill Valley, California]. págs. 403–406. ISBN 978-1-68015-835-9. OCLC  927509011.{{cite book}}: CS1 maint: location missing publisher (link)
  32. ^ Chen, P.; Chen, Z.; Bak-Jensen, B. (abril de 2008). "Flujo de carga probabilístico: una revisión". 2008 Tercer Congreso Internacional sobre Desregulación y Reestructuración de Servicios Eléctricos y Tecnologías Energéticas . págs. 1586-1591. doi :10.1109/drpt.2008.4523658. ISBN 978-7-900714-13-8. S2CID  18669309.
  33. ^ Maity, Rajib (30 de abril de 2018). Métodos estadísticos en hidrología e hidroclimatología . Singapur. ISBN 978-981-10-8779-0. OCLC  1038418263.{{cite book}}: CS1 maint: location missing publisher (link)

Fuentes

enlaces externos