Por ejemplo, si X se utiliza para indicar el resultado de un lanzamiento de moneda ("el experimento"), entonces la distribución de probabilidad de X tomaría el valor 0,5 (1 en 2 o 1/2) para X = cara , y 0,5 para X = cruz (suponiendo que la moneda sea justa ). Más comúnmente, las distribuciones de probabilidad se utilizan para comparar la aparición relativa de muchos valores aleatorios diferentes.
Las distribuciones de probabilidad se pueden definir de diferentes maneras y para variables discretas o continuas. Las distribuciones con propiedades especiales o para aplicaciones especialmente importantes reciben nombres específicos.
Introducción
Una distribución de probabilidad es una descripción matemática de las probabilidades de eventos, subconjuntos del espacio muestral . El espacio muestral, a menudo representado en notación por, es el conjunto de todos los resultados posibles de un fenómeno aleatorio que se observa; puede ser cualquier conjunto: un conjunto de números reales , un conjunto de etiquetas descriptivas, un conjunto de vectores , un conjunto de valores arbitrarios no numéricos, etc. Por ejemplo, el espacio muestral de un lanzamiento de moneda sería Ω = { " caras", "cruces" } .
Para definir distribuciones de probabilidad para el caso específico de variables aleatorias (de modo que el espacio muestral pueda verse como un conjunto numérico), es común distinguir entre variables aleatorias discretas y absolutamente continuas . En el caso discreto, es suficiente especificar una función de masa de probabilidad que asigne una probabilidad a cada resultado posible: por ejemplo, al lanzar un dado justo , cada uno de los seis dígitos “1” a “6” , correspondientes al número de puntos en el dado, tiene la probabilidad. La probabilidad de un evento se define entonces como la suma de las probabilidades de los resultados que satisfacen el evento; por ejemplo, la probabilidad del evento "el dado arroja un valor par" es
Por el contrario, cuando una variable aleatoria toma valores de un continuo, normalmente cualquier resultado individual tiene probabilidad cero y sólo los eventos que incluyen una cantidad infinita de resultados, como los intervalos, pueden tener probabilidad positiva. Por ejemplo, considere medir el peso de un trozo de jamón en el supermercado y suponga que la báscula tiene muchos dígitos de precisión. La probabilidad de que pese exactamente 500 g es cero, ya que lo más probable es que tenga algunos dígitos decimales distintos de cero. Sin embargo, se podría exigir, en control de calidad, que un paquete de "500 g" de jamón pese entre 490 gy 510 g con al menos un 98% de probabilidad, y esta exigencia es menos sensible a la precisión de los instrumentos de medición.
Las distribuciones de probabilidad absolutamente continuas se pueden describir de varias maneras. La función de densidad de probabilidad describe la probabilidad infinitesimal de cualquier valor dado, y la probabilidad de que el resultado se encuentre en un intervalo dado se puede calcular integrando la función de densidad de probabilidad en ese intervalo. [4] Una descripción alternativa de la distribución es mediante la función de distribución acumulativa , que describe la probabilidad de que la variable aleatoria no sea mayor que un valor dado (es decir, para algunos ). La función de distribución acumulativa es el área bajo la función de densidad de probabilidad desde hasta como se describe en la imagen de la derecha. [5]
Definición general de probabilidad
Una distribución de probabilidad se puede describir de varias formas, como mediante una función de masa de probabilidad o una función de distribución acumulativa. Una de las descripciones más generales, que se aplica a variables absolutamente continuas y discretas, es mediante una función de probabilidad cuyo espacio de entrada es una σ-álgebra , y da como salida una probabilidad de número real , en particular, un número en .
La función de probabilidad puede tomar como argumentos subconjuntos del propio espacio muestral, como en el ejemplo del lanzamiento de una moneda, donde la función se definió de modo que P (cara) = 0,5 y P (cruz) = 0,5 . Sin embargo, debido al uso generalizado de variables aleatorias , que transforman el espacio muestral en un conjunto de números (p. ej., , ), es más común estudiar distribuciones de probabilidad cuyo argumento son subconjuntos de estos tipos particulares de conjuntos (conjuntos de números). [6] y todas las distribuciones de probabilidad analizadas en este artículo son de este tipo. Es común denotar como la probabilidad de que un determinado valor de la variable pertenezca a un determinado evento . [7] [8]
La función de probabilidad anterior sólo caracteriza una distribución de probabilidad si satisface todos los axiomas de Kolmogorov , es decir:
, entonces la probabilidad no es negativa
, por lo que ninguna probabilidad excede
para cualquier familia de conjuntos disjuntos contables
El concepto de función de probabilidad se hace más riguroso al definirlo como el elemento de un espacio de probabilidad , donde es el conjunto de resultados posibles, es el conjunto de todos los subconjuntos cuya probabilidad se puede medir y es la función de probabilidad, o medida de probabilidad , que asigna una probabilidad a cada uno de estos subconjuntos mensurables . [9]
Las distribuciones de probabilidad suelen pertenecer a una de dos clases. Una distribución de probabilidad discreta es aplicable a los escenarios donde el conjunto de resultados posibles es discreto (por ejemplo, un lanzamiento de moneda, un lanzamiento de dado) y las probabilidades están codificadas por una lista discreta de las probabilidades de los resultados; en este caso la distribución de probabilidad discreta se conoce como función de masa de probabilidad . Por otro lado, las distribuciones de probabilidad absolutamente continuas son aplicables a escenarios donde el conjunto de resultados posibles puede tomar valores en un rango continuo (por ejemplo, números reales), como la temperatura en un día determinado. En el caso absolutamente continuo, las probabilidades se describen mediante una función de densidad de probabilidad y la distribución de probabilidad es, por definición, la integral de la función de densidad de probabilidad. [7] [4] [8] La distribución normal es una distribución de probabilidad absolutamente continua que se encuentra comúnmente. Los experimentos más complejos, como los que involucran procesos estocásticos definidos en tiempo continuo , pueden exigir el uso de medidas de probabilidad más generales .
Una distribución de probabilidad cuyo espacio muestral es unidimensional (por ejemplo números reales, lista de etiquetas, etiquetas ordenadas o binaria) se llama univariada , mientras que una distribución cuyo espacio muestral es un espacio vectorial de dimensión 2 o más se llama multivariada . Una distribución univariada da las probabilidades de que una sola variable aleatoria tome varios valores diferentes; Una distribución multivariada (una distribución de probabilidad conjunta ) proporciona las probabilidades de que un vector aleatorio (una lista de dos o más variables aleatorias) adopte varias combinaciones de valores. Las distribuciones de probabilidad univariadas importantes y comúnmente encontradas incluyen la distribución binomial , la distribución hipergeométrica y la distribución normal . Una distribución multivariada que se encuentra comúnmente es la distribución normal multivariada .
Además de la función de probabilidad, la función de distribución acumulativa, la función de masa de probabilidad y la función de densidad de probabilidad, la función generadora de momento y la función característica también sirven para identificar una distribución de probabilidad, ya que determinan de forma única una función de distribución acumulativa subyacente. [10]
Terminología
A continuación se enumeran algunos conceptos y términos clave, ampliamente utilizados en la literatura sobre el tema de las distribuciones de probabilidad. [1]
Términos básicos
Variable aleatoria : toma valores de un espacio muestral; Las probabilidades describen qué valores y conjuntos de valores se consideran más probables.
Evento : conjunto de posibles valores (resultados) de una variable aleatoria que ocurre con cierta probabilidad.
Función de probabilidad o medida de probabilidad : describe la probabilidadde que ocurra el evento. [11]
Distribución categórica : para variables aleatorias discretas con un conjunto finito de valores.
Distribuciones de probabilidad absolutamente continuas
Distribución de probabilidad absolutamente continua : para muchas variables aleatorias con incontables valores.
Función de densidad de probabilidad ( pdf ) o densidad de probabilidad : función cuyo valor en cualquier muestra (o punto) dado en el espacio muestral (el conjunto de valores posibles tomados por la variable aleatoria) puede interpretarse como que proporciona una probabilidad relativa de que el valor de la variable aleatoria sería igual a esa muestra.
Términos relacionados
Soporte : conjunto de valores que pueden ser asumidos con probabilidad distinta de cero (o densidad de probabilidad en el caso de una distribución continua) por la variable aleatoria. Para una variable aleatoria, a veces se denota como.
Cola : [12] las regiones cercanas a los límites de la variable aleatoria, si la pmf o la pdf son relativamente bajas allí. Suele tener la forma , o una unión de las mismas.
Head : [12] la región donde el pmf o pdf es relativamente alto. Generalmente tiene la forma .
Valor esperado o media : el promedio ponderado de los valores posibles, utilizando sus probabilidades como pesos; o su análogo continuo.
Mediana : el valor tal que el conjunto de valores menores que la mediana y el conjunto mayor que la mediana tienen cada uno de ellos probabilidades no mayores que la mitad.
Moda : para una variable aleatoria discreta, el valor con mayor probabilidad; para una variable aleatoria absolutamente continua, una ubicación en la que la función de densidad de probabilidad tiene un pico local.
Varianza : el segundo momento de la pmf o fdp con respecto a la media; una medida importante de la dispersión de la distribución.
Desviación estándar : la raíz cuadrada de la varianza y, por tanto, otra medida de dispersión.
Simetría : propiedad de algunas distribuciones en las que la parte de la distribución a la izquierda de un valor específico (normalmente la mediana) es una imagen especular de la parte a su derecha.
Asimetría : medida del grado en que una fmp o fdp se "inclina" hacia un lado de su media. El tercer momento estandarizado de la distribución.
Kurtosis : una medida de la "gordura" de las colas de un pmf o pdf. El cuarto momento estandarizado de la distribución.
Función de distribución acumulativa
En el caso especial de una variable aleatoria de valor real, la distribución de probabilidad puede representarse de manera equivalente mediante una función de distribución acumulativa en lugar de una medida de probabilidad. La función de distribución acumulativa de una variable aleatoria con respecto a una distribución de probabilidad se define como
La función de distribución acumulativa de cualquier variable aleatoria de valor real tiene las propiedades:
Por el contrario, cualquier función que satisfaga las cuatro primeras propiedades anteriores es la función de distribución acumulativa de alguna distribución de probabilidad de los números reales. [13]
Cualquier distribución de probabilidad se puede descomponer como la mezcla de una distribución discreta , absolutamente continua y singular continua , [14] y, por lo tanto, cualquier función de distribución acumulativa admite una descomposición como la suma convexa de las tres funciones de distribución acumulativas correspondientes.
Distribución de probabilidad discreta
Una distribución de probabilidad discreta es la distribución de probabilidad de una variable aleatoria que puede tomar solo un número contable de valores [15] ( casi con seguridad ) [16] , lo que significa que la probabilidad de cualquier evento se puede expresar como (finita o contablemente infinita). ) suma:
Una variable aleatoria discreta de valor real puede definirse de manera equivalente como una variable aleatoria cuya función de distribución acumulativa aumenta sólo mediante discontinuidades de salto , es decir, su CDF aumenta sólo cuando "salta" a un valor más alto y es constante en intervalos sin saltos. Los puntos donde se producen los saltos son precisamente los valores que puede tomar la variable aleatoria. Por tanto, la función de distribución acumulativa tiene la forma
Los puntos donde salta la cdf siempre forman un conjunto contable; este puede ser cualquier conjunto contable y, por tanto, incluso puede ser denso en números reales.
Representación del delta de Dirac
Una distribución de probabilidad discreta a menudo se representa con medidas de Dirac , las distribuciones de probabilidad de variables aleatorias deterministas . Para cualquier resultado , sea la medida de Dirac concentrada en . Dada una distribución de probabilidad discreta, existe un conjunto contable con una función de masa de probabilidad . Si hay algún evento, entonces
De ello se deduce que la probabilidad de que tome cualquier valor excepto es cero y, por lo tanto, se puede escribir como
excepto en un conjunto de probabilidad cero, donde es la función indicadora de . Esto puede servir como una definición alternativa de variables aleatorias discretas.
Distribución de un punto
Un caso especial es la distribución discreta de una variable aleatoria que sólo puede tomar un valor fijo; en otras palabras, es una distribución determinista . Expresado formalmente, la variable aleatoria tiene una distribución de un punto si tiene un resultado posible tal que [18] Todos los demás resultados posibles tienen entonces probabilidad 0. Su función de distribución acumulativa salta inmediatamente de 0 a 1.
Distribución de probabilidad absolutamente continua
Una distribución de probabilidad absolutamente continua es una distribución de probabilidad de números reales con incontables valores posibles, como un intervalo completo en la línea real, y donde la probabilidad de cualquier evento se puede expresar como una integral. [19] Más precisamente, una variable aleatoria real tiene una distribución de probabilidad absolutamente continua si existe una función tal que para cada intervalo la probabilidad de pertenecer a esté dada por la integral de sobre : [20] [21]
Las distribuciones de probabilidad absolutamente continuas, tal como se definen anteriormente, son precisamente aquellas con una función de distribución acumulativa absolutamente continua . En este caso, la función de distribución acumulativa tiene la forma
Nota sobre terminología: Las distribuciones absolutamente continuas deben distinguirse de las distribuciones continuas , que son aquellas que tienen una función de distribución acumulativa continua. Toda distribución absolutamente continua es una distribución continua, pero lo contrario no es cierto, existen distribuciones singulares , que no son absolutamente continuas ni discretas ni una mezcla de ellas, y no tienen densidad. Un ejemplo lo da la distribución de Cantor . Sin embargo, algunos autores utilizan el término "distribución continua" para designar todas las distribuciones cuya función de distribución acumulativa es absolutamente continua , es decir, se refieren a distribuciones absolutamente continuas como distribuciones continuas. [7]
Para obtener una definición más general de funciones de densidad y las medidas absolutamente continuas equivalentes, consulte medida absolutamente continua .
Las distribuciones absolutamente continuas y discretas con soporte o son extremadamente útiles para modelar una infinidad de fenómenos, [7] [5] ya que la mayoría de las distribuciones prácticas se apoyan en subconjuntos relativamente simples, como hipercubos o bolas . Sin embargo, esto no siempre es así, y existen fenómenos con apoyos que en realidad son curvas complicadas dentro de algún espacio o similares. En estos casos, la distribución de probabilidad se apoya en la imagen de dicha curva y es probable que se determine empíricamente, en lugar de encontrar una fórmula cerrada para ella. [25]
En la figura de la derecha se muestra un ejemplo, que muestra la evolución de un sistema de ecuaciones diferenciales (comúnmente conocido como ecuaciones de Rabinovich-Fabrikant ) que se puede utilizar para modelar el comportamiento de las ondas de Langmuir en el plasma . [26] Cuando se estudia este fenómeno, los estados observados del subconjunto son los indicados en rojo. Entonces uno podría preguntarse cuál es la probabilidad de observar un estado en una determinada posición del subconjunto rojo; si tal probabilidad existe, se llama medida de probabilidad del sistema. [27] [25]
Este tipo de soporte complicado aparece con bastante frecuencia en sistemas dinámicos . No es sencillo establecer que el sistema tiene una medida de probabilidad, y el principal problema es el siguiente. Sean instantes en el tiempo y un subconjunto del soporte; si la medida de probabilidad existe para el sistema, uno esperaría que la frecuencia de los estados observados dentro del conjunto fuera igual en el intervalo y , lo que podría no suceder; por ejemplo, podría oscilar de forma similar a un seno, cuyo límite cuando no converge. Formalmente, la medida existe sólo si el límite de la frecuencia relativa converge cuando el sistema se observa en el futuro infinito. [28] La rama de los sistemas dinámicos que estudia la existencia de una medida de probabilidad es la teoría ergódica .
Tenga en cuenta que incluso en estos casos, la distribución de probabilidad, si existe, aún podría denominarse "absolutamente continua" o "discreta" dependiendo de si el soporte es incontable o contable, respectivamente.
Generación de números aleatorios
La mayoría de los algoritmos se basan en un generador de números pseudoaleatorios que produce números distribuidos uniformemente en el intervalo medio abierto [0, 1) . Estas variables aleatorias luego se transforman mediante algún algoritmo para crear una nueva variable aleatoria que tenga la distribución de probabilidad requerida. Con esta fuente de pseudoaleatoriedad uniforme, se pueden generar realizaciones de cualquier variable aleatoria. [29]
Por ejemplo, supongamos que tiene una distribución uniforme entre 0 y 1. Para construir una variable aleatoria de Bernoulli para algunos , definimos
Esta variable aleatoria X tiene una distribución de Bernoulli con parámetro . [29] Esta es una transformación de variable aleatoria discreta.
Para una función de distribución de una variable aleatoria absolutamente continua, se debe construir una variable aleatoria absolutamente continua. , una función inversa de , se relaciona con la variable uniforme :
Por ejemplo, supongamos que se debe construir una variable aleatoria que tiene una distribución exponencial.
Distribuciones de probabilidad comunes y sus aplicaciones.
El concepto de distribución de probabilidad y las variables aleatorias que describen subyace a la disciplina matemática de la teoría de la probabilidad y a la ciencia de la estadística. Hay dispersión o variabilidad en casi cualquier valor que pueda medirse en una población (por ejemplo, altura de las personas, durabilidad de un metal, crecimiento de las ventas, flujo de tráfico, etc.); casi todas las mediciones se realizan con algún error intrínseco; En física, muchos procesos se describen probabilísticamente, desde las propiedades cinéticas de los gases hasta la descripción mecánicocuántica de partículas fundamentales . Por estas y muchas otras razones, los números simples suelen ser inadecuados para describir una cantidad, mientras que las distribuciones de probabilidad suelen ser más apropiadas.
La siguiente es una lista de algunas de las distribuciones de probabilidad más comunes, agrupadas por el tipo de proceso con el que están relacionadas. Para obtener una lista más completa, consulte la lista de distribuciones de probabilidad , que agrupa según la naturaleza del resultado considerado (discreto, absolutamente continuo, multivariado, etc.)
Todas las distribuciones univariadas siguientes tienen un solo pico; es decir, se supone que los valores se agrupan alrededor de un único punto. En la práctica, las cantidades realmente observadas pueden agruparse en torno a múltiples valores. Estas cantidades se pueden modelar utilizando una distribución de mezcla .
Ensayos de Bernoulli (eventos sí/no, con una probabilidad determinada)
Distribuciones básicas:
Distribución de Bernoulli , para el resultado de un único ensayo de Bernoulli (por ejemplo, éxito/fracaso, sí/no)
Distribución binomial , para el número de "ocurrencias positivas" (por ejemplo, éxitos, votos afirmativos, etc.) dado un número total fijo de ocurrencias independientes
Distribución binomial negativa , para observaciones de tipo binomial pero donde la cantidad de interés es el número de fracasos antes de que se produzca un número determinado de éxitos.
Proceso de Poisson (eventos que ocurren de forma independiente con una velocidad determinada)
Distribución de Poisson , para el número de ocurrencias de un evento de tipo Poisson en un período de tiempo determinado
Distribución exponencial , para el tiempo anterior a que ocurra el próximo evento de tipo Poisson
Distribución gamma , para el tiempo anterior a que ocurran los próximos k eventos tipo Poisson
Valores absolutos de vectores con componentes normalmente distribuidos.
Distribución de Rayleigh , para la distribución de magnitudes vectoriales con componentes ortogonales distribuidas gaussianas. Las distribuciones de Rayleigh se encuentran en señales de RF con componentes gaussianos reales e imaginarios.
Distribución de Rice , una generalización de las distribuciones de Rayleigh para donde hay un componente de señal de fondo estacionario. Se encuentra en el desvanecimiento de señales de radio de Rician debido a la propagación por trayectos múltiples y en imágenes de resonancia magnética con corrupción de ruido en señales de RMN distintas de cero.
Cantidades normalmente distribuidas operadas con suma de cuadrados
En mecánica cuántica, la densidad de probabilidad de encontrar la partícula en un punto dado es proporcional al cuadrado de la magnitud de la función de onda de la partícula en ese punto (ver regla de Born ). Por lo tanto, la función de distribución de probabilidad de la posición de una partícula se describe mediante , probabilidad de que la posición x de la partícula esté en el intervalo a ≤ x ≤ b en la dimensión uno, y una integral triple similar en la dimensión tres. Este es un principio clave de la mecánica cuántica. [31]
El flujo de carga probabilístico en el estudio del flujo de potencia explica las incertidumbres de las variables de entrada como distribución de probabilidad y proporciona el cálculo del flujo de potencia también en términos de distribución de probabilidad. [32]
El ajuste de la distribución de probabilidad o simplemente el ajuste de la distribución es el ajuste de una distribución de probabilidad a una serie de datos relacionados con la medición repetida de un fenómeno variable. El objetivo del ajuste de la distribución es predecir la probabilidad o pronosticar la frecuencia de ocurrencia de la magnitud del fenómeno en un intervalo determinado.
Hay muchas distribuciones de probabilidad (ver lista de distribuciones de probabilidad ) de las cuales algunas pueden ajustarse más estrechamente a la frecuencia observada de los datos que otras, dependiendo de las características del fenómeno y de la distribución. Se supone que una distribución que se ajusta perfectamente conduce a buenas predicciones.
Por lo tanto, al ajustar la distribución es necesario seleccionar una distribución que se adapte bien a los datos.
^ ab Everitt, Brian (2006). El diccionario de estadística de Cambridge (3ª ed.). Cambridge, Reino Unido: Cambridge University Press. ISBN 978-0-511-24688-3. OCLC 161828328.
^ Ceniza, Robert B. (2008). Teoría básica de la probabilidad (Dover ed.). Mineola, Nueva York: Publicaciones de Dover. págs. 66–69. ISBN978-0-486-46628-6. OCLC 190785258.
^ ab Evans, Michael; Rosenthal, Jeffrey S. (2010). Probabilidad y estadística: la ciencia de la incertidumbre (2ª ed.). Nueva York: WH Freeman and Co. p. 38.ISBN978-1-4292-2462-8. OCLC 473463742.
^ ab "1.3.6.1. ¿Qué es una distribución de probabilidad?". www.itl.nist.gov . Consultado el 10 de septiembre de 2020 .
^ ab Dekking, Michel (1946–) (2005). Una introducción moderna a la probabilidad y la estadística: comprender por qué y cómo . Londres, Reino Unido: Springer. ISBN978-1-85233-896-1. OCLC 262680588.{{cite book}}: CS1 maint: numeric names: authors list (link)
^ Walpole, RE; Myers, RH; Myers, SL; Sí, K. (1999). Probabilidad y estadística para ingenieros . Prentice Hall.
^ abcd Ross, Sheldon M. (2010). Un primer curso de probabilidad . Pearson.
^ ab DeGroot, Morris H.; Schervish, Mark J. (2002). Probabilidades y estadísticas . Addison-Wesley.
^ Billingsley, P. (1986). Probabilidad y medida . Wiley. ISBN9780471804789.
^ Shephard, NG (1991). "De la función característica a la función de distribución: un marco simple para la teoría". Teoría econométrica . 7 (4): 519–529. doi :10.1017/S0266466600004746. S2CID 14668369.
^ Erhan, Çınlar (2011). Probabilidad y estocástica . Nueva York: Springer. pag. 51.ISBN9780387878591. OCLC 710149819.
^ Cohn, Donald L. (1993). Teoría de la medida . Birkhäuser.
^ Khuri, André I. (marzo de 2004). "Aplicaciones de la función delta de Dirac en estadística". Revista Internacional de Educación Matemática en Ciencia y Tecnología . 35 (2): 185-195. doi : 10.1080/00207390310001638313. ISSN 0020-739X. S2CID 122501973.
^ Fisz, Marek (1963). Teoría de la probabilidad y estadística matemática (3ª ed.). John Wiley e hijos. pag. 129.ISBN0-471-26250-1.
^ Jeffrey Seth Rosenthal (2000). Una primera mirada a la teoría rigurosa de la probabilidad . Científico mundial.
^ Capítulo 3.2 de DeGroot & Schervish (2002)
^ Bourne, Murray. "11. Distribuciones de probabilidad - Conceptos". www.intmath.com . Consultado el 10 de septiembre de 2020 .
^ W., Stroock, Daniel (1999). Teoría de la probabilidad: una visión analítica (Rev. ed.). Cambridge [Inglaterra]: Cambridge University Press. pag. 11.ISBN978-0521663496. OCLC 43953136.{{cite book}}: CS1 maint: multiple names: authors list (link)
^ Kolmogorov, Andrey (1950) [1933]. Fundamentos de la teoría de la probabilidad . Nueva York, Estados Unidos: Chelsea Publishing Company. págs. 21-24.
^ Joyce, David (2014). "Axiomas de probabilidad" (PDF) . Universidad Clark . Consultado el 5 de diciembre de 2019 .
^ ab Alligood, KT; Sauer, TD; Yorke, JA (1996). Caos: una introducción a los sistemas dinámicos . Saltador.
^ Rabinovich, Michigan; Fabrikant, AL (1979). "Automodulación estocástica de ondas en medios de desequilibrio". J. Exp. Teor. Física . 77 : 617–629. Código Bib : 1979JETP...50..311R.
^ Sección 1.9 de Ross, SM; Peköz, EA (2007). Un segundo curso de probabilidad (PDF) .
^ Walters, Peter (2000). Una introducción a la teoría ergódica . Saltador.
^ abc Dekking, Frederik Michel; Kraaikamp, Cornelis; Lopuhaä, Hendrik Paul; Meester, Ludolf Erwin (2005), "¿Por qué probabilidad y estadística?", Una introducción moderna a la probabilidad y la estadística , Springer London, págs. 1-11, doi :10.1007/1-84628-168-7_1, ISBN978-1-85233-896-1
^ Obispo, Christopher M. (2006). Reconocimiento de patrones y aprendizaje automático . Nueva York: Springer. ISBN0-387-31073-8. OCLC 71008143.
^ Chang, Raymond. (2014). Química física para las ciencias químicas . Thoman, John W., Jr., 1960-. [Mill Valley, California]. págs. 403–406. ISBN978-1-68015-835-9. OCLC 927509011.{{cite book}}: CS1 maint: location missing publisher (link)
^ Chen, P.; Chen, Z.; Bak-Jensen, B. (abril de 2008). "Flujo de carga probabilístico: una revisión". 2008 Tercer Congreso Internacional sobre Desregulación y Reestructuración de Servicios Eléctricos y Tecnologías Energéticas . págs. 1586-1591. doi :10.1109/drpt.2008.4523658. ISBN978-7-900714-13-8. S2CID 18669309.
^ Maity, Rajib (30 de abril de 2018). Métodos estadísticos en hidrología e hidroclimatología . Singapur. ISBN978-981-10-8779-0. OCLC 1038418263.{{cite book}}: CS1 maint: location missing publisher (link)
Fuentes
den Dekker, AJ; Sijbers, J. (2014). "Distribuciones de datos en imágenes de resonancia magnética: una revisión". Física Médica . 30 (7): 725–741. doi :10.1016/j.ejmp.2014.05.002. PMID 25059432.
Vapnik, Vladimir Naumovich (1998). Teoría del aprendizaje estadístico . John Wiley e hijos.
enlaces externos
Wikimedia Commons tiene medios relacionados con la distribución de probabilidad.