stringtranslate.com

Probabilidad

Las probabilidades de obtener varios números usando dos dados

La probabilidad es la rama de las matemáticas que estudia los eventos y las descripciones numéricas de la probabilidad de que ocurran. La probabilidad de un evento es un número entre 0 y 1; cuanto mayor sea la probabilidad, más probable es que ocurra un evento. [nota 1] [1] [2] Un ejemplo simple es el lanzamiento de una moneda justa (imparcial). Como la moneda es justa, los dos resultados ("cara" y "cruz") son igualmente probables; la probabilidad de "cara" es igual a la probabilidad de "cruz"; y como no hay otros resultados posibles, la probabilidad de "cara" o "cruz" es 1/2 (que también podría escribirse como 0,5 o 50%).

Estos conceptos han recibido una formalización matemática axiomática en la teoría de la probabilidad , que se utiliza ampliamente en áreas de estudio como la estadística , las matemáticas , la ciencia , las finanzas , los juegos de azar , la inteligencia artificial , el aprendizaje automático , la informática , la teoría de juegos y la filosofía para, por ejemplo, extraer inferencias sobre la frecuencia esperada de los eventos. La teoría de la probabilidad también se utiliza para describir la mecánica y las regularidades subyacentes de los sistemas complejos . [3]

Interpretaciones

Cuando se trata de experimentos aleatorios (es decir, experimentos que son aleatorios y bien definidos ) en un contexto puramente teórico (como lanzar una moneda), las probabilidades se pueden describir numéricamente por el número de resultados deseados, dividido por el número total de todos los resultados. Esto se conoce como probabilidad teórica (en contraste con la probabilidad empírica , que trata con probabilidades en el contexto de experimentos reales). Por ejemplo, lanzar una moneda dos veces dará como resultado "cara-cara", "cara-cruz", "cruz-cara" y "cruz-cruz". La probabilidad de obtener un resultado de "cara-cara" es de 1 de cada 4 resultados o, en términos numéricos, 1/4, 0,25 o 25%. Sin embargo, cuando se trata de la aplicación práctica, hay dos categorías principales de interpretaciones de la probabilidad que compiten entre sí, cuyos partidarios tienen diferentes puntos de vista sobre la naturaleza fundamental de la probabilidad:

Etimología

La palabra probabilidad deriva del latín probabilitas , que también puede significar "probidad", una medida de la autoridad de un testigo en un caso legal en Europa, y a menudo correlacionada con la nobleza del testigo . En cierto sentido, esto difiere mucho del significado moderno de probabilidad , que en contraste es una medida del peso de la evidencia empírica , y se llega a ella a partir del razonamiento inductivo y la inferencia estadística . [10]

Historia

El estudio científico de la probabilidad es un desarrollo moderno de las matemáticas. Los juegos de azar demuestran que a lo largo de la historia ha existido un interés por cuantificar las ideas de probabilidad, pero las descripciones matemáticas exactas surgieron mucho más tarde. Existen razones para el lento desarrollo de las matemáticas de la probabilidad. Si bien los juegos de azar proporcionaron el impulso para el estudio matemático de la probabilidad, las cuestiones fundamentales [nota 2] aún están oscurecidas por las supersticiones. [11]

Según Richard Jeffrey , "antes de mediados del siglo XVII, el término 'probable' (del latín probabilis ) significaba aprobable , y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una acción u opinión probable era aquella que las personas sensatas emprenderían o sostendrían, en las circunstancias". [12] Sin embargo, en contextos legales especialmente, 'probable' también podía aplicarse a proposiciones para las que había buena evidencia. [13]

Gerolamo Cardano (siglo XVI)
Christiaan Huygens publicó uno de los primeros libros sobre probabilidad (siglo XVII).

El erudito italiano del siglo XVI Gerolamo Cardano demostró la eficacia de definir las probabilidades como la relación entre resultados favorables y desfavorables (lo que implica que la probabilidad de un evento está dada por la relación entre los resultados favorables y el número total de resultados posibles [14] ). Aparte del trabajo elemental de Cardano, la doctrina de las probabilidades se remonta a la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) dio el primer tratamiento científico conocido del tema. [15] El Ars Conjectandi de Jakob Bernoulli (póstumo, 1713) y la Doctrina de las probabilidades de Abraham de Moivre (1718) trataron el tema como una rama de las matemáticas. [16] Véase The Emergence of Probability de Ian Hacking [10] y The Science of Conjecture de James Franklin [17] para historias del desarrollo temprano del concepto mismo de probabilidad matemática.

La teoría de los errores se remonta a la Opera Miscellanea de Roger Cotes (póstuma, 1722), pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría al análisis de los errores de observación. [18] La reimpresión (1757) de esta memoria establece los axiomas de que los errores positivos y negativos son igualmente probables y que ciertos límites asignables definen el rango de todos los errores. Simpson también analiza los errores continuos y describe una curva de probabilidad.

Las dos primeras leyes del error que se propusieron fueron ambas de Pierre-Simon Laplace . La primera ley se publicó en 1774 y establecía que la frecuencia de un error podía expresarse como una función exponencial de la magnitud numérica del error, sin tener en cuenta el signo. La segunda ley del error fue propuesta en 1778 por Laplace y establecía que la frecuencia del error es una función exponencial del cuadrado del error. [19] La segunda ley del error se denomina distribución normal o ley de Gauss. "Es difícil atribuir históricamente esa ley a Gauss, quien, a pesar de su conocida precocidad, probablemente no había hecho este descubrimiento antes de cumplir los dos años". [19]

Daniel Bernoulli (1778) introdujo el principio del producto máximo de las probabilidades de un sistema de errores concurrentes.

Carl Friedrich Gauss

Adrien-Marie Legendre (1805) desarrolló el método de mínimos cuadrados y lo introdujo en sus Nouvelles méthodes pour la détermination des orbites des comètes ( Nuevos métodos para determinar las órbitas de los cometas ). [20] Sin conocer la contribución de Legendre, un escritor irlandés-estadounidense, Robert Adrain , editor de "The Analyst" (1808), dedujo por primera vez la ley de la facilidad de error,

donde es una constante que depende de la precisión de la observación, y es un factor de escala que asegura que el área bajo la curva sea igual a 1. Dio dos pruebas, siendo la segunda esencialmente la misma que la de John Herschel (1850). [ cita requerida ] Gauss dio la primera prueba que parece haber sido conocida en Europa (la tercera después de la de Adrain) en 1809. Otras pruebas fueron dadas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), WF Donkin (1844, 1856), y Morgan Crofton (1870). Otros contribuyentes fueron Ellis (1844), De Morgan (1864), Glaisher (1872), y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) [ aclaración necesaria ] para r , el error probable de una sola observación, es bien conocida.

En el siglo XIX, los autores que desarrollaron la teoría general fueron Laplace , Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion y Karl Pearson . Augustus De Morgan y George Boole mejoraron la exposición de la teoría.

En 1906, Andrey Markov introdujo [21] el concepto de cadenas de Markov , que desempeñó un papel importante en la teoría de procesos estocásticos y sus aplicaciones. La teoría moderna de la probabilidad basada en la teoría de la medida fue desarrollada por Andrey Kolmogorov en 1931. [22]

En el ámbito geométrico, entre los colaboradores de The Educational Times se incluyen Miller, Crofton, McColl, Wolstenholme, Watson y Artemas Martin . [23] Véase geometría integral para obtener más información.

Teoría

Al igual que otras teorías , la teoría de la probabilidad es una representación de sus conceptos en términos formales, es decir, en términos que pueden considerarse independientemente de su significado. Estos términos formales se manipulan mediante las reglas de las matemáticas y la lógica, y cualquier resultado se interpreta o traduce de nuevo al dominio del problema.

Ha habido al menos dos intentos exitosos de formalizar la probabilidad, a saber, la formulación de Kolmogorov y la formulación de Cox . En la formulación de Kolmogorov (véase también espacio de probabilidad ), los conjuntos se interpretan como eventos y la probabilidad como una medida de una clase de conjuntos. En el teorema de Cox , la probabilidad se toma como un primitivo (es decir, no se analiza más a fondo) y el énfasis está en construir una asignación consistente de valores de probabilidad a proposiciones. En ambos casos, las leyes de probabilidad son las mismas, excepto por los detalles técnicos.

Existen otros métodos para cuantificar la incertidumbre, como la teoría de Dempster-Shafer o la teoría de la posibilidad , pero son esencialmente diferentes y no son compatibles con las leyes de probabilidad generalmente entendidas.

Aplicaciones

La teoría de la probabilidad se aplica en la vida cotidiana en la evaluación y modelización de riesgos . La industria y los mercados de seguros utilizan la ciencia actuarial para determinar los precios y tomar decisiones comerciales. Los gobiernos aplican métodos probabilísticos en la regulación ambiental , el análisis de derechos y la regulación financiera .

Un ejemplo del uso de la teoría de la probabilidad en el comercio de acciones es el efecto de la probabilidad percibida de cualquier conflicto generalizado en Oriente Medio sobre los precios del petróleo, que tienen efectos dominó en la economía en su conjunto. La evaluación por parte de un comerciante de materias primas de que es más probable que haya una guerra puede hacer subir o bajar los precios de esa materia prima y enviar señales a otros comerciantes de esa opinión. En consecuencia, las probabilidades no se evalúan de forma independiente ni necesariamente racional. La teoría de las finanzas conductuales surgió para describir el efecto de ese pensamiento colectivo sobre los precios, las políticas y la paz y los conflictos. [24]

Además de la evaluación financiera, la probabilidad se puede utilizar para analizar tendencias en biología (por ejemplo, propagación de enfermedades) así como en ecología (por ejemplo, cuadros de Punnett biológicos ). [25] Al igual que con las finanzas, la evaluación de riesgos se puede utilizar como una herramienta estadística para calcular la probabilidad de que ocurran eventos indeseables y puede ayudar a implementar protocolos para evitar encontrarse con tales circunstancias. La probabilidad se utiliza para diseñar juegos de azar de modo que los casinos puedan obtener una ganancia garantizada y, al mismo tiempo, proporcionar pagos a los jugadores que sean lo suficientemente frecuentes como para alentar el juego continuo. [26]

Otra aplicación importante de la teoría de la probabilidad en la vida cotidiana es la confiabilidad . Muchos productos de consumo, como los automóviles y los productos electrónicos, utilizan la teoría de la confiabilidad en el diseño del producto para reducir la probabilidad de falla. La probabilidad de falla puede influir en las decisiones de un fabricante sobre la garantía de un producto . [27]

El modelo de lenguaje caché y otros modelos de lenguaje estadístico que se utilizan en el procesamiento del lenguaje natural también son ejemplos de aplicaciones de la teoría de la probabilidad.

Tratamiento matemático

Cálculo de probabilidad (riesgo) vs probabilidades

Consideremos un experimento que puede producir varios resultados. El conjunto de todos los resultados posibles se denomina espacio muestral del experimento, a veces denotado como . El conjunto potencia del espacio muestral se forma considerando todos los conjuntos diferentes de resultados posibles. Por ejemplo, al lanzar un dado se pueden producir seis resultados posibles. Un conjunto de resultados posibles da un número impar en el dado. Por lo tanto, el subconjunto {1,3,5} es un elemento del conjunto potencia del espacio muestral de lanzamientos de dados. Estos conjuntos se denominan "eventos". En este caso, {1,3,5} es el evento de que el dado caiga en algún número impar. Si los resultados que realmente ocurren caen en un evento dado, se dice que el evento ha ocurrido.

Una probabilidad es una forma de asignar a cada evento un valor entre cero y uno, con el requisito de que al evento compuesto por todos los resultados posibles (en nuestro ejemplo, el evento {1,2,3,4,5,6}) se le asigne un valor de uno. Para calificar como probabilidad, la asignación de valores debe satisfacer el requisito de que para cualquier conjunto de eventos mutuamente excluyentes (eventos sin resultados comunes, como los eventos {1,6}, {3} y {2,4}), la probabilidad de que ocurra al menos uno de los eventos esté dada por la suma de las probabilidades de todos los eventos individuales. [28]

La probabilidad de un evento A se escribe como , [29] , o . [30] Esta definición matemática de probabilidad puede extenderse a espacios muestrales infinitos, e incluso a espacios muestrales incontables, utilizando el concepto de medida.

El opuesto o complemento de un evento A es el evento [no A ] (es decir, el evento de que A no ocurra), a menudo denotado como , , o ; su probabilidad está dada por P (no A ) = 1 − P ( A ) . [31] Como ejemplo, la probabilidad de no sacar un seis en un dado de seis caras es 1 – (probabilidad de sacar un seis) = 1 1/6 = 5/6 . Para un tratamiento más completo, ver Evento complementario .

Si dos eventos A y B ocurren en una sola ejecución de un experimento, esto se llama intersección o probabilidad conjunta de A y B , denotada como

Eventos independientes

Si dos eventos, A y B son independientes , entonces la probabilidad conjunta es [29]

P ( A y B ) = P ( A ∩ B ) = P ( A ) P ( B ) . {\displaystyle P(A{\mbox{ y }}B)=P(A\cap B)=P(A)P(B).}

Los eventos A y B se representan como independientes y no independientes en el espacio Ω.

Por ejemplo, si se lanzan dos monedas, entonces la probabilidad de que ambas salgan cara es [32]

Eventos mutuamente excluyentes

Si el evento A o el evento B pueden ocurrir, pero nunca ambos simultáneamente, entonces se denominan eventos mutuamente excluyentes.

Si dos eventos son mutuamente excluyentes , entonces la probabilidad de que ambos ocurran se denota como y Si dos eventos son mutuamente excluyentes , entonces la probabilidad de que cualquiera de ellos ocurra se denota como y

Por ejemplo, la probabilidad de obtener un 1 o un 2 en un dado de seis caras es

Eventos no (necesariamente) mutuamente excluyentes

Si los eventos no son (necesariamente) mutuamente excluyentes entonces Reescrito,

Por ejemplo, al sacar una carta de una baraja, la probabilidad de obtener un corazón o una figura (J, Q, K) (o ambas) es ya que entre las 52 cartas de una baraja, 13 son corazones, 12 son figuras y 3 son ambas: aquí las posibilidades incluidas en las "3 que son ambas" están incluidas en cada uno de los "13 corazones" y las "12 figuras", pero solo deben contarse una vez.

Esto se puede ampliar aún más para múltiples eventos que no sean (necesariamente) mutuamente excluyentes. Para tres eventos, esto procede de la siguiente manera: Se puede ver, entonces, que este patrón se puede repetir para cualquier número de eventos.

Probabilidad condicional

La probabilidad condicional es la probabilidad de que ocurra algún evento A , dada la ocurrencia de algún otro evento B . La probabilidad condicional se escribe, y se lee "la probabilidad de A , dado B ". Está definida por [33]

Si entonces no está formalmente definido por esta expresión. En este caso y son independientes, ya que Sin embargo, es posible definir una probabilidad condicional para algunos eventos de probabilidad cero, por ejemplo, utilizando un σ-álgebra de tales eventos (como los que surgen de una variable aleatoria continua ). [34]

Por ejemplo, en una bolsa de 2 bolas rojas y 2 bolas azules (4 bolas en total), la probabilidad de sacar una bola roja es de 1, pero al sacar una segunda bola, la probabilidad de que sea roja o azul depende de la bola que se haya sacado anteriormente. Por ejemplo, si se ha sacado una bola roja, la probabilidad de sacar otra vez una bola roja sería de 1, ya que solo habrían quedado 1 bola roja y 2 bolas azules. Y si se ha sacado previamente una bola azul, la probabilidad de sacar una bola roja será de 1,

Probabilidad inversa

En teoría de probabilidad y aplicaciones, la regla de Bayes relaciona las probabilidades de un evento con otro antes (antes de) y después (posteriormente a) del condicionamiento sobre otro evento . Las probabilidades sobre un evento son simplemente la relación de las probabilidades de los dos eventos. Cuando arbitrariamente muchos eventos son de interés, no solo dos, la regla puede reformularse como posterior es proporcional a anterior multiplicado por probabilidad , donde el símbolo de proporcionalidad significa que el lado izquierdo es proporcional a (es decir, es igual a una constante multiplicada por) el lado derecho como varía, para fijo o dado (Lee, 2012; Bertsch McGrayne, 2012). En esta forma se remonta a Laplace (1774) y a Cournot (1843); véase Fienberg (2005).

Resumen de probabilidades

Relación entre aleatoriedad y probabilidad en mecánica cuántica

En un universo determinista , basado en los conceptos newtonianos , no habría probabilidad si se conocieran todas las condiciones ( el demonio de Laplace ) (pero hay situaciones en las que la sensibilidad a las condiciones iniciales excede nuestra capacidad para medirlas, es decir, conocerlas). En el caso de una ruleta , si se conocen la fuerza de la mano y el período de esa fuerza, el número en el que se detendrá la bola sería una certeza (aunque, en la práctica, esto probablemente sería cierto solo en el caso de una ruleta que no hubiera sido nivelada exactamente, como reveló el Casino Newtoniano de Thomas A. Bass ). Esto también supone el conocimiento de la inercia y la fricción de la rueda, el peso, la suavidad y la redondez de la bola, las variaciones en la velocidad de la mano durante el giro, etc. Una descripción probabilística puede, por tanto, ser más útil que la mecánica newtoniana para analizar el patrón de resultados de los giros repetidos de una ruleta. Los físicos se enfrentan a la misma situación en la teoría cinética de los gases , donde el sistema, aunque determinista en principio , es tan complejo (con un número de moléculas típicamente del orden de magnitud de la constante de Avogadro). 6,02 × 10 23 ) que sólo es factible una descripción estadística de sus propiedades. [35]

La teoría de la probabilidad es necesaria para describir los fenómenos cuánticos. [36] Un descubrimiento revolucionario de la física de principios del siglo XX fue el carácter aleatorio de todos los procesos físicos que ocurren a escalas subatómicas y están regidos por las leyes de la mecánica cuántica . La función de onda objetiva evoluciona de manera determinista pero, según la interpretación de Copenhague , se ocupa de las probabilidades de observación, y el resultado se explica por un colapso de la función de onda cuando se realiza una observación. Sin embargo, la pérdida del determinismo en aras del instrumentalismo no tuvo una aprobación universal. Albert Einstein comentó en una carta a Max Born : "Estoy convencido de que Dios no juega a los dados". [37] Al igual que Einstein, Erwin Schrödinger , que descubrió la función de onda, creía que la mecánica cuántica es una aproximación estadística de una realidad determinista subyacente . [38] En algunas interpretaciones modernas de la mecánica estadística de la medición, se invoca la decoherencia cuántica para explicar la aparición de resultados experimentales subjetivamente probabilísticos.

Véase también

Notas

  1. ^ Estrictamente hablando, una probabilidad de 0 indica que un evento casi nunca ocurre, mientras que una probabilidad de 1 indica que un evento casi con certeza ocurre. Esta es una distinción importante cuando el espacio muestral es infinito. Por ejemplo, para la distribución uniforme continua en el intervalo real [5, 10], hay un número infinito de resultados posibles, y la probabilidad de que se observe cualquier resultado dado (por ejemplo, exactamente 7) es 0. Esto significa que una observación casi seguramente no será exactamente 7. Sin embargo, no significa que exactamente 7 sea imposible . En última instancia, se observará algún resultado específico (con probabilidad 0), y una posibilidad para ese resultado específico es exactamente 7.
  2. ^ En el contexto del libro del que se cita, es la teoría de la probabilidad y la lógica detrás de ella la que gobierna los fenómenos de tales cosas, en comparación con las predicciones apresuradas que se basan en la pura suerte o en argumentos mitológicos como los dioses de la suerte que ayudan al ganador del juego.

Referencias

  1. ^ "Teoría avanzada de estadística de Kendall, volumen 1: teoría de distribución", Alan Stuart y Keith Ord, 6.ª ed., (2009), ISBN  978-0-534-24312-8 .
  2. ^ William Feller, Introducción a la teoría de la probabilidad y sus aplicaciones , vol. 1, 3.ª ed., (1968), Wiley, ISBN 0-471-25708-7
  3. ^ Teoría de la probabilidad. Sitio web de la Britannica.
  4. ^ Hacking, Ian (1965). La lógica de la inferencia estadística . Cambridge University Press. ISBN 978-0-521-05165-1.[ página necesaria ]
  5. ^ Finetti, Bruno de (1970). "Fundamentos lógicos y medición de la probabilidad subjetiva". Acta Psychologica . 34 : 129–145. doi :10.1016/0001-6918(70)90012-0.
  6. ^ Hájek, Alan (21 de octubre de 2002). Edward N. Zalta (ed.). "Interpretaciones de la probabilidad". The Stanford Encyclopedia of Philosophy (edición de invierno de 2012) . Consultado el 22 de abril de 2013 .
  7. ^ Jaynes, ET (2003). "Sección A.2 El sistema de probabilidad de De Finetti". En Bretthorst, G. Larry (ed.). Teoría de la probabilidad: la lógica de la ciencia (1.ª ed.). Cambridge University Press. ISBN 978-0-521-59271-0.
  8. ^ Hogg, Robert V.; Craig, Allen; McKean, Joseph W. (2004). Introducción a la estadística matemática (sexta edición). Upper Saddle River: Pearson. ISBN 978-0-13-008507-8.[ página necesaria ]
  9. ^ Jaynes, ET (2003). "Sección 5.3. Puntos de vista convergentes y divergentes". En Bretthorst, G. Larry (ed.). Probability Theory: The Logic of Science (1.ª ed.). Cambridge University Press. ISBN 978-0-521-59271-0.
  10. ^ ab Hacking, I. (2006) El surgimiento de la probabilidad: un estudio filosófico de las primeras ideas sobre probabilidad, inducción e inferencia estadística , Cambridge University Press, ISBN 978-0-521-68557-3 [ página necesaria ] 
  11. ^ Freund, John. (1973) Introducción a la probabilidad . Dickenson ISBN 978-0-8221-0078-2 (p. 1) 
  12. ^ Jeffrey, RC, Probabilidad y el arte del juicio, Cambridge University Press. (1992). págs. 54-55. ISBN 0-521-39459-7 
  13. ^ Franklin, J. (2001) La ciencia de la conjetura: evidencia y probabilidad antes de Pascal, Johns Hopkins University Press. (págs. 22, 113, 127)
  14. ^ "Algunas leyes y problemas en probabilidad clásica y cómo Cardano las anticipó Gorrochum, P. Revista Chance 2012" (PDF) .
  15. ^ Abrams, William. Breve historia de la probabilidad. Segundo momento. Archivado desde el original el 24 de julio de 2017. Consultado el 23 de mayo de 2008 .
  16. ^ Ivancevic, Vladimir G.; Ivancevic, Tijana T. (2008). Salto cuántico: desde Dirac y Feynman, a través del universo, hasta el cuerpo y la mente humanos . Singapur; Hackensack, NJ: World Scientific. p. 16. ISBN 978-981-281-927-7.
  17. ^ Franklin, James (2001). La ciencia de la conjetura: evidencia y probabilidad antes de Pascal . Johns Hopkins University Press. ISBN 978-0-8018-6569-5.
  18. ^ Shoesmith, Eddie (noviembre de 1985). «Thomas Simpson y la media aritmética». Historia Mathematica . 12 (4): 352–355. doi : 10.1016/0315-0860(85)90044-8 .
  19. ^ ab Wilson EB (1923) "Primera y segunda ley del error". Revista de la Asociación Estadounidense de Estadística , 18, 143
  20. ^ Seneta, Eugene William. «"Adrien-Marie Legendre" (versión 9)». StatProb: La enciclopedia patrocinada por las Sociedades de Estadística y Probabilidad . Archivado desde el original el 3 de febrero de 2016. Consultado el 27 de enero de 2016 .
  21. ^ Weber, Richard. "Cadenas de Markov" (PDF) . Laboratorio de Estadística . Universidad de Cambridge.
  22. ^ Vitanyi, Paul MB (1988). "Andrei Nikolaevich Kolmogorov". CWI Quarterly (1): 3–18 . Consultado el 27 de enero de 2016 .
  23. ^ Wilcox, Rand R. (2016). Comprensión y aplicación de métodos estadísticos básicos utilizando R. Hoboken, Nueva Jersey. ISBN 978-1-119-06140-3. OCLC  949759319.{{cite book}}: CS1 maint: location missing publisher (link)
  24. ^ Singh, Laurie (2010) "¿Hacia dónde van los mercados eficientes? Teoría de los mercados eficientes y finanzas conductuales". The Finance Professionals' Post, 2010.
  25. ^ Edwards, Anthony William Fairbank (septiembre de 2012). "Reginald Crundall Punnett: primer profesor Arthur Balfour de genética, Cambridge, 1912". Perspectivas. Genética . 192 (1). Gonville and Caius College, Cambridge, Reino Unido: Genetics Society of America : 3–13. doi :10.1534/genetics.112.143552. PMC 3430543 . PMID  22964834. pp. 5–6: […] El cuadro de Punnett parece haber sido un desarrollo de 1905, demasiado tarde para la primera edición de su Mendelismo (mayo de 1905) pero muy evidente en el Informe III al Comité de Evolución de la Royal Society [(Bateson et al. 1906b) "recibido el 16 de marzo de 1906"]. La primera mención se encuentra en una carta de Francis Galton a Bateson fechada el 1 de octubre de 1905 (Edwards 2012). Tenemos el testimonio de Bateson (1909, p. 57) de que "Estoy en deuda con el Sr. Punnett por la introducción de este sistema [el 'método gráfico'], que simplifica enormemente los casos difíciles". […] Los primeros diagramas publicados aparecieron en 1906. […] cuando Punnett publicó la segunda edición de su Mendelismo , utilizó un formato ligeramente diferente ([…] Punnett 1907, p. 45) […] En la tercera edición (Punnett 1911, p. 34) volvió a la disposición […] con una descripción de la construcción de lo que llamó el método del "tablero de ajedrez" (aunque en verdad se parece más a una tabla de multiplicar). […] (11 páginas)
  26. ^ Gao, JZ; Fong, D.; Liu, X. (abril de 2011). "Análisis matemáticos de los sistemas de reembolso de casinos para juegos VIP". Estudios internacionales sobre juegos de azar . 11 (1): 93–106. doi :10.1080/14459795.2011.552575. S2CID  144540412.
  27. ^ Gorman, Michael F. (2010). "Perspectivas de gestión". Management Science . 56 : iv–vii. doi :10.1287/mnsc.1090.1132.
  28. ^ Ross, Sheldon M. (2010). Un primer curso de probabilidad (8.ª ed.). Pearson Prentice Hall. pp. 26-27. ISBN 9780136033134.
  29. ^ de Weisstein, Eric W. "Probabilidad". mathworld.wolfram.com . Consultado el 10 de septiembre de 2020 .
  30. ^ Olofsson (2005) pág. 8.
  31. ^ Olofsson (2005), pág. 9
  32. ^ Olofsson (2005) pág. 35.
  33. ^ Olofsson (2005) pág. 29.
  34. ^ "Probabilidad condicional con respecto a un álgebra sigma". www.statlect.com . Consultado el 4 de julio de 2022 .
  35. ^ Riedi, PC (1976). Teoría cinética de los gases-I. En: Thermal Physics. Palgrave, Londres. https://doi.org/10.1007/978-1-349-15669-6_8
  36. ^ Burgin, Mark (2010). "Interpretaciones de probabilidades negativas". pág. 1. arXiv : 1008.1287v1 [physics.data-an].
  37. ^ Jedenfalls bin ich überzeugt, daß der Alte nicht würfelt. Carta a Max Born, 4 de diciembre de 1926, en: Einstein/Born Briefwechsel 1916–1955.
  38. ^ Moore, WJ (1992). Schrödinger: vida y pensamiento . Cambridge University Press . pág. 479. ISBN. 978-0-521-43767-7.

Bibliografía

Enlaces externos