stringtranslate.com

Historia de la probabilidad

La probabilidad tiene una doble vertiente: por un lado la verosimilitud de las hipótesis dadas las evidencias que las sustentan, y por otro el comportamiento de procesos estocásticos como el lanzamiento de dados o de monedas . El estudio de la primera es históricamente más antiguo en, por ejemplo, la ley de la evidencia , mientras que el tratamiento matemático de los dados se inició con los trabajos de Cardano , Pascal , Fermat y Christiaan Huygens entre los siglos XVI y XVII.

La probabilidad se ocupa de experimentos aleatorios con una distribución conocida, la estadística se ocupa de la inferencia a partir de los datos sobre la distribución desconocida.

Etimología

Probable y probabilidad y sus cognados en otros idiomas modernos derivan del latín erudito medieval probabilis , derivado de Cicerón y generalmente aplicado a una opinión para significar plausible o generalmente aprobado . [1] La forma probabilidad proviene del francés antiguo probabilite (siglo XIV) y directamente del latín probabilitatem (nominativo probabilitas ) "credibilidad, probabilidad", de probabilis (ver probable). El sentido matemático del término es de 1718. En el siglo XVIII, el término casualidad también se usó en el sentido matemático de "probabilidad" (y la teoría de la probabilidad se llamó Doctrina de las probabilidades ). Esta palabra es en última instancia del latín cadentia , es decir, "una caída, un caso". El adjetivo inglés probable es de origen germánico, muy probablemente del nórdico antiguo likligr (el inglés antiguo tenía geliclic con el mismo sentido), que originalmente significaba "que tiene la apariencia de ser fuerte o capaz" "que tiene la apariencia o cualidades similares", con un significado de "probablemente" registrado a mediados del siglo XV. El sustantivo derivado probability tenía un significado de "similitud, semejanza", pero adquirió un significado de "probabilidad" a partir de mediados del siglo XV. El significado de "algo que es probable que sea cierto" data de la década de 1570.

Orígenes

El derecho de la prueba antiguo y medieval desarrolló una clasificación de grados de prueba, credibilidad, presunciones y pruebas a medias para abordar las incertidumbres de la evidencia en el tribunal. [2]

En la época del Renacimiento , las apuestas se discutían en términos de probabilidades como "diez a uno" y las primas de seguro marítimo se estimaban en función de riesgos intuitivos, pero no existía ninguna teoría sobre cómo calcular dichas probabilidades o primas. [3]

Los métodos matemáticos de probabilidad surgieron en las investigaciones de Gerolamo Cardano en la década de 1560 (no publicadas hasta 100 años después), y luego en la correspondencia entre Pierre de Fermat y Blaise Pascal (1654) sobre cuestiones como la división justa de la apuesta en un juego de azar interrumpido. Christiaan Huygens (1657) trató el tema en profundidad. [4] [5]

En la antigüedad se practicaban juegos con astrágalos o huesos del astrágalo . [6] La cerámica de la antigua Grecia proporciona evidencia de que los astrágalos se lanzaban a un círculo dibujado en el suelo, como si se jugara a las canicas. En Egipto , los excavadores de tumbas encontraron un juego al que llamaron «Perros y chacales», que se parece mucho al juego moderno « Serpientes y escaleras ». Según Pausanias , [7] Palamedes inventó los dados durante las guerras de Troya, aunque su verdadero origen es incierto. El primer juego de dados mencionado en la literatura de la era cristiana se llamaba Hazard . Jugado con dos o tres dados, probablemente fue traído a Europa por los caballeros que regresaban de las Cruzadas. Dante Alighieri (1265-1321) menciona este juego. Un comentarista de Dante reflexiona más sobre este juego: la idea era que con tres dados, el número más bajo que se puede obtener es tres, un as por cada dado. Para conseguir un cuatro se pueden utilizar tres dados, es decir, un dos en un dado y ases en los otros dos dados. [8]

Cardano también pensó en la suma de tres dados. A primera vista, hay el mismo número de combinaciones que suman 9 que las que suman 10. Para un 9: (621) (531) (522) (441) (432) (333) y para un 10: (631) (622) (541) (532) (442) (433). Sin embargo, hay más formas de obtener algunas de estas combinaciones que otras. Por ejemplo, si consideramos el orden de los resultados, hay seis maneras de obtener (621): (1,2,6), (1,6,2), (2,1,6), (2,6,1), (6,1,2), (6,2,1), pero solo hay una manera de obtener (333), donde el primer, segundo y tercer dados arrojan 3. Hay un total de 27 permutaciones que suman 10, pero solo 25 que suman 9. A partir de esto, Cardano descubrió que la probabilidad de obtener un 9 es menor que la de obtener un 10. También demostró la eficacia de definir las probabilidades como la relación entre los resultados favorables y los desfavorables (lo que implica que la probabilidad de un evento está dada por la relación entre los resultados favorables y el número total de resultados posibles). [9] [10]

Además, Galileo escribió sobre el lanzamiento de dados en algún momento entre 1613 y 1623. Sin saberlo, considerando lo que es esencialmente el mismo problema que el de Cardano, Galileo había dicho que ciertos números tienen la capacidad de ser lanzados porque hay más formas de crear ese número. [11]

Siglo XVIII

El Ars Conjectandi de Jacob Bernoulli (póstumo, 1713) y La doctrina de las probabilidades de Abraham De Moivre (1718) pusieron la probabilidad sobre una sólida base matemática, mostrando cómo calcular una amplia gama de probabilidades complejas. Bernoulli demostró una versión de la ley fundamental de los grandes números , que establece que en un gran número de ensayos, es probable que el promedio de los resultados sea muy cercano al valor esperado; por ejemplo, en 1000 lanzamientos de una moneda justa, es probable que haya cerca de 500 caras (y cuanto mayor sea el número de lanzamientos, es probable que la proporción sea más cercana a la mitad y la mitad).

Siglo XIX

El poder de los métodos probabilísticos para tratar la incertidumbre quedó demostrado por la determinación de la órbita de Ceres por parte de Gauss a partir de unas pocas observaciones. La teoría de errores utilizó el método de mínimos cuadrados para corregir observaciones propensas a errores, especialmente en astronomía, basándose en el supuesto de una distribución normal de errores para determinar el valor verdadero más probable. En 1812, Laplace publicó su Théorie analytique des probabilités en la que consolidó y estableció muchos resultados fundamentales en probabilidad y estadística, como la función generadora de momentos , el método de mínimos cuadrados, la probabilidad inductiva y la prueba de hipótesis.

Hacia finales del siglo XIX, un gran éxito de la explicación en términos de probabilidades fue la Mecánica estadística de Ludwig Boltzmann y J. Willard Gibbs , que explicó propiedades de los gases como la temperatura en términos de movimientos aleatorios de grandes cantidades de partículas.

El campo de la historia de la probabilidad en sí fue establecido por la monumental obra de Isaac Todhunter, Una historia de la teoría matemática de la probabilidad desde la época de Pascal hasta la de Laplace (1865).

Siglo XX

La probabilidad y la estadística se vincularon estrechamente a través del trabajo sobre pruebas de hipótesis de RA Fisher y Jerzy Neyman , que ahora se aplica ampliamente en experimentos biológicos y psicológicos y en ensayos clínicos de medicamentos, así como en economía y en otros ámbitos. Una hipótesis, por ejemplo, que un medicamento suele ser eficaz, da lugar a una distribución de probabilidad que se observaría si la hipótesis fuera verdadera. Si las observaciones concuerdan aproximadamente con la hipótesis, se confirma; si no, se rechaza la hipótesis. [12]

La teoría de los procesos estocásticos se amplió a áreas como los procesos de Markov y el movimiento browniano , el movimiento aleatorio de partículas diminutas suspendidas en un fluido. Esto proporcionó un modelo para el estudio de las fluctuaciones aleatorias en los mercados bursátiles, lo que llevó al uso de modelos de probabilidad sofisticados en las finanzas matemáticas , incluidos éxitos como la fórmula de Black-Scholes ampliamente utilizada para la valoración de opciones . [13]

El siglo XX también fue testigo de largas disputas sobre la interpretación de la probabilidad . A mediados de siglo, el frecuentismo era dominante, sosteniendo que probabilidad significa frecuencia relativa a largo plazo en un gran número de ensayos. A fines del siglo hubo un cierto resurgimiento de la perspectiva bayesiana , según la cual la noción fundamental de probabilidad es cuán bien una proposición está respaldada por la evidencia que la respalda.

El tratamiento matemático de las probabilidades, especialmente cuando hay infinitos resultados posibles, fue facilitado por los axiomas de Kolmogorov (1933).

Referencias

  1. ^ Franklin (2001), págs. 113, 126.
  2. ^ Franklin (2001).
  3. ^ Franklin (2001), págs. 278–288.
  4. Hacking (2006). Para Cardano, véase la pág. 54; para Fermat y Pascal, véanse las págs. 59-61; para Huygens, véanse las págs. 92-94.
  5. ^ Franklin (2001), págs. 296–316.
  6. ^ David, FN (1969). Juegos, dioses y apuestas: los orígenes y la historia de la probabilidad y las ideas estadísticas desde los primeros tiempos hasta la era newtoniana . Londres: Griffin. ISBN 978-0-85264-171-2.
  7. ^ Pausanias (2007). Descripción de Grecia. 1: Libros I y II . Biblioteca clásica de Loeb (edición revisada). Cambridge, Mass.: Harvard Univ. Press. ISBN 978-0-674-99104-0.
  8. ^ Franklin (2001), págs. 293–294.
  9. ^ Algunas leyes y problemas de la probabilidad clásica y cómo Cardano los anticipó Gorrochum, P. Revista Chance 2012
  10. ^ Franklin (2001), págs. 296–300.
  11. ^ Franklin (2001), pág. 302.
  12. ^ Salsburgo (2001).
  13. ^ Bernstein (1996), Capítulo 18.

Fuentes

Enlaces externos