La probabilidad es la rama de las matemáticas que se ocupa de los eventos y las descripciones numéricas de la probabilidad de que ocurran. La probabilidad de un evento es un número entre 0 y 1; cuanto mayor sea la probabilidad, más probable será que ocurra un evento. [nota 1] [1] [2] Cuanto mayor sea la probabilidad de un evento, más probable será que ocurra. Un ejemplo sencillo es el lanzamiento de una moneda justa (imparcial). Dado que la moneda es justa, los dos resultados ("cara" y "cruz") son igualmente probables; la probabilidad de que salga "cara" es igual a la probabilidad de que salga "cruz"; y dado que no es posible ningún otro resultado, la probabilidad de que salga "cara" o "cruz" es 1/2 (que también podría escribirse como 0,5 o 50%).
A estos conceptos se les ha dado una formalización matemática axiomática en la teoría de la probabilidad , que se utiliza ampliamente en áreas de estudio como estadística , matemáticas , ciencias , finanzas , juegos de azar , inteligencia artificial , aprendizaje automático , informática , teoría de juegos y filosofía para, por ejemplo, Por ejemplo, haga inferencias sobre la frecuencia esperada de los eventos. La teoría de la probabilidad también se utiliza para describir la mecánica y las regularidades subyacentes de sistemas complejos . [3]
Cuando se trata de experimentos aleatorios (es decir, experimentos aleatorios y bien definidos ) en un entorno puramente teórico (como lanzar una moneda ) , las probabilidades pueden describirse numéricamente por el número de resultados deseados, dividido por el número total de todos los resultados. Esto se conoce como probabilidad teórica (en contraste con la probabilidad empírica , que trata las probabilidades en el contexto de experimentos reales). Por ejemplo, lanzar una moneda dos veces producirá resultados "cara-cara", "cara-cola", "cola-cara" y "cola-cola". La probabilidad de obtener un resultado "cara-cara" es 1 de 4 resultados o, en términos numéricos, 1/4, 0,25 o 25%. Sin embargo, cuando se trata de aplicaciones prácticas, existen dos categorías principales de interpretaciones de probabilidad en competencia, cuyos partidarios tienen puntos de vista diferentes sobre la naturaleza fundamental de la probabilidad:
La palabra probabilidad deriva del latín probabilitas , que también puede significar "probidad", una medida de la autoridad de un testigo en un caso legal en Europa , y a menudo se correlaciona con la nobleza del testigo . En cierto sentido, esto difiere mucho del significado moderno de probabilidad , que en contraste es una medida del peso de la evidencia empírica , y se llega a ella a partir del razonamiento inductivo y la inferencia estadística . [10]
El estudio científico de la probabilidad es un desarrollo moderno de las matemáticas . Los juegos de azar muestran que ha habido interés en cuantificar las ideas de probabilidad a lo largo de la historia, pero las descripciones matemáticas exactas surgieron mucho más tarde. Hay razones para el lento desarrollo de las matemáticas de la probabilidad. Mientras que los juegos de azar proporcionaron el impulso para el estudio matemático de la probabilidad, las cuestiones fundamentales [nota 2] todavía están oscurecidas por las supersticiones. [11]
Según Richard Jeffrey , "Antes de mediados del siglo XVII, el término 'probabilis' (latín probabilis ) significaba aprobable , y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una acción u opinión probable era aquella como personas sensatas emprenderían o mantendrían, dadas las circunstancias". [12] Sin embargo, especialmente en contextos legales, 'probable' también podría aplicarse a proposiciones para las cuales había buena evidencia. [13]
El erudito italiano del siglo XVI Gerolamo Cardano demostró la eficacia de definir las probabilidades como la relación entre resultados favorables y desfavorables (lo que implica que la probabilidad de un evento está dada por la relación entre resultados favorables y el número total de resultados posibles [14] ). . Aparte de la obra elemental de Cardano, la doctrina de las probabilidades se remonta a la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) dio el tratamiento científico más antiguo conocido sobre el tema. [15] Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y La doctrina de las posibilidades (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. [16] Véase The Emergence of Probability [10] de Ian Hacking y The Science of Conjecture [17] de James Franklin para conocer las historias del desarrollo temprano del concepto mismo de probabilidad matemática.
La teoría de los errores se remonta a la Opera Miscellanea de Roger Cotes (póstuma, 1722), pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría a la discusión de los errores de observación. [18] La reimpresión (1757) de esta memoria establece los axiomas de que los errores positivos y negativos son igualmente probables, y que ciertos límites asignables definen el rango de todos los errores. Simpson también analiza los errores continuos y describe una curva de probabilidad.
Las dos primeras leyes del error propuestas se originaron con Pierre-Simon Laplace . La primera ley se publicó en 1774 y establecía que la frecuencia de un error podía expresarse como una función exponencial de la magnitud numérica del error, sin tener en cuenta el signo. La segunda ley del error fue propuesta en 1778 por Laplace y afirmó que la frecuencia del error es una función exponencial del cuadrado del error. [19] La segunda ley del error se llama distribución normal o ley de Gauss. "Históricamente es difícil atribuir esa ley a Gauss, quien a pesar de su conocida precocidad probablemente no había hecho este descubrimiento antes de los dos años". [19]
Daniel Bernoulli (1778) introdujo el principio del producto máximo de las probabilidades de un sistema de errores concurrentes.
Adrien-Marie Legendre (1805) desarrolló el método de los mínimos cuadrados , y lo introdujo en sus Nouvelles méthodes pour la détermination des orbites des comètes ( Nuevos métodos para determinar las órbitas de los cometas ). [20] Ignorando la contribución de Legendre, un escritor irlandés-estadounidense, Robert Adrian , editor de "The Analyst" (1808), dedujo por primera vez la ley de la facilidad de error,
donde es una constante que depende de la precisión de la observación y es un factor de escala que garantiza que el área bajo la curva sea igual a 1. Dio dos pruebas, siendo la segunda esencialmente la misma que la de John Herschel (1850). [ cita necesaria ] Gauss dio la primera prueba que parece haber sido conocida en Europa (la tercera después de la de Adrian) en 1809. Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826) dieron más pruebas. , Hagen (1837), Friedrich Bessel (1838), WF Donkin (1844, 1856) y Morgan Crofton (1870). Otros contribuyentes fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) [ se necesita aclaración ] para r , el error probable de una sola observación, es bien conocida.
En el siglo XIX, los autores de la teoría general incluyeron a Laplace , Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion. y Karl Pearson . Augustus De Morgan y George Boole mejoraron la exposición de la teoría.
En 1906, Andrey Markov introdujo [21] la noción de cadenas de Markov , que jugó un papel importante en la teoría de los procesos estocásticos y sus aplicaciones. La teoría moderna de la probabilidad basada en la teoría de la medida fue desarrollada por Andrey Kolmogorov en 1931. [22]
En el lado geométrico, los colaboradores de The Educational Times incluyeron a Miller, Crofton, McColl, Wolstenholme, Watson y Artemas Martin . [23] Ver geometría integral para más información.
Como otras teorías , la teoría de la probabilidad es una representación de sus conceptos en términos formales, es decir, en términos que pueden considerarse separadamente de su significado. Estos términos formales son manipulados por las reglas de las matemáticas y la lógica, y cualquier resultado se interpreta o traduce nuevamente al dominio del problema.
Ha habido al menos dos intentos exitosos de formalizar la probabilidad, a saber, la formulación de Kolmogorov y la formulación de Cox . En la formulación de Kolmogorov (ver también espacio de probabilidad ), los conjuntos se interpretan como eventos y la probabilidad como una medida de una clase de conjuntos. En el teorema de Cox , la probabilidad se toma como una primitiva (es decir, no se analiza más a fondo) y el énfasis está en construir una asignación consistente de valores de probabilidad a las proposiciones. En ambos casos, las leyes de la probabilidad son las mismas, salvo detalles técnicos.
Existen otros métodos para cuantificar la incertidumbre, como la teoría de Dempster-Shafer o la teoría de la posibilidad , pero son esencialmente diferentes y no compatibles con las leyes de probabilidad generalmente entendidas.
La teoría de la probabilidad se aplica en la vida cotidiana en la evaluación y modelación de riesgos . La industria y los mercados de seguros utilizan la ciencia actuarial para determinar los precios y tomar decisiones comerciales. Los gobiernos aplican métodos probabilísticos en la regulación ambiental , el análisis de derechos y la regulación financiera .
Un ejemplo del uso de la teoría de la probabilidad en el comercio de acciones es el efecto de la probabilidad percibida de cualquier conflicto generalizado en Oriente Medio sobre los precios del petróleo, que tiene efectos en cadena en la economía en su conjunto. La evaluación de un comerciante de materias primas de que es más probable una guerra puede hacer que los precios de esa materia prima suban o bajen, e indica a otros comerciantes que tienen esa opinión. En consecuencia, las probabilidades no se evalúan de forma independiente ni necesariamente de forma racional. La teoría de las finanzas conductuales surgió para describir el efecto de ese pensamiento de grupo en los precios, las políticas y la paz y los conflictos. [24]
Además de la evaluación financiera, la probabilidad se puede utilizar para analizar tendencias en biología (por ejemplo, propagación de enfermedades) y ecología (por ejemplo, cuadrados de Punnett biológicos ). [25] Al igual que con las finanzas, la evaluación de riesgos se puede utilizar como una herramienta estadística para calcular la probabilidad de que ocurran eventos indeseables y puede ayudar con la implementación de protocolos para evitar encontrarse con tales circunstancias. La probabilidad se utiliza para diseñar juegos de azar de modo que los casinos puedan obtener ganancias garantizadas y, al mismo tiempo, ofrecer pagos a los jugadores que sean lo suficientemente frecuentes como para alentar el juego continuo. [26]
Otra aplicación importante de la teoría de la probabilidad en la vida cotidiana es la confiabilidad . Muchos productos de consumo, como automóviles y productos electrónicos de consumo, utilizan la teoría de la confiabilidad en el diseño de productos para reducir la probabilidad de falla. La probabilidad de falla puede influir en las decisiones de un fabricante sobre la garantía de un producto . [27]
El modelo de lenguaje caché y otros modelos de lenguaje estadístico que se utilizan en el procesamiento del lenguaje natural también son ejemplos de aplicaciones de la teoría de la probabilidad.
Considere un experimento que puede producir varios resultados. La colección de todos los resultados posibles se denomina espacio muestral del experimento, a veces denominado como . El conjunto de potencias del espacio muestral se forma considerando todas las diferentes colecciones de resultados posibles. Por ejemplo, lanzar un dado puede producir seis resultados posibles. Una colección de posibles resultados da un número impar en el dado. Por tanto, el subconjunto {1,3,5} es un elemento del conjunto potencia del espacio muestral de las tiradas de dados. Estas colecciones se denominan "eventos". En este caso, {1,3,5} es el evento de que el dado caiga en algún número impar. Si los resultados que realmente ocurren caen en un evento determinado, se dice que el evento ocurrió.
Una probabilidad es una forma de asignar a cada evento un valor entre cero y uno, con el requisito de que el evento compuesto por todos los resultados posibles (en nuestro ejemplo, el evento {1,2,3,4,5,6}) sea se le asigna el valor uno. Para calificar como probabilidad, la asignación de valores debe satisfacer el requisito de que para cualquier colección de eventos mutuamente excluyentes (eventos sin resultados comunes, como los eventos {1,6}, {3} y {2,4}) , la probabilidad de que ocurra al menos uno de los eventos está dada por la suma de las probabilidades de todos los eventos individuales. [28]
La probabilidad de un evento A se escribe como , [29] o . [30] Esta definición matemática de probabilidad puede extenderse a infinitos espacios muestrales, e incluso a incontables espacios muestrales, utilizando el concepto de medida.
El opuesto o complemento de un evento A es el evento [no A ] (es decir, el evento en el que A no ocurre), a menudo denotado como , o ; su probabilidad está dada por P (no A ) = 1 − P ( A ) . [31] Como ejemplo, la probabilidad de no sacar un seis en un dado de seis caras es 1 – (posibilidad de sacar un seis) = 1 – 1/6=5/6. Para un tratamiento más completo, consulte Evento complementario .
Si dos eventos A y B ocurren en una sola realización de un experimento, esto se llama intersección o probabilidad conjunta de A y B , denotada como
Si dos eventos, A y B, son independientes , entonces la probabilidad conjunta es [29]
Por ejemplo, si se lanzan dos monedas, la probabilidad de que ambas salgan cara es [32].
Si el evento A o el evento B pueden ocurrir pero nunca ambos simultáneamente, entonces se llaman eventos mutuamente excluyentes.
Si dos eventos son mutuamente excluyentes , entonces la probabilidad de que ambos ocurran se denota como y
Si los eventos no son (necesariamente) mutuamente excluyentes, entonces
Esto se puede ampliar aún más para múltiples eventos que no (necesariamente) sean mutuamente excluyentes. Para tres eventos, esto procede de la siguiente manera:
La probabilidad condicional es la probabilidad de que ocurra algún eventoA , dada la ocurrencia de algún otro evento B. Se escribe probabilidad condicionaly se lee "la probabilidad de A , dado B ". Está definido por [33]
Por ejemplo, en una bolsa de 2 bolas rojas y 2 bolas azules (4 bolas en total), la probabilidad de sacar una bola roja es sin embargo, al sacar una segunda bola, la probabilidad de que sea una bola roja o una bola azul. Depende de la pelota previamente tomada. Por ejemplo, si se tomó una bola roja, entonces la probabilidad de volver a coger una bola roja sería ya que solo habrían quedado 1 bola roja y 2 azules. Y si previamente se sacó una bola azul, la probabilidad de sacar una bola roja será
En la teoría de la probabilidad y sus aplicaciones, la regla de Bayes relaciona las probabilidades de un evento con otro antes (antes) y después (posteriormente) del condicionamiento de otro evento . Las probabilidades de un evento es simplemente la relación de las probabilidades de los dos eventos. Cuando arbitrariamente muchos eventos son de interés, no solo dos, la regla se puede reformular como la probabilidad posterior es proporcional a la probabilidad anterior , donde el símbolo de proporcionalidad significa que el lado izquierdo es proporcional (es decir, es igual a una constante multiplicada) por el lado derecho. lado según varía, ya sea fijo o dado (Lee, 2012; Bertsch McGrayne, 2012). De esta forma se remonta a Laplace (1774) y Cournot (1843); ver Fienberg (2005). Véase Probabilidad inversa y regla de Bayes .
En un universo determinista , basado en conceptos newtonianos , no habría probabilidad si se conocieran todas las condiciones ( el demonio de Laplace ) (pero hay situaciones en las que la sensibilidad a las condiciones iniciales supera nuestra capacidad de medirlas, es decir, de conocerlas). En el caso de una ruleta , si se conocen la fuerza de la mano y el período de esa fuerza, el número en el que se detendrá la bola sería una certeza (aunque en la práctica, esto probablemente sólo sería cierto para una rueda de ruleta). ruleta que no estaba exactamente nivelada (como reveló el Newtonian Casino de Thomas A. Bass ). Esto también supone conocimiento de la inercia y la fricción de la rueda, el peso, la suavidad y la redondez de la bola, las variaciones en la velocidad de la mano durante el giro, etc. Por tanto, una descripción probabilística puede ser más útil que la mecánica newtoniana para analizar el patrón de resultados de tiradas repetidas de una ruleta. Los físicos enfrentan la misma situación en la teoría cinética de los gases , donde el sistema, aunque determinista en principio , es muy complejo (con el número de moléculas típicamente del orden de magnitud de la constante de Avogadro). 6.02 × 10 23 ) que sólo es factible una descripción estadística de sus propiedades. [35]
Se requiere la teoría de la probabilidad para describir los fenómenos cuánticos. [36] Un descubrimiento revolucionario de la física de principios del siglo XX fue el carácter aleatorio de todos los procesos físicos que ocurren a escalas subatómicas y se rigen por las leyes de la mecánica cuántica . La función de onda objetiva evoluciona de manera determinista pero, según la interpretación de Copenhague , se ocupa de las probabilidades de observación, y el resultado se explica por un colapso de la función de onda cuando se realiza una observación. Sin embargo, la pérdida del determinismo en beneficio del instrumentalismo no obtuvo la aprobación universal. Albert Einstein afirmó en una carta a Max Born : "Estoy convencido de que Dios no juega a los dados". [37] Al igual que Einstein, Erwin Schrödinger , que descubrió la función de onda, creía que la mecánica cuántica es una aproximación estadística de una realidad determinista subyacente . [38] En algunas interpretaciones modernas de la mecánica estadística de la medición, se invoca la decoherencia cuántica para explicar la aparición de resultados experimentales subjetivamente probabilísticos.
{{cite book}}
: CS1 maint: location missing publisher (link)[…] El cuadrado de Punnett parece haber sido un desarrollo de 1905, demasiado tarde para la primera edición de su
Mendelismo
(mayo de 1905), pero muy evidente en
el Informe III al Comité de Evolución del Royal Sociedad
[(Bateson et al. 1906b) "recibido el 16 de marzo de 1906"].
La primera mención está contenida en una carta a Bateson de Francis Galton fechada el 1 de octubre de 1905 (Edwards 2012).
Tenemos el testimonio de Bateson (1909, p. 57) de que "Estoy en deuda con el Sr. Punnett por la introducción de este sistema [el 'método gráfico'], que simplifica enormemente los casos difíciles".
[…] Los primeros diagramas publicados aparecieron en 1906. […] cuando Punnett publicó la segunda edición de su
Mendelismo
, utilizó un formato ligeramente diferente ([…] Punnett 1907, p. 45) […] En la tercera edición (Punnett 1907, p. 45) 1911, p. 34) volvió a la disposición […] con una descripción de la construcción de lo que llamó el método del "tablero de ajedrez" (aunque en realidad se parece más a una tabla de multiplicar).
[…]
(11 páginas)