stringtranslate.com

Interpretaciones de probabilidad

La palabra probabilidad se ha utilizado de diversas maneras desde que se aplicó por primera vez al estudio matemático de los juegos de azar . ¿La probabilidad mide la tendencia física real de que algo ocurra, es una medida de la firme creencia de que ocurrirá o se basa en ambos elementos? Para responder a estas preguntas, los matemáticos interpretan los valores de probabilidad de la teoría de la probabilidad .

Existen dos grandes categorías [1] [2] de interpretaciones de la probabilidad , que pueden denominarse probabilidades "físicas" y "evidenciales". Las probabilidades físicas, también llamadas probabilidades objetivas o de frecuencia , están asociadas con sistemas físicos aleatorios como las ruletas, los dados que ruedan y los átomos radiactivos. En tales sistemas, un tipo dado de evento (como que un dado dé un seis) tiende a ocurrir a una tasa persistente, o "frecuencia relativa", en una larga serie de ensayos. Las probabilidades físicas explican, o se invocan para explicar, estas frecuencias estables. Los dos tipos principales de teoría de la probabilidad física son las teorías frecuentistas (como las de Venn, [3] Reichenbach [4] y von Mises) [5] y las teorías de propensión (como las de Popper, Miller, Giere y Fetzer). [6]

La probabilidad evidencial, también llamada probabilidad bayesiana , puede asignarse a cualquier afirmación, incluso cuando no interviene ningún proceso aleatorio, como una forma de representar su plausibilidad subjetiva o el grado en que la afirmación está respaldada por la evidencia disponible. En la mayoría de los casos, las probabilidades evidenciales se consideran grados de creencia, definidos en términos de disposiciones para apostar a ciertas probabilidades. Las cuatro interpretaciones evidenciales principales son la interpretación clásica (por ejemplo, la de Laplace) [7] , la interpretación subjetiva ( de Finetti [8] y Savage), [9] la interpretación epistémica o inductiva ( Ramsey , [10] Cox ) [11] y la interpretación lógica ( Keynes [12] y Carnap ). [13] También hay interpretaciones evidenciales de la probabilidad que cubren grupos, que a menudo se etiquetan como "intersubjetivos" (propuestos por Gillies [14] y Rowbottom). [6]

Algunas interpretaciones de la probabilidad están asociadas con enfoques de inferencia estadística , incluidas las teorías de estimación y prueba de hipótesis . La interpretación física, por ejemplo, es adoptada por seguidores de métodos estadísticos "frecuentistas", como Ronald Fisher [ dudosodiscutir ] , Jerzy Neyman y Egon Pearson . Los estadísticos de la escuela bayesiana opuesta generalmente aceptan la interpretación de frecuencia cuando tiene sentido (aunque no como definición), pero hay menos acuerdo con respecto a las probabilidades físicas. Los bayesianos consideran que el cálculo de probabilidades evidenciales es válido y necesario en estadística. Este artículo, sin embargo, se centra en las interpretaciones de la probabilidad en lugar de las teorías de inferencia estadística.

La terminología de este tema es bastante confusa, en parte porque las probabilidades se estudian en una variedad de campos académicos. La palabra "frecuentista" es especialmente complicada. Para los filósofos se refiere a una teoría particular de la probabilidad física, que ha sido más o menos abandonada. Para los científicos, por otro lado, la " probabilidad frecuentista " es simplemente otro nombre para la probabilidad física (u objetiva). Quienes promueven la inferencia bayesiana ven la " estadística frecuentista " como un enfoque de la inferencia estadística que se basa en la interpretación de la frecuencia de la probabilidad, que generalmente se basa en la ley de los grandes números y se caracteriza por lo que se llama "Prueba de significación de hipótesis nula" (NHST). Además, la palabra "objetivo", tal como se aplica a la probabilidad, a veces significa exactamente lo que significa "físico" aquí, pero también se usa para probabilidades evidenciales que están fijadas por restricciones racionales, como las probabilidades lógicas y epistémicas.

Existe un acuerdo unánime en que la estadística depende de algún modo de la probabilidad. Pero, en cuanto a qué es la probabilidad y cómo se relaciona con la estadística, rara vez ha habido un desacuerdo tan completo y una ruptura de la comunicación tan grande desde la Torre de Babel. Sin duda, gran parte del desacuerdo es meramente terminológico y desaparecería con un análisis suficientemente agudo.

—  Savage, 1954, pág. 2 [9]

Filosofía

La filosofía de la probabilidad presenta problemas principalmente en materia de epistemología y la incómoda interrelación entre los conceptos matemáticos y el lenguaje ordinario tal como lo utilizan los no matemáticos. La teoría de la probabilidad es un campo de estudio establecido en matemáticas. Tiene sus orígenes en la correspondencia que Blaise Pascal y Pierre de Fermat mantuvieron en el siglo XVII para discutir las matemáticas de los juegos de azar , [15] y Andrey Kolmogorov la formalizó y la convirtió en una rama axiomática de las matemáticas en el siglo XX. En forma axiomática, los enunciados matemáticos sobre la teoría de la probabilidad tienen el mismo tipo de confianza epistemológica dentro de la filosofía de las matemáticas que otros enunciados matemáticos. [16] [17]

El análisis matemático se originó en observaciones del comportamiento de equipos de juego como naipes y dados , que están diseñados específicamente para introducir elementos aleatorios e igualados; en términos matemáticos, son sujetos de indiferencia . Esta no es la única forma en que se utilizan los enunciados probabilísticos en el lenguaje humano ordinario: cuando la gente dice que " probablemente lloverá ", normalmente no quiere decir que el resultado de lluvia frente a no lluvia sea un factor aleatorio que las probabilidades actualmente favorecen; en cambio, es mejor entender tales enunciados como una calificación de su expectativa de lluvia con un grado de confianza. Del mismo modo, cuando se escribe que "la explicación más probable" del nombre de Ludlow, Massachusetts "es que recibió el nombre de Roger Ludlow ", lo que se quiere decir aquí no es que Roger Ludlow sea favorecido por un factor aleatorio, sino que esta es la explicación más plausible de la evidencia, que admite otras explicaciones menos probables.

Thomas Bayes intentó proporcionar una lógica que pudiera manejar distintos grados de confianza; como tal, la probabilidad bayesiana es un intento de reformular la representación de las afirmaciones probabilísticas como una expresión del grado de confianza con el que se sostienen las creencias que expresan.

Aunque inicialmente la probabilidad tenía motivaciones algo mundanas, su influencia y uso modernos están muy extendidos y abarcan desde la medicina basada en evidencia , pasando por seis sigma , hasta la prueba probabilísticamente comprobable y el panorama de la teoría de cuerdas .

Definición clásica

El primer intento de rigor matemático en el campo de la probabilidad, promovido por Pierre-Simon Laplace , se conoce hoy como la definición clásica . Desarrollada a partir de estudios de juegos de azar (como el lanzamiento de dados ), establece que la probabilidad se comparte de manera equitativa entre todos los resultados posibles, siempre que estos resultados puedan considerarse igualmente probables. [1] (3.1)

La teoría del azar consiste en reducir todos los acontecimientos de una misma especie a un cierto número de casos igualmente posibles, es decir, de los que podemos estar igualmente indecisos en cuanto a su existencia, y en determinar el número de casos favorables al acontecimiento cuya probabilidad se busca. La razón de este número con el de todos los casos posibles es la medida de esta probabilidad, que es, por tanto, simplemente una fracción cuyo numerador es el número de casos favorables y cuyo denominador es el número de todos los casos posibles.

—  Pierre-Simon Laplace, Ensayo filosófico sobre las probabilidades [7]
La definición clásica de probabilidad funciona bien para situaciones con solo un número finito de resultados igualmente probables.

Esto se puede representar matemáticamente de la siguiente manera: si un experimento aleatorio puede dar como resultado N resultados mutuamente excluyentes e igualmente probables y si N A de estos resultados dan como resultado la ocurrencia del evento A , la probabilidad de A se define por

La definición clásica tiene dos limitaciones claras. [18] En primer lugar, sólo es aplicable a situaciones en las que sólo hay un número "finito" de resultados posibles. Pero algunos experimentos aleatorios importantes, como lanzar una moneda hasta que salga cara, dan lugar a un conjunto infinito de resultados. Y en segundo lugar, requiere una determinación a priori de que todos los resultados posibles son igualmente probables sin caer en la trampa del razonamiento circular al basarse en la noción de probabilidad. (Al utilizar la terminología "podemos estar igualmente indecisos", Laplace supuso, por lo que se ha llamado el " principio de razón insuficiente ", que todos los resultados posibles son igualmente probables si no hay ninguna razón conocida para suponer lo contrario, para lo cual no hay una justificación obvia. [19] [20] )

Frecuentismo

Para los frecuentistas, la probabilidad de que la bola caiga en cualquier bolsillo sólo se puede determinar mediante ensayos repetidos en los que el resultado observado converge a la probabilidad subyacente en el largo plazo .

Los frecuentistas postulan que la probabilidad de un evento es su frecuencia relativa en el tiempo, [1] (3.4) es decir, su frecuencia relativa de ocurrencia después de repetir un proceso un gran número de veces bajo condiciones similares. Esto también se conoce como probabilidad aleatoria. Se supone que los eventos están gobernados por algunos fenómenos físicos aleatorios , que son fenómenos que son predecibles, en principio, con suficiente información (ver determinismo ); o fenómenos que son esencialmente impredecibles. Ejemplos del primer tipo incluyen lanzar dados o hacer girar una ruleta ; un ejemplo del segundo tipo es la desintegración radiactiva . En el caso de lanzar una moneda justa, los frecuentistas dicen que la probabilidad de obtener cara es 1/2, no porque haya dos resultados igualmente probables sino porque series repetidas de grandes cantidades de ensayos demuestran que la frecuencia empírica converge al límite 1/2 a medida que el número de ensayos tiende al infinito.

Si denotamos por el número de ocurrencias de un evento en ensayos, entonces si decimos que .

La perspectiva frecuentista tiene sus propios problemas. Por supuesto, es imposible realizar una infinidad de repeticiones de un experimento aleatorio para determinar la probabilidad de un evento. Pero si sólo se realiza un número finito de repeticiones del proceso, aparecerán diferentes frecuencias relativas en diferentes series de ensayos. Si estas frecuencias relativas han de definir la probabilidad, la probabilidad será ligeramente diferente cada vez que se mida. Pero la probabilidad real debería ser la misma cada vez. Si reconocemos el hecho de que sólo podemos medir una probabilidad con algún error de medición asociado, todavía nos encontramos con problemas ya que el error de medición sólo puede expresarse como una probabilidad, el mismo concepto que estamos tratando de definir. Esto hace que incluso la definición de frecuencia sea circular; véase por ejemplo “¿Cuál es la probabilidad de un terremoto?” [21]

Subjetivismo

Los subjetivistas, también conocidos como bayesianos o seguidores de la probabilidad epistémica , dan a la noción de probabilidad un estatus subjetivo al considerarla como una medida del "grado de creencia" del individuo que evalúa la incertidumbre de una situación particular. La probabilidad epistémica o subjetiva a veces se llama creencia , en oposición al término casualidad para una probabilidad de propensión. Algunos ejemplos de probabilidad epistémica son asignar una probabilidad a la proposición de que una ley propuesta de la física es verdadera o determinar qué tan probable es que un sospechoso haya cometido un crimen, con base en la evidencia presentada. El uso de la probabilidad bayesiana plantea el debate filosófico sobre si puede contribuir a justificaciones válidas de la creencia . Los bayesianos señalan el trabajo de Ramsey [10] (p. 182) y de Finetti [8] (p. 103) como prueba de que las creencias subjetivas deben seguir las leyes de la probabilidad para ser coherentes. [22] La evidencia pone en duda que los humanos tengan creencias coherentes. [23] [24] El uso de la probabilidad bayesiana implica especificar una probabilidad previa . Esta puede obtenerse considerando si la probabilidad previa requerida es mayor o menor que una probabilidad de referencia [ aclaración necesaria ] asociada con un modelo de urna o un experimento mental . La cuestión es que para un problema dado, se podrían aplicar múltiples experimentos mentales, y elegir uno es una cuestión de criterio: diferentes personas pueden asignar diferentes probabilidades previas, conocido como el problema de la clase de referencia . El " problema del amanecer " proporciona un ejemplo.

Propensión

Los teóricos de la propensión piensan en la probabilidad como una propensión física, o disposición, o tendencia de un tipo dado de situación física a producir un resultado de un cierto tipo o a producir una frecuencia relativa a largo plazo de tal resultado. [25] Este tipo de probabilidad objetiva a veces se denomina "casualidad".

Las propensiones, o probabilidades, no son frecuencias relativas, sino supuestas causas de las frecuencias relativas estables observadas. Las propensiones se invocan para explicar por qué la repetición de un determinado tipo de experimento generará determinados tipos de resultados a tasas persistentes, que se conocen como propensiones o probabilidades. Los frecuentistas no pueden adoptar este enfoque, ya que las frecuencias relativas no existen para lanzamientos únicos de una moneda, sino solo para grandes conjuntos o colectivos (véase "caso único posible" en la tabla anterior). [2] En cambio, un propensitista puede utilizar la ley de los grandes números para explicar el comportamiento de las frecuencias de largo plazo. Esta ley, que es una consecuencia de los axiomas de probabilidad, dice que si (por ejemplo) se lanza una moneda repetidamente muchas veces, de tal manera que su probabilidad de que caiga cara sea la misma en cada lanzamiento, y los resultados sean probabilísticamente independientes, entonces la frecuencia relativa de cara será cercana a la probabilidad de cara en cada lanzamiento único. Esta ley permite que las frecuencias estables de largo plazo sean una manifestación de probabilidades invariantes de caso único . Además de explicar la aparición de frecuencias relativas estables, la idea de propensión está motivada por el deseo de dar sentido a las atribuciones de probabilidad de caso único en mecánica cuántica, como la probabilidad de desintegración de un átomo en particular en un momento particular.

El principal desafío que enfrentan las teorías de la propensión es decir exactamente qué significa la propensión (y luego, por supuesto, demostrar que la propensión así definida tiene las propiedades requeridas). Lamentablemente, en la actualidad ninguna de las teorías de la propensión reconocidas se acerca a superar este desafío.

Charles Sanders Peirce propuso una teoría de la propensión de la probabilidad . [26] [27] [28] [29] Una teoría de la propensión posterior fue propuesta por el filósofo Karl Popper , quien, sin embargo, tenía solo un conocimiento superficial de los escritos de C. S. Peirce. [26] [27] Popper señaló que el resultado de un experimento físico es producido por un cierto conjunto de "condiciones generadoras". Cuando repetimos un experimento, como dice el dicho, en realidad realizamos otro experimento con un conjunto (más o menos) similar de condiciones generadoras. Decir que un conjunto de condiciones generadoras tiene una propensión p de producir el resultado E significa que esas condiciones exactas, si se repiten indefinidamente, producirían una secuencia de resultados en la que E ocurrió con una frecuencia relativa límite p . Para Popper, entonces, un experimento determinista tendría una propensión 0 o 1 para cada resultado, ya que esas condiciones generadoras tendrían el mismo resultado en cada ensayo. En otras palabras, las propensiones no triviales (aquellas que difieren de 0 y 1) sólo existen para experimentos genuinamente no deterministas.

Varios otros filósofos, incluidos David Miller y Donald A. Gillies , han propuesto teorías de propensión algo similares a la de Popper.

Otros teóricos de la propensión (por ejemplo, Ronald Giere [30] ) no definen explícitamente las propensiones en absoluto, sino que más bien las ven como definidas por el papel teórico que desempeñan en la ciencia. Argumentaron, por ejemplo, que las magnitudes físicas como la carga eléctrica tampoco pueden definirse explícitamente en términos de cosas más básicas, sino solo en términos de lo que hacen (como atraer y repeler otras cargas eléctricas). De manera similar, la propensión es todo aquello que llena los diversos roles que desempeña la probabilidad física en la ciencia.

¿Qué papel desempeña la probabilidad física en la ciencia? ¿Cuáles son sus propiedades? Una propiedad central del azar es que, cuando se conoce, obliga a la creencia racional a tomar el mismo valor numérico. David Lewis llamó a esto el Principio Principal [1] (3.3 y 3.5) , un término que los filósofos han adoptado en su mayoría. Por ejemplo, supongamos que estamos seguros de que una moneda particular con sesgo tiene una propensión de 0,32 a caer cara cada vez que se lanza. ¿Cuál es entonces el precio correcto para una apuesta que paga $1 si la moneda cae cara y nada en caso contrario? Según el Principio Principal, el precio justo es 32 centavos.

Probabilidad lógica, epistémica e inductiva

Es un hecho ampliamente reconocido que el término "probabilidad" se utiliza a veces en contextos en los que no tiene nada que ver con la aleatoriedad física. Consideremos, por ejemplo, la afirmación de que la extinción de los dinosaurios probablemente fue causada por un gran meteorito que impactó la Tierra. Afirmaciones como "La hipótesis H es probablemente verdadera" se han interpretado en el sentido de que la evidencia empírica (E, por ejemplo) (actualmente disponible) apoya a H en un alto grado. Este grado de apoyo de H por parte de E se ha denominado probabilidad lógica , o epistémica , o inductiva de H dado E.

Las diferencias entre estas interpretaciones son más bien pequeñas y pueden parecer intrascendentes. Uno de los principales puntos de desacuerdo radica en la relación entre probabilidad y creencia. Las probabilidades lógicas se conciben (por ejemplo, en el Tratado de probabilidad de Keynes [12] ) como relaciones lógicas objetivas entre proposiciones (u oraciones) y, por lo tanto, no dependen de ninguna manera de la creencia. Son grados de implicación (parcial) , o grados de consecuencia lógica , no grados de creencia . (Sin embargo, dictan grados adecuados de creencia, como se analiza más adelante). Frank P. Ramsey , por otro lado, era escéptico sobre la existencia de tales relaciones lógicas objetivas y argumentó que la probabilidad (evidencial) es "la lógica de la creencia parcial". [10] (p. 157) En otras palabras, Ramsey sostuvo que las probabilidades epistémicas simplemente son grados de creencia racional, en lugar de ser relaciones lógicas que simplemente restringen los grados de creencia racional.

Otro punto de desacuerdo se refiere a la unicidad de la probabilidad evidencial, en relación con un estado dado de conocimiento. Rudolf Carnap sostuvo, por ejemplo, que los principios lógicos siempre determinan una probabilidad lógica única para cualquier enunciado, en relación con cualquier conjunto de evidencias. Ramsey, en cambio, pensaba que si bien los grados de creencia están sujetos a algunas restricciones racionales (como, entre otras, los axiomas de probabilidad), estas restricciones por lo general no determinan un valor único. En otras palabras, las personas racionales pueden diferir un poco en sus grados de creencia, incluso si todas tienen la misma información.

Predicción

Una explicación alternativa de la probabilidad enfatiza el papel de la predicción : predecir observaciones futuras sobre la base de observaciones pasadas, no de parámetros no observables. En su forma moderna, se basa principalmente en la teoría bayesiana. Esta era la función principal de la probabilidad antes del siglo XX, [31] pero cayó en desuso en comparación con el enfoque paramétrico, que modelaba los fenómenos como un sistema físico que se observaba con error, como en la mecánica celeste .

El enfoque predictivo moderno fue iniciado por Bruno de Finetti , con la idea central de la intercambiabilidad : que las observaciones futuras deberían comportarse como las observaciones pasadas. [31] Esta visión llegó a la atención del mundo anglófono con la traducción de 1974 del libro de de Finetti, [31] y desde entonces ha sido propuesta por estadísticos como Seymour Geisser .

Probabilidad axiomática

Las matemáticas de la probabilidad pueden desarrollarse sobre una base enteramente axiomática, independiente de cualquier interpretación: véanse los artículos sobre teoría de la probabilidad y axiomas de probabilidad para un tratamiento detallado.

Véase también

Referencias

  1. ^ abcd Hájek, Alan (21 de octubre de 2002), Zalta, Edward N. (ed.), Interpretaciones de probabilidad, The Stanford Encyclopedia of PhilosophyLa taxonomía de las interpretaciones de probabilidad que se presenta aquí es similar a la del artículo Interpretaciones de probabilidad, más extenso y completo, que aparece en la Stanford Encyclopedia of Philosophy en línea. Las referencias a ese artículo incluyen un número de sección entre paréntesis cuando corresponde. Un esquema parcial de ese artículo:
    • Sección 2: Criterios de adecuación para las interpretaciones de probabilidad
    • Sección 3:
      • 3.1 Probabilidad clásica
      • 3.2 Probabilidad lógica
      • 3.3 Probabilidad subjetiva
      • 3.4 Interpretaciones de frecuencia
      • 3.5 Interpretaciones de propensión
  2. ^ abc de Elía, Ramón; Laprise, René (2005). "Diversidad en las interpretaciones de la probabilidad: implicaciones para la predicción meteorológica". Monthly Weather Review . 133 (5): 1129–1143. Bibcode :2005MWRv..133.1129D. doi : 10.1175/mwr2913.1 . S2CID  123135127."Existen varias escuelas de pensamiento respecto a la interpretación de las probabilidades, ninguna de ellas libre de fallas, contradicciones internas o paradojas." (p. 1129) "No existen clasificaciones estándar de las interpretaciones de probabilidad, e incluso las más populares pueden sufrir variaciones sutiles de un texto a otro." (p. 1130) La clasificación en este artículo es representativa, al igual que los autores y las ideas reivindicadas para cada clasificación.
  3. ^ Venn, John (1876). La lógica del azar. Londres: MacMillan.
  4. ^ Reichenbach, Hans (1948). La teoría de la probabilidad, una investigación sobre los fundamentos lógicos y matemáticos del cálculo de la probabilidad . Prensa de la Universidad de California.Traducción al inglés del original en alemán de 1935. ASIN: B000R0D5MS
  5. ^ Mises, Richard (1981). Probabilidad, estadística y verdad . Nueva York: Dover Publications. ISBN 978-0-486-24214-9.Traducción al inglés de la tercera edición alemana de 1951, que se publicó 30 años después de la primera edición alemana.
  6. ^ de Rowbottom, Darrell (2015). Probabilidad . Cambridge: Polity. ISBN 978-0745652573.
  7. ^ ab Laplace, PS, 1814, edición inglesa 1951, Un ensayo filosófico sobre probabilidades, Nueva York: Dover Publications Inc.
  8. ^ ab de Finetti, Bruno (1964). "La previsión: sus leyes lógicas, sus fuentes subjetivas". En Kyburg, HE (ed.). Estudios sobre probabilidad subjetiva . HE Smokler. Nueva York: Wiley. págs. 93-158.Traducción del original francés de 1937 con notas posteriores añadidas.
  9. ^ ab Savage, LJ (1954). Los fundamentos de la estadística . Nueva York: John Wiley & Sons, Inc. ISBN 978-0-486-62349-8.
  10. ^ abc Ramsey, FP (1931). "Capítulo VII, Verdad y probabilidad (1926)" (PDF) . En Braithwaite, RB (ed.). Fundamentos de las matemáticas y otros ensayos lógicos . Londres: Kegan, Paul, Trench, Trubner & Co. pp. 156–198 . Consultado el 15 de agosto de 2013 .Contiene tres capítulos (ensayos) de Ramsey. La versión electrónica contiene sólo esos tres.
  11. ^ Cox, Richard Threlkeld (1961). El álgebra de la inferencia probable . Baltimore: Johns Hopkins Press.
  12. ^ ab Keynes, John Maynard (1921). Tratado sobre probabilidad. MacMillan . Consultado el 15 de agosto de 2013 .
  13. ^ Carnap, Rudolph (1950). Fundamentos lógicos de la probabilidad . Chicago: University of Chicago Press.Carnap acuñó los conceptos de "probabilidad 1 " y "probabilidad 2 " para la probabilidad evidencial y física, respectivamente.
  14. ^ Gillies, Donald (2000). Teorías filosóficas de la probabilidad . Londres, Nueva York: Routledge. ISBN 978-0415182768.
  15. ^ Fermat y Pascal sobre la probabilidad (@ socsci.uci.edu)
  16. ^ Laszlo E. Szabo, Una interpretación fisicalista de la probabilidad Archivado el 4 de marzo de 2016 en Wayback Machine. (Charla presentada en el Seminario de Filosofía de la Ciencia, Eötvös, Budapest, 8 de octubre de 2001).
  17. ^ Laszlo E. Szabo, Cosas objetivas de tipo probabilístico con y sin indeterminismo objetivo, Estudios de historia y filosofía de la física moderna 38 (2007) 626–634 ( Preimpresión )
  18. ^ Spanos, Aris (1986). Fundamentos estadísticos de la modelización econométrica . Cambridge Nueva York: Cambridge University Press. ISBN 978-0521269124.
  19. ^ Simon French; John Maule; Nadia Papamichail (2009). Decision Behaviour, Analysis and Support [Comportamiento de decisión, análisis y apoyo]. Cambridge University Press. pág. 221. ISBN 978-1-139-48098-7.
  20. ^ Nils-Eric Sahlin (2013). "2. Sobre creencias de orden superior". En JP Dubucs (ed.). Filosofía de la probabilidad . Springer. p. 30. ISBN 978-94-015-8208-7.
  21. ^ Freedman, David y Philip B. Stark (2003) "¿Cuál es la probabilidad de un terremoto?" Ciencia de los terremotos y riesgo sísmico.
  22. ^ Jaynes, ET (2003). Probability theory the logic of science [Teoría de la probabilidad: la lógica de la ciencia] . Cambridge, Reino Unido. Nueva York, NY: Cambridge University Press. ISBN. 978-0521592710.
  23. ^ Kahneman, Daniel (2011). Pensar rápido, pensar despacio . Nueva York: Farrar, Straus and Giroux. ISBN 978-0374275631.El libro contiene numerosos ejemplos de la diferencia entre el pensamiento idealizado y el real. “Cuando se les pide que juzguen la probabilidad, la gente en realidad juzga otra cosa y cree que ha juzgado la probabilidad” (p. 98).
  24. ^ Grove, William M.; Meehl, Paul E. (1996). "Eficiencia comparativa de los procedimientos de predicción informales (subjetivos, impresionistas) y formales (mecánicos, algorítmicos): la controversia clínico-estadística" (PDF) . Psicología, políticas públicas y derecho . 2 (2): 293–332. CiteSeerX 10.1.1.471.592 . doi :10.1037/1076-8971.2.2.293. Archivado desde el original (PDF) el 30 de octubre de 2011. Las decisiones estadísticas son consistentemente superiores a las decisiones subjetivas de los expertos.
  25. ^ Peterson, Martin (2009). Introducción a la teoría de la decisión . Cambridge, Reino Unido. Nueva York: Cambridge University Press. pág. 140. ISBN. 978-0521716543.
  26. ^ ab Miller, Richard W. (1975). "Propensión: ¿Popper o Peirce?". British Journal for the Philosophy of Science . 26 (2): 123–132. doi :10.1093/bjps/26.2.123.
  27. ^ ab Haack, Susan ; Kolenda, Konstantin, Konstantin; Kolenda (1977). "Dos falibilistas en busca de la verdad". Actas de la Sociedad Aristotélica . 51 (volúmenes suplementarios): 63–104. doi :10.1093/aristoteliansupp/51.1.63. JSTOR  4106816.
  28. ^ Burks, Arthur W. (1978). Chance, Cause and Reason: An Inquiry into the Nature of Scientific Evidence [Casualidad, causa y razón: una investigación sobre la naturaleza de la evidencia científica]. University of Chicago Press. 694 páginas. ISBN 978-0-226-08087-1.
  29. ^ Peirce, Charles Sanders y Burks, Arthur W., ed. (1958), Collected Papers of Charles Sanders Peirce, volúmenes 7 y 8, Harvard University Press, Cambridge, MA, también edición de Belnap Press (de Harvard University Press), vols. 7-8 encuadernados juntos, 798 páginas, en línea a través de Intelex, reimpreso en 1998 Thoemmes Continuum.
  30. ^ Ronald N. Giere (1973). "Probabilidades objetivas de caso único y fundamentos de la estadística". Estudios de lógica y fundamentos de las matemáticas . Vol. 73. Elsevier . págs. 467–483. doi :10.1016/S0049-237X(09)70380-5. ISBN. 978-0-444-10491-5.
  31. ^ abc Geisser, Seymour (1993). Inferencia predictiva. CRC Press. ISBN 978-0-412-03471-8.

Lectura adicional

Enlaces externos