stringtranslate.com

Interpretaciones de probabilidad

La palabra probabilidad se ha utilizado de diversas maneras desde que se aplicó por primera vez al estudio matemático de los juegos de azar . ¿La probabilidad mide la tendencia física real de que algo ocurra, o es una medida de cuán fuertemente uno cree que ocurrirá, o se basa en ambos elementos? Al responder a estas preguntas, los matemáticos interpretan los valores de probabilidad de la teoría de la probabilidad .

Hay dos categorías amplias [1] [2] de interpretaciones de probabilidad que pueden denominarse probabilidades "físicas" y "evidenciales". Las probabilidades físicas, que también reciben el nombre de probabilidades objetivas o de frecuencia , están asociadas a sistemas físicos aleatorios como las ruedas de la ruleta, el lanzamiento de dados y los átomos radiactivos. En tales sistemas, un tipo determinado de evento (como un dado que arroja un seis) tiende a ocurrir a un ritmo persistente, o "frecuencia relativa", en una larga serie de pruebas. Las probabilidades físicas explican, o se invocan para explicar, estas frecuencias estables. Los dos tipos principales de teoría de la probabilidad física son las cuentas frecuentistas (como las de Venn, [3] Reichenbach [4] y von Mises) [5] y las cuentas de propensión (como las de Popper, Miller, Giere y Fetzer). [6]

La probabilidad evidencial, también llamada probabilidad bayesiana , se puede asignar a cualquier afirmación, incluso cuando no interviene ningún proceso aleatorio, como una forma de representar su plausibilidad subjetiva, o el grado en que la afirmación está respaldada por la evidencia disponible. En la mayoría de los casos, las probabilidades probatorias se consideran grados de creencia, definidos en términos de disposiciones para apostar con ciertas probabilidades. Las cuatro interpretaciones evidenciales principales son la interpretación clásica (por ejemplo, de Laplace) [7] , la interpretación subjetiva ( de Finetti [8] y Savage), [9] la interpretación epistémica o inductiva ( Ramsey , [10] Cox ) [11] y la interpretación lógica ( Keynes [12] y Carnap ). [13] También hay interpretaciones evidenciales de la probabilidad que cubren grupos, que a menudo se etiquetan como "intersubjetivos" (propuestas por Gillies [14] y Rowbottom). [6]

Algunas interpretaciones de la probabilidad están asociadas con enfoques de inferencia estadística , incluidas las teorías de estimación y prueba de hipótesis . La interpretación física, por ejemplo, la adoptan los seguidores de los métodos estadísticos "frecuentistas", como Ronald Fisher [ dudoso ] , Jerzy Neyman y Egon Pearson . Los estadísticos de la escuela bayesiana opuesta suelen aceptar la interpretación de la frecuencia cuando tiene sentido (aunque no como definición), pero hay menos acuerdo con respecto a las probabilidades físicas. Los bayesianos consideran que el cálculo de probabilidades probatorias es válido y necesario en estadística. Este artículo, sin embargo, se centra en las interpretaciones de la probabilidad más que en las teorías de la inferencia estadística.

La terminología de este tema es bastante confusa, en parte porque las probabilidades se estudian en una variedad de campos académicos. La palabra "frecuentista" es especialmente complicada. Para los filósofos se refiere a una teoría particular de la probabilidad física, que ha sido más o menos abandonada. Para los científicos, por otra parte, la " probabilidad frecuentista " es sólo otro nombre para la probabilidad física (u objetiva). Quienes promueven la inferencia bayesiana ven la " estadística frecuentista " como un enfoque de la inferencia estadística que se basa en la interpretación frecuencial de la probabilidad, generalmente basándose en la ley de los grandes números y caracterizada por lo que se llama 'Prueba de significancia de hipótesis nulas' (NHST). Además, la palabra "objetiva", aplicada a la probabilidad, a veces significa exactamente lo que "física" significa aquí, pero también se usa para probabilidades evidenciales que están fijadas por restricciones racionales, como las probabilidades lógicas y epistémicas.

Existe un acuerdo unánime en que la estadística depende de alguna manera de la probabilidad. Pero en cuanto a qué es la probabilidad y cómo se relaciona con la estadística, rara vez ha habido un desacuerdo tan completo y una ruptura de la comunicación desde la Torre de Babel. Sin duda, gran parte del desacuerdo es meramente terminológico y desaparecería si se realizara un análisis suficientemente profundo.

—  Salvaje, 1954, pág. 2 [9]

Filosofía

La filosofía de la probabilidad presenta problemas principalmente en cuestiones de epistemología y la incómoda interfaz entre los conceptos matemáticos y el lenguaje ordinario tal como lo utilizan los no matemáticos. La teoría de la probabilidad es un campo de estudio establecido en matemáticas. Tiene su origen en la correspondencia sobre las matemáticas de los juegos de azar entre Blaise Pascal y Pierre de Fermat en el siglo XVII, [15] y fue formalizada y convertida en axiomática como una rama distinta de las matemáticas por Andrey Kolmogorov en el siglo XX. En forma axiomática, los enunciados matemáticos sobre la teoría de la probabilidad conllevan el mismo tipo de confianza epistemológica dentro de la filosofía de las matemáticas que comparten otros enunciados matemáticos. [16] [17]

El análisis matemático se originó en observaciones del comportamiento de equipos de juego como naipes y dados , que están diseñados específicamente para introducir elementos aleatorios y ecualizados; en términos matemáticos, son sujetos de indiferencia . Ésta no es la única forma en que se utilizan los enunciados probabilísticos en el lenguaje humano común: cuando la gente dice que " probablemente lloverá ", normalmente no quieren decir que el resultado de lluvia versus no lluvia sea un factor aleatorio que las probabilidades actualmente favorecen; en cambio, tal vez sea mejor entender tales declaraciones como si calificaran su expectativa de lluvia con cierto grado de confianza. Asimismo, cuando se escribe que "la explicación más probable" del nombre de Ludlow, Massachusetts "es que lleva el nombre de Roger Ludlow ", lo que se quiere decir aquí no es que Roger Ludlow sea favorecido por un factor aleatorio, sino más bien que ésta es la explicación más plausible de la evidencia, que admite otras explicaciones menos probables.

Thomas Bayes intentó proporcionar una lógica que pudiera manejar distintos grados de confianza; Como tal, la probabilidad bayesiana es un intento de reformular la representación de enunciados probabilísticos como una expresión del grado de confianza con el que se mantienen las creencias que expresan.

Aunque la probabilidad inicialmente tuvo motivaciones algo mundanas, su influencia y uso modernos están muy extendidos, desde la medicina basada en evidencia , pasando por Six Sigma , hasta la prueba comprobable probabilísticamente y el panorama de la teoría de cuerdas .

Definición clásica

El primer intento de rigor matemático en el campo de la probabilidad, defendido por Pierre-Simon Laplace , se conoce hoy como definición clásica . Desarrollado a partir de estudios de juegos de azar (como tirar los dados ), afirma que la probabilidad se comparte equitativamente entre todos los resultados posibles, siempre que estos resultados puedan considerarse igualmente probables. [1] (3.1)

La teoría del azar consiste en reducir todos los acontecimientos de la misma especie a un cierto número de casos igualmente posibles, es decir, a aquellos sobre los cuales podemos estar igualmente indecisos en cuanto a su existencia, y en determinar el número de casos. favorable al evento cuya probabilidad se busca. La relación entre este número y el de todos los casos posibles es la medida de esta probabilidad, que es, por tanto, simplemente una fracción cuyo numerador es el número de casos favorables y cuyo denominador es el número de todos los casos posibles.

—  Pierre-Simon Laplace, Un ensayo filosófico sobre las probabilidades [7]
La definición clásica de probabilidad funciona bien para situaciones con sólo un número finito de resultados igualmente probables.

Esto se puede representar matemáticamente de la siguiente manera: si un experimento aleatorio puede dar como resultado N resultados mutuamente excluyentes e igualmente probables y si N A de estos resultados resultan en la ocurrencia del evento A , la probabilidad de A se define por

Hay dos limitaciones claras a la definición clásica. [18] En primer lugar, es aplicable sólo a situaciones en las que sólo hay un número "finito" de resultados posibles. Pero algunos experimentos aleatorios importantes, como lanzar una moneda al aire hasta que salga cara, dan lugar a un conjunto infinito de resultados. Y en segundo lugar, requiere una determinación a priori de que todos los resultados posibles son igualmente probables sin caer en la trampa del razonamiento circular al basarse en la noción de probabilidad. (Al utilizar la terminología "podemos estar igualmente indecisos", Laplace asumió, mediante lo que se ha llamado el " principio de razón insuficiente ", que todos los resultados posibles son igualmente probables si no hay ninguna razón conocida para suponer lo contrario, para lo cual no hay ninguna justificación obvia [19] [20] )

Frecuentismo

Para los frecuentistas, la probabilidad de que la bola caiga en cualquier tronera sólo puede determinarse mediante ensayos repetidos en los que el resultado observado converge con la probabilidad subyacente a largo plazo .

Los frecuentistas postulan que la probabilidad de un evento es su frecuencia relativa a lo largo del tiempo, [1] (3.4), es decir, su frecuencia relativa de ocurrencia después de repetir un proceso un gran número de veces en condiciones similares. Esto también se conoce como probabilidad aleatoria. Se supone que los acontecimientos están regidos por algunos fenómenos físicos aleatorios , que son fenómenos que son predecibles, en principio, con suficiente información (ver determinismo ); o fenómenos que son esencialmente impredecibles. Ejemplos del primer tipo incluyen lanzar dados o hacer girar una ruleta ; un ejemplo del segundo tipo es la desintegración radiactiva . En el caso de lanzar una moneda al aire, los frecuentistas dicen que la probabilidad de obtener cara es 1/2, no porque haya dos resultados igualmente probables sino porque series repetidas de un gran número de ensayos demuestran que la frecuencia empírica converge al límite 1 /2 cuando el número de pruebas llega al infinito.

Si denotamos por el número de ocurrencias de un evento en los ensayos, entonces si decimos que .

La visión frecuentista tiene sus propios problemas. Por supuesto, es imposible realizar una infinidad de repeticiones de un experimento aleatorio para determinar la probabilidad de un evento. Pero si sólo se realiza un número finito de repeticiones del proceso, aparecerán diferentes frecuencias relativas en diferentes series de ensayos. Si estas frecuencias relativas van a definir la probabilidad, la probabilidad será ligeramente diferente cada vez que se mida. Pero la probabilidad real debería ser la misma siempre. Si reconocemos el hecho de que sólo podemos medir una probabilidad con algún error de medición asociado, todavía nos metemos en problemas ya que el error de medición sólo puede expresarse como una probabilidad, el concepto mismo que estamos tratando de definir. Esto hace que incluso la definición de frecuencia sea circular; consulte, por ejemplo, "¿Cuál es la probabilidad de que se produzca un terremoto?" [21]

Subjetivismo

Los subjetivistas, también conocidos como bayesianos o seguidores de la probabilidad epistémica , dan a la noción de probabilidad un estatus subjetivo al considerarla como una medida del "grado de creencia" del individuo que evalúa la incertidumbre de una situación particular. La probabilidad epistémica o subjetiva a veces se denomina credibilidad , a diferencia del término azar para una probabilidad de propensión. Algunos ejemplos de probabilidad epistémica son asignar una probabilidad a la proposición de que una ley de la física propuesta es verdadera o determinar qué tan probable es que un sospechoso haya cometido un delito, con base en la evidencia presentada. El uso de la probabilidad bayesiana plantea el debate filosófico sobre si puede aportar justificaciones válidas de la creencia . Los bayesianos señalan el trabajo de Ramsey [10] (p. 182) y de Finetti [8] (p. 103) como prueba de que las creencias subjetivas deben seguir las leyes de la probabilidad para que sean coherentes. [22] La evidencia arroja dudas de que los humanos tengan creencias coherentes. [23] [24] El uso de la probabilidad bayesiana implica especificar una probabilidad previa . Esto se puede obtener considerando si la probabilidad previa requerida es mayor o menor que una probabilidad de referencia [ se necesita aclaración ] asociada con un modelo de urna o un experimento mental . La cuestión es que, para un problema determinado, se podrían aplicar múltiples experimentos mentales, y elegir uno es una cuestión de criterio: diferentes personas pueden asignar diferentes probabilidades previas, lo que se conoce como problema de clase de referencia . El " problema del amanecer " es un ejemplo.

Propensión

Los teóricos de la propensión piensan en la probabilidad como una propensión física, o disposición, o tendencia de un tipo dado de situación física a producir un resultado de cierto tipo o a producir una frecuencia relativa a largo plazo de tal resultado. [25] Este tipo de probabilidad objetiva a veces se denomina "azar".

Las propensiones, o posibilidades, no son frecuencias relativas, sino supuestas causas de las frecuencias relativas estables observadas. Se invocan las propensiones para explicar por qué la repetición de un determinado tipo de experimento generará determinados tipos de resultados a tasas persistentes, lo que se conoce como propensiones o posibilidades. Los frecuentistas no pueden adoptar este enfoque, ya que las frecuencias relativas no existen para lanzamientos únicos de una moneda, sino sólo para conjuntos o colectivos grandes (ver "caso único posible" en la tabla anterior). [2] Por el contrario, un propensitista puede utilizar la ley de los grandes números para explicar el comportamiento de las frecuencias de largo plazo. Esta ley, que es una consecuencia de los axiomas de probabilidad, dice que si (por ejemplo) se lanza una moneda repetidamente muchas veces, de tal manera que su probabilidad de que salga cara sea la misma en cada lanzamiento, y los resultados sean probabilísticamente independiente, entonces la frecuencia relativa de caras será cercana a la probabilidad de que salga cara en cada lanzamiento. Esta ley permite que las frecuencias estables de largo plazo sean una manifestación de probabilidades invariantes de caso único . Además de explicar la aparición de frecuencias relativas estables, la idea de propensión está motivada por el deseo de dar sentido a las atribuciones de probabilidad de caso único en la mecánica cuántica, como la probabilidad de desintegración de un átomo particular en un momento particular.

El principal desafío que enfrentan las teorías de la propensión es decir exactamente qué significa propensión. (Y luego, por supuesto, mostrar que la propensión así definida tiene las propiedades requeridas.) En la actualidad, desafortunadamente, ninguna de las explicaciones bien reconocidas de la propensión se acerca a enfrentar este desafío.

Charles Sanders Peirce propuso una teoría de la probabilidad de propensión . [26] [27] [28] [29] Una teoría posterior de la propensión fue propuesta por el filósofo Karl Popper , quien, sin embargo, tenía sólo un ligero conocimiento de los escritos de C. S. Peirce. [26] [27] Popper señaló que el resultado de un experimento físico es producido por un cierto conjunto de "condiciones generadoras". Cuando repetimos un experimento, como dice el refrán, en realidad realizamos otro experimento con un conjunto (más o menos) similar de condiciones generadoras. Decir que un conjunto de condiciones generadoras tiene propensión p a producir el resultado E significa que esas condiciones exactas, si se repitieran indefinidamente, producirían una secuencia de resultados en la que E ocurriera con una frecuencia relativa límite p . Entonces, para Popper, un experimento determinista tendría una propensión 0 o 1 para cada resultado, ya que esas condiciones generadoras tendrían el mismo resultado en cada ensayo. En otras palabras, las propensiones no triviales (aquellas que difieren de 0 y 1) sólo existen para experimentos genuinamente no deterministas.

Varios otros filósofos, incluidos David Miller y Donald A. Gillies , han propuesto teorías de la propensión algo similares a las de Popper.

Otros teóricos de la propensión (por ejemplo, Ronald Giere [30] ) no definen explícitamente las propensiones en absoluto, sino que ven la propensión definida por el papel teórico que desempeña en la ciencia. Sostuvieron, por ejemplo, que magnitudes físicas como la carga eléctrica tampoco pueden definirse explícitamente en términos de cosas más básicas, sino sólo en términos de lo que hacen (como atraer y repeler otras cargas eléctricas). De manera similar, la propensión es todo lo que cumple los diversos roles que desempeña la probabilidad física en la ciencia.

¿Qué papeles juega la probabilidad física en la ciencia? ¿Cuáles son sus propiedades? Una propiedad central del azar es que, cuando se conoce, obliga a la creencia racional a tomar el mismo valor numérico. David Lewis llamó a esto el Principio Principal , [1] (3.3 y 3.5), un término que la mayoría de los filósofos han adoptado. Por ejemplo, supongamos que está seguro de que una moneda sesgada en particular tiene una propensión de 0,32 a salir cara cada vez que se lanza. ¿Cuál es entonces el precio correcto para una apuesta que paga $1 si la moneda sale cara y nada en caso contrario? Según el Principio Principal, el precio justo es de 32 centavos.

Probabilidad lógica, epistémica e inductiva

Es ampliamente reconocido que el término "probabilidad" se utiliza a veces en contextos en los que no tiene nada que ver con la aleatoriedad física. Consideremos, por ejemplo, la afirmación de que la extinción de los dinosaurios probablemente fue causada por el impacto de un gran meteorito contra la Tierra. Se ha interpretado que afirmaciones como "La hipótesis H es probablemente cierta" significan que la evidencia empírica (actualmente disponible) (digamos E) apoya H en un alto grado. Este grado de apoyo de H por E se ha denominado probabilidad lógica , epistémica o inductiva de H dado E.

Las diferencias entre estas interpretaciones son bastante pequeñas y pueden parecer intrascendentes. Uno de los principales puntos de desacuerdo reside en la relación entre probabilidad y creencia. Las probabilidades lógicas se conciben (por ejemplo en el Tratado sobre la probabilidad de Keynes [12] ) como relaciones objetivas y lógicas entre proposiciones (u oraciones) y, por tanto, no dependen de ninguna manera de la creencia. Son grados de implicación (parcial) , o grados de consecuencia lógica , no grados de creencia . (Sin embargo, dictan grados adecuados de creencia, como se analiza más adelante.) Frank P. Ramsey , por otra parte, se mostró escéptico acerca de la existencia de tales relaciones lógicas objetivas y argumentó que la probabilidad (evidencial) es "la lógica de la creencia". creencia parcial". [10] (p. 157) En otras palabras, Ramsey sostuvo que las probabilidades epistémicas son simplemente grados de creencia racional, en lugar de ser relaciones lógicas que simplemente limitan grados de creencia racional.

Otro punto de desacuerdo se refiere a la unicidad de la probabilidad probatoria, en relación con un estado de conocimiento dado. Rudolf Carnap sostuvo, por ejemplo, que los principios lógicos siempre determinan una probabilidad lógica única para cualquier afirmación, en relación con cualquier conjunto de evidencia. Ramsey, por el contrario, pensaba que si bien los grados de creencia están sujetos a algunas restricciones racionales (como, entre otros, los axiomas de probabilidad), estas restricciones generalmente no determinan un valor único. En otras palabras, las personas racionales pueden diferir algo en sus grados de creencia, incluso si todos tienen la misma información.

Predicción

Una explicación alternativa de la probabilidad enfatiza el papel de la predicción : predecir observaciones futuras sobre la base de observaciones pasadas, no sobre parámetros no observables. En su forma moderna, se encuentra principalmente en la vena bayesiana. Esta era la función principal de la probabilidad antes del siglo XX, [31] pero perdió popularidad en comparación con el enfoque paramétrico, que modelaba los fenómenos como un sistema físico que se observaba con error, como en la mecánica celeste .

El enfoque predictivo moderno fue iniciado por Bruno de Finetti , con la idea central de la intercambiabilidad : que las observaciones futuras deberían comportarse como observaciones pasadas. [31] Este punto de vista llamó la atención del mundo anglófono con la traducción de 1974 del libro de de Finetti, [31] y desde entonces ha sido propuesto por estadísticos como Seymour Geisser .

probabilidad axiomática

Las matemáticas de la probabilidad se pueden desarrollar sobre una base enteramente axiomática que es independiente de cualquier interpretación: consulte los artículos sobre teoría de la probabilidad y axiomas de probabilidad para un tratamiento detallado.

Ver también

Referencias

  1. ^ abcd Hájek, Alan (21 de octubre de 2002), Zalta, Edward N. (ed.), Interpretaciones de la probabilidad, The Stanford Encyclopedia of PhilosophyLa taxonomía de las interpretaciones de probabilidad que se ofrece aquí es similar a la del artículo más extenso y completo sobre Interpretaciones de probabilidad de la Enciclopedia de Filosofía de Stanford en línea. Las referencias a ese artículo incluyen un número de sección entre paréntesis cuando corresponda. Un resumen parcial de ese artículo:
    • Sección 2: Criterios de adecuación para las interpretaciones de probabilidad
    • Seccion 3:
      • 3.1 Probabilidad clásica
      • 3.2 Probabilidad lógica
      • 3.3 Probabilidad subjetiva
      • 3.4 Interpretaciones de frecuencia
      • 3.5 Interpretaciones de propensión
  2. ^ abc de Elía, Ramón; Laprise, René (2005). "Diversidad en interpretaciones de probabilidad: implicaciones para la previsión meteorológica". Revisión meteorológica mensual . 133 (5): 1129-1143. Código Bib : 2005MWRv..133.1129D. doi : 10.1175/mwr2913.1 . S2CID  123135127."Existen varias escuelas de pensamiento respecto a la interpretación de probabilidades, ninguna de ellas exenta de fallas, contradicciones internas o paradojas". (p. 1129) "No existen clasificaciones estándar de interpretaciones de probabilidad, e incluso las más populares pueden sufrir variaciones sutiles de un texto a otro". (p. 1130) La clasificación en este artículo es representativa, al igual que los autores y las ideas reivindicadas para cada clasificación.
  3. ^ Venn, Juan (1876). La lógica del azar. Londres: MacMillan.
  4. ^ Reichenbach, Hans (1948). La teoría de la probabilidad, una investigación sobre los fundamentos lógicos y matemáticos del cálculo de probabilidad . Prensa de la Universidad de California.Traducción al inglés del original alemán de 1935. ASIN: B000R0D5MS
  5. ^ Mises, Richard (1981). Probabilidad, estadística y verdad . Nueva York: Publicaciones de Dover. ISBN 978-0-486-24214-9.Traducción al inglés de la tercera edición alemana de 1951 que se publicó 30 años después de la primera edición alemana.
  6. ^ ab Rowbottom, Darrell (2015). Probabilidad . Cambridge: política. ISBN 978-0745652573.
  7. ^ ab Laplace, PS, 1814, edición en inglés 1951, Un ensayo filosófico sobre probabilidades, Nueva York: Dover Publications Inc.
  8. ^ ab de Finetti, Bruno (1964). "Previsión: sus leyes lógicas, sus fuentes subjetivas". En Kyburg, HE (ed.). Estudios de probabilidad subjetiva . Él fumador. Nueva York: Wiley. págs. 93-158.Traducción del original francés de 1937 con notas posteriores añadidas.
  9. ^ ab Savage, LJ (1954). Los fundamentos de la estadística . Nueva York: John Wiley & Sons, Inc. ISBN 978-0-486-62349-8.
  10. ^ abc Ramsey, FP (1931). «Capítulo VII, Verdad y Probabilidad (1926)» (PDF) . En Braithwaite, RB (ed.). Fundamentos de Matemáticas y Otros Ensayos Lógicos . Londres: Kegan, Paul, Trench, Trubner & Co. págs . Consultado el 15 de agosto de 2013 .Contiene tres capítulos (ensayos) de Ramsey. La versión electrónica contiene sólo esos tres.
  11. ^ Cox, Richard Threlkeld (1961). El álgebra de la inferencia probable . Baltimore: Prensa de Johns Hopkins.
  12. ^ ab Keynes, John Maynard (1921). Tratado sobre probabilidad. MacMillan . Consultado el 15 de agosto de 2013 .
  13. ^ Carnap, Rudolph (1950). Fundamentos lógicos de la probabilidad . Chicago: Prensa de la Universidad de Chicago.Carnap acuñó la noción de "probabilidad 1 " y "probabilidad 2 " para la probabilidad física y probatoria, respectivamente.
  14. ^ Gillies, Donald (2000). Teorías filosóficas de la probabilidad . Londres Nueva York: Routledge. ISBN 978-0415182768.
  15. ^ Fermat y Pascal sobre la probabilidad (@ socsci.uci.edu)
  16. ^ Laszlo E. Szabo, Una interpretación fisicalista de la probabilidad Archivado el 4 de marzo de 2016 en Wayback Machine (Charla presentada en el Seminario de Filosofía de la Ciencia, Eötvös, Budapest, 8 de octubre de 2001).
  17. ^ Laszlo E. Szabo, Cosas objetivas parecidas a probabilidades con y sin indeterminismo objetivo, Estudios de Historia y Filosofía de la Física Moderna 38 (2007) 626–634 ( preimpresión )
  18. ^ Spanos, Aris (1986). Fundamentos estadísticos de la modelización econométrica . Cambridge Nueva York: Cambridge University Press. ISBN 978-0521269124.
  19. ^ Simón francés; Juan Maule; Nadia Papamichail (2009). Comportamiento de Decisión, Análisis y Soporte. Prensa de la Universidad de Cambridge. pag. 221.ISBN 978-1-139-48098-7.
  20. ^ Nils-Eric Sahlin (2013). "2. Sobre creencias de orden superior". En JP Dubucs (ed.). Filosofía de la probabilidad . Saltador. pag. 30.ISBN 978-94-015-8208-7.
  21. ^ Freedman, David y Philip B. Stark (2003) "¿Cuál es la probabilidad de que se produzca un terremoto?" Ciencia sísmica y riesgo sísmico.
  22. ^ Jaynes, et (2003). Teoría de la probabilidad la lógica de la ciencia . Cambridge, Reino Unido Nueva York, Nueva York: Cambridge University Press. ISBN 978-0521592710.
  23. ^ Kahneman, Daniel (2011). Pensando, rápido y lento . Nueva York: Farrar, Straus y Giroux. ISBN 978-0374275631.El libro contiene numerosos ejemplos de la diferencia entre el pensamiento idealizado y el real. "[C]uando se les pide que juzguen la probabilidad, las personas en realidad juzgan otra cosa y creen que han juzgado la probabilidad". (pág. 98)
  24. ^ Grove, William M.; Meehl, Paul E. (1996). "Eficiencia comparada de procedimientos de predicción informales (subjetivos, impresionistas) y formales (mecánicos, algorítmicos): la controversia clínico-estadística" (PDF) . Psicología, Políticas Públicas y Derecho . 2 (2): 293–332. CiteSeerX 10.1.1.471.592 . doi :10.1037/1076-8971.2.2.293. Archivado desde el original (PDF) el 30 de octubre de 2011. Las decisiones estadísticas son consistentemente superiores a las decisiones subjetivas de los expertos.
  25. ^ Peterson, Martín (2009). Una introducción a la teoría de la decisión . Cambridge, Reino Unido Nueva York: Cambridge University Press. pag. 140.ISBN 978-0521716543.
  26. ^ ab Miller, Richard W. (1975). "Propensión: ¿Popper o Peirce?". Revista británica de filosofía de la ciencia . 26 (2): 123-132. doi :10.1093/bjps/26.2.123.
  27. ^ ab Haack, Susan ; Kolenda, Konstantin, Konstantin; Kolenda (1977). "Dos falibilistas en busca de la verdad". Actas de la Sociedad Aristotélica . 51 (volúmenes complementarios): 63–104. doi : 10.1093/aristoteliansupp/51.1.63. JSTOR  4106816.
  28. ^ Burks, Arthur W. (1978). Azar, causa y razón: una investigación sobre la naturaleza de la evidencia científica. Prensa de la Universidad de Chicago. págs.694 páginas. ISBN 978-0-226-08087-1.
  29. ^ Peirce, Charles Sanders y Burks, Arthur W., ed. (1958), Collected Papers of Charles Sanders Peirce, volúmenes 7 y 8, Harvard University Press, Cambridge, MA, también edición de Belnap Press (de Harvard University Press), vols. 7-8 encuadernados, 798 páginas, en línea a través de InteLex, reimpreso en 1998 Thoemmes Continuum.
  30. ^ Ronald N. Giere (1973). "Probabilidades objetivas de caso único y fundamentos de la estadística". Estudios de Lógica y Fundamentos de las Matemáticas . vol. 73. Elsevier . págs. 467–483. doi :10.1016/S0049-237X(09)70380-5. ISBN 978-0-444-10491-5.
  31. ^ abc Geisser, Seymour (1993). Inferencia predictiva. Prensa CRC. ISBN 978-0-412-03471-8.

Otras lecturas

enlaces externos