stringtranslate.com

Falacia de la tasa base

Un hospital que reciba más pacientes vacunados con COVID-19 que no vacunados podría sugerir que la vacuna es ineficaz, pero ese desequilibrio es de esperarse dentro de una población altamente vacunada. [1]

La falacia de la tasa base , también llamada negligencia de la tasa base [2] o sesgo de la tasa base , es un tipo de falacia en la que las personas tienden a ignorar la tasa base (p. ej., prevalencia general ) en favor de la información individualizadora (es decir, información que pertenece únicamente a a un caso concreto). [3] La negligencia de la tasa base es una forma específica de la negligencia de extensión más general .

También se denomina falacia del fiscal o falacia del abogado defensor cuando se aplica a los resultados de pruebas estadísticas (como las pruebas de ADN) en el contexto de procedimientos judiciales. Estos términos fueron introducidos por William C. Thompson y Edward Schumann en 1987, [4] [5] aunque se ha argumentado que su definición de la falacia del fiscal se extiende a muchas imputaciones adicionales inválidas de culpa o responsabilidad que no son analizables como errores en tasas base o teorema de Bayes . [6]

Paradoja del falso positivo

Un ejemplo de la falacia de la tasa base es la paradoja del falso positivo (también conocida como paradoja de la precisión ). Esta paradoja describe situaciones en las que hay más resultados falsos positivos que verdaderos positivos (esto significa que el clasificador tiene una precisión baja ). Por ejemplo, si una cámara de reconocimiento facial puede identificar a los delincuentes buscados con una precisión del 99%, pero analiza a 10.000 personas por día, la alta precisión se ve superada por la cantidad de pruebas, y la lista de delincuentes del programa probablemente tendrá muchos más falsos positivos que verdaderos. La probabilidad de un resultado positivo de la prueba está determinada no sólo por la precisión de la prueba sino también por las características de la población muestreada. [7] Cuando la prevalencia, la proporción de quienes padecen una determinada afección, es inferior a la tasa de falsos positivos de la prueba , incluso las pruebas que tienen un riesgo muy bajo de dar un falso positivo en un caso individual darán más falsos positivos que verdaderos positivos. en general . [8]

Es especialmente contrario a la intuición cuando se interpreta un resultado positivo en una prueba realizada en una población de baja prevalencia después de haber tratado con resultados positivos extraídos de una población de alta prevalencia. [8] Si la tasa de falsos positivos de la prueba es mayor que la proporción de la nueva población con la afección, entonces un administrador de la prueba cuya experiencia se haya extraído de las pruebas en una población de alta prevalencia puede concluir a partir de la experiencia que un resultado positivo de la prueba normalmente indica un sujeto positivo, cuando en realidad es mucho más probable que haya ocurrido un falso positivo.

Ejemplos

Ejemplo 1: enfermedad

Población de alta prevalencia

Imaginemos realizar una prueba de enfermedades infecciosas en una población A de 1000 personas, de las cuales el 40% están infectadas. La prueba tiene una tasa de falsos positivos del 5% (0,05) y una tasa de falsos negativos de cero. El resultado esperado de las 1000 pruebas en la población A sería:

Infectado y la prueba indica enfermedad ( verdadero positivo )
1000 ×40/100= 400 personas recibirían un verdadero positivo
No infectado y la prueba indica enfermedad (falso positivo)
1000 ×100 – 40/100× 0,05 = 30 personas recibirían un falso positivo
Las 570 pruebas restantes son correctamente negativas.

Entonces, en la población A , una persona que recibe una prueba positiva podría tener más del 93% de confianza (400/30 + 400) que indica correctamente infección.

Población de baja prevalencia

Consideremos ahora la misma prueba aplicada a la población B , de la cual sólo el 2% está infectado. El resultado esperado de 1000 pruebas en la población B sería:

Infectado y la prueba indica enfermedad (verdadero positivo)
1000 ×2/100= 20 personas recibirían un verdadero positivo
No infectado y la prueba indica enfermedad (falso positivo)
1000 ×100 – 2/100× 0,05 = 49 personas recibirían un falso positivo
Las 931 pruebas restantes son correctamente negativas.

En la población B , sólo 20 del total de 69 personas con un resultado positivo en la prueba están realmente infectadas. Entonces, la probabilidad de estar realmente infectado después de que a uno le dicen que está infectado es sólo del 29% (20/20 + 49) para una prueba que, por lo demás, parece tener una "precisión del 95%".

A un evaluador con experiencia en el grupo A podría resultarle paradójico que en el grupo B , un resultado que normalmente indicaba correctamente una infección ahora suele ser un falso positivo. La confusión de la probabilidad posterior de infección con la probabilidad previa de recibir un falso positivo es un error natural después de recibir un resultado de prueba que pone en peligro la salud.

Ejemplo 2: conductores ebrios

Imaginemos que un grupo de policías tiene unos alcoholímetros que muestran una falsa ebriedad en un 5% de los casos en los que el conductor está sobrio. Sin embargo, los alcoholímetros nunca dejan de detectar a una persona verdaderamente ebria. Uno de cada mil conductores conduce ebrio. Supongamos que los agentes de policía detienen a un conductor al azar para realizarle una prueba de alcoholemia. Indica que el conductor está ebrio. No se sabe más información sobre ellos.

Muchos estimarían que la probabilidad de que el conductor esté ebrio llega al 95%, pero la probabilidad correcta es de aproximadamente el 2%.

Una explicación para esto es la siguiente: en promedio, por cada 1.000 conductores examinados,

Por lo tanto, la probabilidad de que cualquier conductor entre los 1 + 49,95 = 50,95 resultados positivos de la prueba realmente esté ebrio es .

Sin embargo, la validez de este resultado depende de la validez del supuesto inicial de que el oficial de policía detuvo al conductor verdaderamente al azar y no por mala conducción. Si esa u otra razón no arbitraria para detener al conductor estaba presente, entonces el cálculo también implica la probabilidad de que un conductor ebrio conduzca de manera competente y un conductor no ebrio conduzca de manera (in)competente.

De manera más formal, se puede establecer la misma probabilidad de aproximadamente 0,02 utilizando el teorema de Bayes . El objetivo es encontrar la probabilidad de que el conductor esté ebrio dado que el alcoholímetro indicó que está ebrio, lo cual se puede representar como

donde D significa que el alcoholímetro indica que el conductor está ebrio. Usando el teorema de Bayes,

En este escenario se conoce la siguiente información:

y

Como puede verse en la fórmula, se necesita p ( D ) para el teorema de Bayes, que se puede calcular a partir de los valores anteriores utilizando la ley de probabilidad total :

lo que da

Al conectar estos números al teorema de Bayes, se encuentra que

que es la precisión de la prueba.

Ejemplo 3: Identificación de terroristas

En una ciudad de 1 millón de habitantes, que haya 100 terroristas y 999.900 no terroristas. Para simplificar el ejemplo, se supone que todas las personas presentes en la ciudad son habitantes. Por lo tanto, la tasa de probabilidad base de que un habitante de la ciudad seleccionado al azar sea terrorista es 0,0001, y la tasa de probabilidad base de que ese mismo habitante no sea terrorista es 0,9999. En un intento de atrapar a los terroristas, la ciudad instala un sistema de alarma con una cámara de vigilancia y un software de reconocimiento facial automático .

El software tiene dos tasas de fallo del 1%:

Supongamos ahora que un habitante activa la alarma. Alguien que cometiera la falacia de la tasa base inferiría que existe un 99% de probabilidad de que la persona detectada sea un terrorista. Aunque la inferencia parece tener sentido, en realidad es un mal razonamiento, y un cálculo a continuación mostrará que la probabilidad de que haya un terrorista en realidad está cerca del 1%, no cerca del 99%.

La falacia surge de confundir la naturaleza de dos tasas de fracaso diferentes. El 'número de no campanas por cada 100 terroristas' (P(¬B | T), o la probabilidad de que la campana no suene dado que el habitante es un terrorista) y el 'número de no terroristas por cada 100 campanas' (P (¬T | B), o la probabilidad de que el habitante no sea terrorista dado que suenan las campanas) son cantidades no relacionadas; uno no necesariamente iguala al otro, ni siquiera se acerca a él. Para demostrarlo, consideremos lo que sucedería si se instalara un sistema de alarma idéntico en una segunda ciudad sin ningún terrorista. Al igual que en la primera ciudad, la alarma suena para 1 de cada 100 habitantes no terroristas detectados, pero a diferencia de la primera ciudad, la alarma nunca suena para un terrorista. Por lo tanto, el 100% de todas las ocasiones en que suena la alarma son para no terroristas, pero ni siquiera se puede calcular una tasa de falsos negativos. El 'número de no terroristas por cada 100 campanadas' en esa ciudad es 100, pero P(T | B) = 0%. No hay ninguna posibilidad de que se haya detectado a un terrorista dado el sonido de la campana.

Imaginemos que toda la población de un millón de habitantes de la primera ciudad pasa delante de la cámara. Aproximadamente 99 de los 100 terroristas activarán la alarma, al igual que aproximadamente 9.999 de los 999.900 no terroristas. Por tanto, unas 10.098 personas activarán la alarma, entre las que unos 99 serán terroristas. La probabilidad de que una persona que activa la alarma sea realmente un terrorista es sólo de aproximadamente 99 entre 10.098, lo que es menos del 1% y muy, muy por debajo de la estimación inicial del 99%.

La falacia de la tasa base es muy engañosa en este ejemplo porque hay muchos más no terroristas que terroristas, y el número de falsos positivos (no terroristas analizados como terroristas) es mucho mayor que el de verdaderos positivos (terroristas analizados como terroristas).

Múltiples profesionales han argumentado que, como la tasa base de terrorismo es extremadamente baja, el uso de minería de datos y algoritmos predictivos para identificar a los terroristas no puede funcionar debido a la paradoja del falso positivo. [9] [10] [11] [12] Las estimaciones del número de falsos positivos para cada resultado preciso varían de más de diez mil [12] a mil millones; [10] en consecuencia, investigar cada pista tendría un costo y un tiempo prohibitivos. [9] [11] El nivel de precisión necesario para que estos modelos sean viables probablemente sea inalcanzable. Ante todo, la baja tasa base de terrorismo también significa que faltan datos con los que elaborar un algoritmo preciso. [11] Además, en el contexto de la detección del terrorismo, los falsos negativos son altamente indeseables y, por lo tanto, deben minimizarse tanto como sea posible; sin embargo, esto requiere aumentar la sensibilidad a costa de la especificidad , aumentando los falsos positivos. [12] También es cuestionable si el uso de tales modelos por parte de las fuerzas del orden cumpliría con la carga de la prueba requerida , dado que más del 99% de los resultados serían falsos positivos. [12]

Ejemplo 4: pruebas biológicas de un sospechoso

Se comete un delito. El análisis forense determina que el perpetrador tiene un determinado tipo de sangre compartido por el 10% de la población. Un sospechoso es arrestado y se descubre que tiene el mismo tipo de sangre.

Un fiscal podría acusar al sospechoso del delito únicamente sobre esa base y afirmar en el juicio que la probabilidad de que el acusado sea culpable es del 90%.

Sin embargo, esta conclusión sólo es casi correcta si el acusado fue seleccionado como el principal sospechoso basándose en pruebas sólidas descubiertas antes del análisis de sangre y no relacionadas con él. De lo contrario, el razonamiento presentado es erróneo, ya que pasa por alto la alta probabilidad previa (es decir, antes del análisis de sangre) de que se trate de una persona inocente al azar. Supongamos, por ejemplo, que 1000 personas viven en la ciudad donde ocurrió el crimen. Esto significa que allí viven 100 personas que tienen el tipo de sangre del perpetrador, de las cuales sólo una es el verdadero perpetrador; por lo tanto, la verdadera probabilidad de que el acusado sea culpable –basada únicamente en el hecho de que su tipo de sangre coincide con la del asesino– es sólo del 1%, muy por debajo del 90% argumentado por el fiscal.

La falacia del fiscal implica suponer que la probabilidad previa de una coincidencia aleatoria es igual a la probabilidad de que el acusado sea inocente. Al utilizarlo, un fiscal que interroga a un perito puede preguntar: "Las probabilidades de encontrar esta evidencia sobre un hombre inocente son tan pequeñas que el jurado puede descartar con seguridad la posibilidad de que este acusado sea inocente, ¿correcto?" [13] La afirmación supone que la probabilidad de que se encuentren pruebas sobre un hombre inocente es la misma que la probabilidad de que un hombre sea inocente dado que se encontraron pruebas sobre él, lo cual no es cierto. Mientras que el primero suele ser pequeño (10% en el ejemplo anterior) debido a buenos procedimientos de prueba forense , el segundo (99% en ese ejemplo) no se relaciona directamente con él y a menudo será mucho mayor, ya que, de hecho, depende sobre las probables probabilidades bastante altas de que el acusado sea una persona inocente al azar.

Ejemplos en derecho

Juicio a OJ Simpson

OJ Simpson fue juzgado y absuelto en 1995 por los asesinatos de su ex esposa Nicole Brown Simpson y su amigo Ronald Goldman.

La sangre de la escena del crimen coincidía con la de Simpson, con características compartidas por 1 de cada 400 personas. Sin embargo, la defensa argumentó que el número de personas de Los Ángeles que coincidían con la muestra podría llenar un estadio de fútbol y que la cifra de 1 entre 400 era inútil. [14] [15] Habría sido incorrecto, y un ejemplo de falacia del fiscal, confiar únicamente en la cifra "1 en 400" para deducir que una persona determinada que coincidiera con la muestra probablemente sería el culpable.

Árbol de frecuencia de 100.000 mujeres estadounidenses maltratadas que muestra la falacia del fiscal en el juicio por asesinato de OJ Simpson

En el mismo juicio, la fiscalía presentó pruebas de que Simpson había sido violento con su esposa. La defensa argumentó que solo hubo una mujer asesinada por cada 2500 mujeres que fueron sometidas a abuso conyugal, y que cualquier historial de violencia de Simpson hacia su esposa era irrelevante para el juicio. Sin embargo, el razonamiento detrás del cálculo de la defensa era falaz. Según el autor Gerd Gigerenzer , la probabilidad correcta requiere un contexto adicional: la esposa de Simpson no solo había sido sometida a violencia doméstica, sino que también había sido sometida a violencia doméstica (por Simpson) y asesinada (por alguien). Gigerenzer escribe que "las posibilidades de que un agresor realmente haya asesinado a su pareja, dado que ella ha sido asesinada, es de aproximadamente 8 entre 9 o aproximadamente el 90%". [16] Si bien la mayoría de los casos de abuso conyugal no terminan en asesinato, la mayoría de los casos de asesinato en los que hay un historial de abuso conyugal fueron cometidos por el cónyuge.

Caso Sally Clark

Sally Clark , una mujer británica, fue acusada en 1998 de haber matado a su primer hijo a las 11 semanas de edad y luego a su segundo hijo a las 8 semanas de edad. La fiscalía hizo que el perito Sir Roy Meadow , profesor y pediatra consultor, [17] testificara que la probabilidad de que dos niños de la misma familia mueran de SMSL es de aproximadamente 1 entre 73 millones. Esto fue mucho menos frecuente que la tasa real medida en datos históricos  : Meadow la estimó a partir de datos de muertes por SMSL y del supuesto de que la probabilidad de tales muertes no debería estar correlacionada entre los bebés. [18]

Meadow reconoció que 1 entre 73 millones no es imposible, pero argumentó que tales accidentes ocurrirían "una vez cada cien años" y que, en un país de 15 millones de familias con dos hijos, es mucho más probable que el doble las muertes se deben más al síndrome de Münchausen que a un accidente tan raro. Sin embargo, hay buenas razones para suponer que la probabilidad de muerte por SMSL en una familia es significativamente mayor si un hijo anterior ya ha muerto en estas circunstancias (una predisposición genética al SMSL probablemente invalide la supuesta independencia estadística [19] ) haciendo que algunas familias sean más susceptibles al SMSL y el error es el resultado de la falacia ecológica . [20] La probabilidad de dos muertes por SMSL en la misma familia no se puede estimar sólidamente elevando al cuadrado la probabilidad de una sola muerte de ese tipo en todas las familias similares. [21]

La cifra de 1 entre 73 millones subestimó en gran medida la posibilidad de que se produjeran dos accidentes sucesivos, pero incluso si esa evaluación fuera precisa, el tribunal parece haber pasado por alto el hecho de que la cifra de 1 entre 73 millones no significaba nada por sí sola. Como probabilidad a priori , debería haberse sopesado con las probabilidades a priori de las alternativas. Dado que se habían producido dos muertes, una de las siguientes explicaciones debe ser cierta, y todas ellas son a priori extremadamente improbables:

  1. Dos muertes sucesivas en una misma familia, ambas por SMSL
  2. Doble homicidio (el caso de la fiscalía)
  3. Otras posibilidades (incluido un homicidio y un caso de SMSL)

No está claro si alguna vez se propuso durante el juicio una estimación de la probabilidad para la segunda posibilidad, o si se entendió que la comparación de las dos primeras probabilidades era la estimación clave a realizar en el análisis estadístico que evalúa el caso de la fiscalía frente al caso de inocencia.

Clark fue condenado en 1999, lo que dio lugar a un comunicado de prensa de la Royal Statistical Society que señalaba los errores. [22]

En 2002, Ray Hill (profesor de matemáticas en Salford ) intentó comparar con precisión las posibilidades de estas dos posibles explicaciones; Concluyó que los accidentes sucesivos son entre 4,5 y 9 veces más probables que los asesinatos sucesivos, de modo que las probabilidades a priori de la culpabilidad de Clark estaban entre 4,5 a 1 y 9 a 1 en contra. [23]

Después de que el tribunal determinó que el patólogo forense que había examinado a ambos bebés había ocultado pruebas exculpatorias , un tribunal superior anuló la condena de Clark, el 29 de enero de 2003. [24]

Hallazgos en psicología

En experimentos, se ha descubierto que las personas prefieren la información individualizada a la información general cuando la primera está disponible. [25] [26] [27]

En algunos experimentos, se pidió a los estudiantes que estimaran los promedios de calificaciones (GPA) de estudiantes hipotéticos. Cuando se les dieron estadísticas relevantes sobre la distribución del GPA, los estudiantes tendieron a ignorarlas si se les daba información descriptiva sobre el estudiante en particular, incluso si la nueva información descriptiva era obviamente de poca o ninguna relevancia para el desempeño escolar. [26] Este hallazgo se ha utilizado para argumentar que las entrevistas son una parte innecesaria del proceso de admisión a la universidad porque los entrevistadores no pueden elegir a los candidatos exitosos mejor que las estadísticas básicas.

Los psicólogos Daniel Kahneman y Amos Tversky intentaron explicar este hallazgo en términos de una regla simple o "heurística" llamada representatividad . Argumentaron que muchos juicios relacionados con la probabilidad, o con la causa y efecto, se basan en cuán representativa es una cosa de otra o de una categoría. [26] Kahneman considera que la negligencia de la tasa base es una forma específica de negligencia de la extensión . [28] Richard Nisbett ha argumentado que algunos sesgos de atribución, como el error de atribución fundamental , son ejemplos de la falacia de la tasa base: las personas no utilizan la "información de consenso" (la "tasa base") sobre cómo se comportaron otros en situaciones similares y, en cambio, prefieren atribuciones disposicionales más simples . [29]

Existe un debate considerable en psicología sobre las condiciones bajo las cuales las personas aprecian o no la información sobre la tasa base. [30] [31] Los investigadores del programa de heurísticas y sesgos han destacado los hallazgos empíricos que muestran que las personas tienden a ignorar las tasas base y a hacer inferencias que violan ciertas normas de razonamiento probabilístico, como el teorema de Bayes . La conclusión extraída de esta línea de investigación fue que el pensamiento probabilístico humano es fundamentalmente defectuoso y propenso a errores. [32] Otros investigadores han enfatizado el vínculo entre los procesos cognitivos y los formatos de información, argumentando que tales conclusiones generalmente no están justificadas. [33] [34]

Considere nuevamente el ejemplo 2 anterior. La inferencia requerida es estimar la probabilidad (posterior) de que un conductor (elegido al azar) esté ebrio, dado que la prueba de alcoholemia es positiva. Formalmente, esta probabilidad se puede calcular utilizando el teorema de Bayes, como se muestra arriba. Sin embargo, existen diferentes formas de presentar la información relevante. Considere la siguiente variante formalmente equivalente del problema:

 1 de cada 1.000 conductores conduce ebrio. Los alcoholímetros nunca dejan de detectar a una persona verdaderamente ebria. Para 50 de los 999 conductores que no están ebrios, el alcoholímetro muestra falsamente ebriedad. Supongamos que los policías detienen a un conductor al azar y lo obligan a someterse a una prueba de alcoholemia. Indica que están borrachos. No se sabe más información sobre ellos. Calcule la probabilidad de que el conductor esté realmente ebrio.

En este caso, la información numérica relevante ( p (borracho), p ( D | borracho), p ( D | sobrio)) se presenta en términos de frecuencias naturales con respecto a una determinada clase de referencia (ver problema de clase de referencia ). Los estudios empíricos muestran que las inferencias de las personas se corresponden más estrechamente con la regla de Bayes cuando la información se presenta de esta manera, lo que ayuda a superar la negligencia de la tasa base por parte de legos [34] y expertos. [35] Como consecuencia, organizaciones como la Colaboración Cochrane recomiendan utilizar este tipo de formato para comunicar estadísticas de salud. [36] Enseñar a las personas a traducir este tipo de problemas de razonamiento bayesiano a formatos de frecuencia natural es más eficaz que simplemente enseñarles a introducir probabilidades (o porcentajes) en el teorema de Bayes. [37] También se ha demostrado que las representaciones gráficas de frecuencias naturales (por ejemplo, conjuntos de iconos, gráficos de resultados hipotéticos) ayudan a las personas a hacer mejores inferencias. [37] [38] [39] [40]

Una razón importante por la que los formatos de frecuencia natural son útiles es que este formato de información facilita la inferencia requerida porque simplifica los cálculos necesarios. Esto se puede ver cuando se utiliza una forma alternativa de calcular la probabilidad requerida p (borracho | D ):

donde N (borracho ∩ D ) denota el número de conductores que están ebrios y obtienen un resultado positivo en el alcoholímetro, y N ( D ) denota el número total de casos con un resultado positivo en el alcoholímetro. La equivalencia de esta ecuación con la anterior se deriva de los axiomas de la teoría de la probabilidad, según los cuales N (borracho ∩ D ) = N × p ( D | borracho) × p (borracho). Es importante destacar que, aunque esta ecuación es formalmente equivalente a la regla de Bayes, no es psicológicamente equivalente. El uso de frecuencias naturales simplifica la inferencia porque la operación matemática requerida se puede realizar con números naturales, en lugar de fracciones normalizadas (es decir, probabilidades), porque hace que el gran número de falsos positivos sea más transparente y porque las frecuencias naturales exhiben un "conjunto anidado". estructura". [41] [42]

No todos los formatos de frecuencia facilitan el razonamiento bayesiano. [42] [43] Las frecuencias naturales se refieren a la información de frecuencia que resulta del muestreo natural , [44] que preserva la información de la tasa base (por ejemplo, el número de conductores ebrios cuando se toma una muestra aleatoria de conductores). Esto es diferente del muestreo sistemático , en el que las tasas base se fijan a priori (por ejemplo, en experimentos científicos). En el último caso, no es posible inferir la probabilidad posterior p (borracho | prueba positiva) comparando el número de conductores que están ebrios y dan positivo con el número total de personas que obtienen un resultado positivo en el alcoholímetro, porque la información de la tasa base no se conserva y debe reintroducirse explícitamente utilizando el teorema de Bayes.

Ver también

Referencias

  1. ^ "Casos, hospitalizaciones y muertes de COVID-19 según estado de vacunación" (PDF) . Departamento de Salud del Estado de Washington. 2023-01-18. Archivado (PDF) desde el original el 26 de enero de 2023 . Consultado el 14 de febrero de 2023 . Si la exposición al COVID-19 sigue siendo la misma, a medida que se vacunen más personas, habrá más casos, hospitalizaciones y muertes entre personas vacunadas, ya que seguirán constituyendo una parte cada vez mayor de la población. Por ejemplo, si el 100% de la población estuviera vacunada, el 100% de los casos se darían entre personas vacunadas.
  2. ^ Galés, Matthew B.; Navarro, Daniel J. (2012). "Ver para creer: antecedentes, confianza y negligencia en la tasa base". Comportamiento Organizacional y Procesos de Decisión Humana . 119 (1): 1–14. doi :10.1016/j.obhdp.2012.04.001. hdl : 2440/41190 . ISSN  0749-5978.
  3. ^ "Falacia lógica: la falacia de la tasa base". Fallacyfiles.org . Consultado el 15 de junio de 2013 .
  4. ^ Thompson, WC; Schumann, EL (1987). "Interpretación de la evidencia estadística en juicios penales: la falacia del fiscal y la falacia del abogado defensor". Derecho y comportamiento humano . 2 (3): 167. doi :10.1007/BF01044641. JSTOR  1393631. S2CID  147472915.
  5. ^ Fuente, Juan; Gunby, Philip (febrero de 2010). "La ambigüedad, la ilusión de certeza y el enfoque de frecuencia natural de Gigerenzer para el razonamiento con probabilidades inversas" (PDF) . Universidad de Canterbury . pag. 6.[ enlace muerto permanente ]
  6. ^ Suss, Richard A. (4 de octubre de 2023). "La falacia del fiscal enmarcada como una sustitución del espacio muestral". Preimpresiones OSF . doi : 10.31219/osf.io/cs248.
  7. ^ Rheinfurth, MH; Howell, LW (marzo de 1998). Probabilidad y Estadística en Ingeniería Aeroespacial. NASA . pag. 16. MENSAJE: Las pruebas falsas positivas son más probables que las pruebas positivas verdaderas cuando la población general tiene una baja prevalencia de la enfermedad. Esto se llama la paradoja del falso positivo.
  8. ^ ab Vacher, HL (mayo de 2003). "Alfabetización cuantitativa: pruebas de drogas, detección de cáncer e identificación de rocas ígneas". Journal of Geoscience Education : 2. A primera vista, esto parece perverso: cuanto menos estudiantes en su conjunto usan esteroides , más probable es que un estudiante identificado como usuario sea un no usuario. A esto se le ha llamado la paradoja del falso positivo.- Citando: Gonick, L.; Smith, W. (1993). La guía de dibujos animados para las estadísticas . Nueva York: Harper Collins. pag. 49.
  9. ^ ab Munk, Timme Bisgaard (1 de septiembre de 2017). "100.000 falsos positivos por cada terrorista real: por qué los algoritmos antiterroristas no funcionan". Primer lunes . 22 (9). doi : 10.5210/fm.v22i9.7126 .
  10. ^ ab Schneier, Bruce . "Por qué la minería de datos no detendrá el terrorismo". Cableado . ISSN  1059-1028 . Consultado el 30 de agosto de 2022 .
  11. ^ abc Jonás, Jeff; Harper, Jim (11 de diciembre de 2006). "Contraterrorismo eficaz y el papel limitado de la minería de datos predictivos". Instituto CATO . Consultado el 30 de agosto de 2022 .
  12. ^ abcd Sageman, Marc (17 de febrero de 2021). "Las implicaciones de la tasa base extremadamente baja del terrorismo". Terrorismo y violencia política . 33 (2): 302–311. doi :10.1080/09546553.2021.1880226. ISSN  0954-6553. S2CID  232341781.
  13. ^ Fenton, normando; Neil, Martín; Berger, Daniel (junio de 2016). "Bayes y la ley". Revisión Anual de las Estadísticas y su Aplicación . 3 (1): 51–77. Código Bib : 2016AnRSA...3...51F. doi :10.1146/annurev-statistics-041715-033428. PMC 4934658 . PMID  27398389. 
  14. ^ Robertson, B. y Vignaux, GA (1995). Interpretación de pruebas: evaluación de pruebas forenses en la sala del tribunal. Chichester: John Wiley e hijos.
  15. ^ Rossmo, D. Kim (2009). Fallos en la investigación criminal. CRC Press Taylor & Francis Group.
  16. ^ Gigerenzer, G., Tener en cuenta el riesgo: aprender a vivir con incertidumbre, Penguin, (2003)
  17. ^ "Resolución adoptada por el Senado (21 de octubre de 1998) sobre la jubilación del Profesor Sir Roy Meadow". Reportero . No. 428. Universidad de Leeds . 30 de noviembre de 1998. Archivado desde el original el 16 de abril de 2016 . Consultado el 17 de octubre de 2015 .
  18. ^ La probabilidad de muerte por SMSL en toda la población era de aproximadamente 1 entre 1.303; Meadow generó su estimación de 1 en 73 millones a partir de la menor probabilidad de muerte por SMSL en el hogar de Clark, que tenía menores factores de riesgo (por ejemplo, no fumar). En esta subpoblación estimó la probabilidad de una sola muerte en 1 entre 8.500. Ver: Joyce, H. (septiembre de 2002). "Más allá de toda duda razonable" (pdf) . plus.maths.org . Consultado el 12 de junio de 2010 .. El profesor Ray Hill cuestionó incluso este primer paso (1/8.500 frente a 1/1.300) de dos maneras: en primer lugar, basándose en que estaba sesgado , excluyendo aquellos factores que aumentaban el riesgo (especialmente que ambos niños eran varones) y (más importante) porque las reducciones en los factores de riesgo de SMSL reducirán proporcionalmente los factores de riesgo de asesinato, de modo que las frecuencias relativas del síndrome de Münchausen por poder y del SMSL permanecerán en la misma proporción que en la población general: Hill, Ray (2002). "¿Muerte en la cuna o asesinato? - Sopesando las probabilidades". Es evidentemente injusto utilizar las características que básicamente la convierten en una buena madre y que lleva una vida limpia como factores que cuentan en su contra. Sí, podemos estar de acuerdo en que tales factores hacen que la muerte natural sea menos probable, pero esas mismas características también hacen que el asesinato sea menos probable.
  19. ^ Sweeney, John; Ley, Proyecto de Ley (15 de julio de 2001). "El hallazgo genético arroja dudas sobre los asesinatos dobles por 'muerte súbita'". El observador . Archivado desde el original el 11 de julio de 2012.
  20. ^ Vicente Scheurer. "¿Condenado por estadísticas?" . Consultado el 21 de mayo de 2010 .
  21. ^ Colina, R. (2004). "Múltiples muertes infantiles repentinas: ¿coincidencia o más allá de la coincidencia?" (PDF) . Epidemiología Pediátrica y Perinatal . 18 (5): 321. doi :10.1111/j.1365-3016.2004.00560.x. PMID  15367318. Archivado desde el original (PDF) el 30 de agosto de 2012 . Consultado el 13 de junio de 2010 .
  22. ^ "Royal Statistical Society preocupada por las cuestiones planteadas en el caso de Sally Clark" (PDF) . 23 de octubre de 2001. Archivado desde el original (PDF) el 24 de agosto de 2011. La sociedad no tolera que los médicos cometan errores clínicos graves porque se entiende ampliamente que tales errores podrían significar la diferencia entre la vida y la muerte. El caso de R contra Sally Clark es un ejemplo de un perito médico que cometió un error estadístico grave, que pudo haber tenido un efecto profundo en el resultado del caso.
  23. ^ La incertidumbre en este rango se debe principalmente a la incertidumbre en la probabilidad de matar a un segundo hijo después de haber matado al primero, ver: Hill, R. (2004). "Múltiples muertes infantiles repentinas: ¿coincidencia o más allá de la coincidencia?" (PDF) . Epidemiología Pediátrica y Perinatal . 18 (5): 322–323. doi :10.1111/j.1365-3016.2004.00560.x. PMID  15367318. Archivado desde el original (PDF) el 30 de agosto de 2012 . Consultado el 13 de junio de 2010 .
  24. ^ "R contra Clark. [2003] EWCA Crim 1020 (11 de abril de 2003)". www.bailii.org .
  25. ^ Bar-Hillel, Maya (1980). "La falacia de la tasa base en los juicios de probabilidad" (PDF) . Acta Psicológica . 44 (3): 211–233. doi :10.1016/0001-6918(80)90046-3.
  26. ^ abc Kahneman, Daniel; Amós Tversky (1973). "En la psicología de la predicción". Revisión psicológica . 80 (4): 237–251. doi :10.1037/h0034747. S2CID  17786757.
  27. ^ Tversky, Amós; Kahneman, Daniel (27 de septiembre de 1974). "Juicio en condiciones de incertidumbre: heurísticas y sesgos". Ciencia . 185 (4157): 1124-1131. Código Bib : 1974 Ciencia... 185.1124T. doi : 10.1126/ciencia.185.4157.1124. PMID  17835457. S2CID  143452957.
  28. ^ Kahneman, Daniel (2000). "Evaluación por momentos, pasado y futuro". En Daniel Kahneman y Amos Tversky (ed.). Elecciones, valores y marcos . ISBN 0-521-62749-4.
  29. ^ Nisbett, Richard E.; E. Borgida; R. Crandall; H. Reed (1976). "Inducción popular: La información no siempre es informativa". En JS Carroll y JW Payne (ed.). Cognición y comportamiento social . vol. 2. John Wiley e hijos, incorporados. págs. 227-236. ISBN 0-470-99007-4.
  30. ^ Koehler, JJ (2010). "Reconsideración de la falacia de la tasa base: desafíos descriptivos, normativos y metodológicos". Ciencias del comportamiento y del cerebro . 19 : 1–17. doi :10.1017/S0140525X00041157. S2CID  53343238.
  31. ^ Barbey, Alaska; Sloman, SA (2007). "Respeto a la tasa base: de la racionalidad ecológica a los procesos duales". Ciencias del comportamiento y del cerebro . 30 (3): 241–254, discusión 255–297. doi :10.1017/S0140525X07001653. PMID  17963533. S2CID  31741077.
  32. ^ Tversky, A.; Kahneman, D. (1974). "Juicio bajo incertidumbre: heurísticas y sesgos". Ciencia . 185 (4157): 1124-1131. Código Bib : 1974 Ciencia... 185.1124T. doi : 10.1126/ciencia.185.4157.1124. PMID  17835457. S2CID  143452957.
  33. ^ Cosmides, Leda; John Tooby (1996). "¿Después de todo, los humanos son buenos estadísticos intuitivos? Repensar algunas conclusiones de la literatura sobre el juicio en condiciones de incertidumbre". Cognición . 58 : 1–73. CiteSeerX 10.1.1.131.8290 . doi :10.1016/0010-0277(95)00664-8. S2CID  18631755. 
  34. ^ ab Gigerenzer, G.; Hoffrage, U. (1995). "Cómo mejorar el razonamiento bayesiano sin instrucción: formatos de frecuencia". Revisión psicológica . 102 (4): 684. CiteSeerX 10.1.1.128.3201 . doi :10.1037/0033-295X.102.4.684. S2CID  16281385. 
  35. ^ Hoffrage, U.; Lindsey, S.; Hertwig, R.; Gigerenzer, G. (2000). "Medicina: comunicación de información estadística". Ciencia . 290 (5500): 2261–2262. doi : 10.1126/ciencia.290.5500.2261. hdl : 11858/00-001M-0000-0025-9B18-3 . PMID  11188724. S2CID  33050943.
  36. ^ Akl, EA; Oxman, AD; Herrin, J.; Vist, GE; Terrenato, I.; Esperati, F.; Costiniuk, C.; En blanco, D.; Schünemann, H. (2011). Schünemann, Holger (ed.). "Uso de formatos estadísticos alternativos para la presentación de riesgos y reducciones de riesgos". La base de datos Cochrane de revisiones sistemáticas . 2011 (3): CD006776. doi : 10.1002/14651858.CD006776.pub2. PMC 6464912 . PMID  21412897. 
  37. ^ ab Sedlmeier, P.; Gigerenzer, G. (2001). "Enseñar razonamiento bayesiano en menos de dos horas". Revista de Psicología Experimental: General . 130 (3): 380–400. doi :10.1037/0096-3445.130.3.380. hdl : 11858/00-001M-0000-0025-9504-E . PMID  11561916. S2CID  11147078.
  38. ^ Brase, GL (2009). "Representaciones pictóricas en el razonamiento estadístico". Psicología Cognitiva Aplicada . 23 (3): 369–381. doi :10.1002/acp.1460. S2CID  18817707.
  39. ^ Edwards, A.; Elwyn, G.; Mulley, A. (2002). "Explicar los riesgos: convertir datos numéricos en imágenes significativas". BMJ . 324 (7341): 827–830. doi :10.1136/bmj.324.7341.827. PMC 1122766 . PMID  11934777. 
  40. ^ Kim, sí-Seul; Paredes, Logan A.; Krafft, Peter; Hullman, Jessica (2 de mayo de 2019). "Un enfoque de cognición bayesiana para mejorar la visualización de datos". Actas de la Conferencia CHI de 2019 sobre factores humanos en sistemas informáticos . págs. 1-14. arXiv : 1901.02949 . doi :10.1145/3290605.3300912. ISBN 9781450359702. S2CID  57761146.
  41. ^ Girotto, V.; González, M. (2001). "Resolución de problemas probabilísticos y estadísticos: una cuestión de estructura de la información y forma de las preguntas". Cognición . 78 (3): 247–276. doi :10.1016/S0010-0277(00)00133-5. PMID  11124351. S2CID  8588451.
  42. ^ ab Hoffrage, U.; Gigerenzer, G.; Krauss, S.; Martignon, L. (2002). "La representación facilita el razonamiento: Qué son las frecuencias naturales y qué no son". Cognición . 84 (3): 343–352. doi :10.1016/S0010-0277(02)00050-1. PMID  12044739. S2CID  9595672.
  43. ^ Gigerenzer, G.; Hoffrage, U. (1999). "Superar las dificultades en el razonamiento bayesiano: una respuesta a Lewis y Keren (1999) y Mellers y McGraw (1999)". Revisión psicológica . 106 (2): 425. doi :10.1037/0033-295X.106.2.425. hdl : 11858/00-001M-0000-0025-9CB4-8 .
  44. ^ Kleiter, GD (1994). "Muestreo natural: racionalidad sin tasas base". Aportes a la Psicología Matemática, Psicometría y Metodología . Investigaciones recientes en psicología. págs. 375–388. doi :10.1007/978-1-4612-4308-3_27. ISBN 978-0-387-94169-1.

enlaces externos