stringtranslate.com

Confusión de la inversa

La confusión de la inversa , también llamada falacia de probabilidad condicional o falacia inversa , es una falacia lógica en la que una probabilidad condicional se equipara con su inversa; es decir, dados dos eventos A y B , se supone que la probabilidad de que A ocurra dado que B ha ocurrido es aproximadamente la misma que la probabilidad de B dado A , cuando en realidad no hay evidencia para esta suposición. [1] [2] Más formalmente, se supone que P ( A | B ) es aproximadamente igual a P ( B | A ).

Ejemplos

Ejemplo 1

En un estudio, se pidió a los médicos que indicaran las probabilidades de que se produjera una enfermedad maligna con una probabilidad previa de ocurrencia del 1%. Una prueba puede detectar el 80% de las enfermedades malignas y tiene una tasa de falsos positivos del 10%. ¿Cuál es la probabilidad de que se produzca una enfermedad maligna si el resultado de la prueba es positivo? [3] Aproximadamente 95 de cada 100 médicos respondieron que la probabilidad de que se produjera una enfermedad maligna sería de alrededor del 75%, aparentemente porque los médicos creían que las probabilidades de que se produjera una enfermedad maligna si el resultado de la prueba era positivo eran aproximadamente las mismas que las probabilidades de que el resultado de la prueba fuera positivo si se producía una enfermedad maligna. [4]

La probabilidad correcta de malignidad dado un resultado positivo de la prueba como se indicó anteriormente es del 7,5 %, derivada a través del teorema de Bayes :

Otros ejemplos de confusión incluyen:

Para otros errores en la probabilidad condicional, véase el problema de Monty Hall y la falacia de la tasa base . Compárese con la conversión ilícita .

Ejemplo 2

Para identificar a las personas que padecen una enfermedad grave en una forma temprana curable, se puede considerar la posibilidad de realizar pruebas de detección a un grupo grande de personas. Si bien los beneficios son obvios, un argumento en contra de estas pruebas de detección es la perturbación que causan los resultados de detección falsos positivos: si en una prueba inicial se descubre incorrectamente que una persona que no padece la enfermedad la padece, lo más probable es que se sienta angustiada, e incluso si posteriormente se somete a una prueba más minuciosa y le dicen que está bien, su vida puede verse afectada negativamente. Si se somete a un tratamiento innecesario para la enfermedad, puede verse perjudicada por los efectos secundarios y los costos del tratamiento.

La magnitud de este problema se entiende mejor en términos de probabilidades condicionales.

Supongamos que el 1% del grupo padece la enfermedad y el resto está bien. Eligiendo un individuo al azar,

Supongamos que cuando se aplica la prueba de detección a una persona que no tiene la enfermedad, hay un 1% de posibilidades de obtener un resultado falso positivo (y, por lo tanto, un 99% de posibilidades de obtener un resultado negativo verdadero, un número conocido como la especificidad de la prueba), es decir,

Finalmente, supongamos que cuando se aplica la prueba a una persona que tiene la enfermedad, hay un 1% de posibilidades de obtener un resultado falso negativo (y un 99% de posibilidades de obtener un resultado verdadero positivo, conocido como la sensibilidad de la prueba), es decir,

Cálculos

La fracción de individuos en todo el grupo que están bien y dan negativo en la prueba (verdadero negativo):

La fracción de individuos en todo el grupo que están enfermos y dan positivo en la prueba (verdadero positivo):

La fracción de individuos en todo el grupo que tienen resultados falsos positivos:

La fracción de individuos en todo el grupo que tienen resultados falsos negativos:

Además, la fracción de individuos en todo el grupo que dan positivo:

Por último, la probabilidad de que un individuo realmente tenga la enfermedad, dado que el resultado de la prueba es positivo:

Conclusión

En este ejemplo, debería ser fácil relacionar la diferencia entre las probabilidades condicionales P (positivo | enfermo) que con las probabilidades asumidas es del 99%, y P (enfermo | positivo) que es del 50%: la primera es la probabilidad de que un individuo que tiene la enfermedad dé positivo en la prueba; la segunda es la probabilidad de que un individuo que dé positivo en la prueba realmente tenga la enfermedad. Por lo tanto, con las probabilidades elegidas en este ejemplo, aproximadamente el mismo número de personas se benefician del tratamiento temprano que las que se ven afectadas por los falsos positivos; estos efectos positivos y negativos pueden entonces considerarse para decidir si se realiza la prueba o, si es posible, si se ajustan los criterios de la prueba para disminuir el número de falsos positivos (posiblemente a expensas de más falsos negativos).

Véase también

Referencias

  1. ^ Plous, Scott (1993). La psicología del juicio y la toma de decisiones . pp. 131–134. ISBN 978-0-07-050477-6.[ Se necesita cita completa ]
  2. ^ Villejoubert, Gaëlle; Mandel, David (2002). "La falacia inversa: una explicación de las desviaciones del teorema de Bayes y el principio de aditividad". Memoria y cognición . 30 (5): 171–178. doi : 10.3758/BF03195278 . PMID  12035879.
  3. ^ Eddy, David M. (1982). "Razonamiento probabilístico en medicina clínica: problemas y oportunidades". En Kahneman, D .; Slovic, P .; Tversky, A. (eds.). Juicio bajo incertidumbre: heurísticas y sesgos . Nueva York: Cambridge University Press. págs. 249–267. ISBN 0-521-24064-6.Descripción simplificada como en Plous (1993).
  4. ^ Eddy (1982, p. 253). "Desafortunadamente, la mayoría de los médicos (aproximadamente 95 de cada 100 en una muestra informal tomada por el autor) malinterpretan las afirmaciones sobre la precisión de la prueba y estiman que P(ca|pos) es aproximadamente del 75%".
  5. ^ de Hastie, Reid; Robyn Dawes (2001). Elección racional en un mundo incierto . pp. 122-123. ISBN 978-0-7619-2275-9.[ Se necesita cita completa ]
  6. ^ Véase "¿Los ingenieros son buenos terroristas?". Slashdot . 2008-04-03 . Consultado el 2008-04-25 .