El probabilismo radical es una hipótesis filosófica , en particular la epistemología y la teoría de la probabilidad , que sostiene que no se conocen hechos con certeza. Esta visión tiene profundas implicaciones para la inferencia estadística . Esta filosofía está particularmente asociada con Richard Jeffrey , quien ingeniosamente la caracterizó con el dicho " Todo depende de las probabilidades ".
El teorema de Bayes establece una regla para actualizar una probabilidad condicionada a otra información. En 1967, Ian Hacking sostuvo que, en forma estática, el teorema de Bayes solo conecta probabilidades que se cumplen simultáneamente; no le dice al alumno cómo actualizar las probabilidades cuando se dispone de nueva evidencia con el tiempo, al contrario de lo que sugerían los bayesianos contemporáneos . [1]
Según Hacking, adoptar el teorema de Bayes es una tentación. Supongamos que un alumno forma probabilidades P old ( A & B ) = p y P old ( B ) = q . Si el alumno aprende posteriormente que B es verdadero, nada en los axiomas de probabilidad o los resultados derivados de ellos le dice cómo comportarse. Podría verse tentado a adoptar el teorema de Bayes por analogía y establecer su P new ( A ) = P old ( A | B ) = p / q .
De hecho, ese paso, la regla de actualización de Bayes, puede justificarse, como necesario y suficiente, a través de un argumento dinámico del libro holandés que se suma a los argumentos utilizados para justificar los axiomas de probabilidad. Este argumento fue propuesto por primera vez por David Lewis en la década de 1970, aunque nunca lo publicó. [2] El argumento dinámico del libro holandés para la actualización bayesiana ha sido criticado por Hacking, [1] Kyburg , [3] Christensen , [4] y Maher. [5] [6] Fue defendido por Brian Skyrms . [2]
Esto funciona cuando los nuevos datos son ciertos. CI Lewis había argumentado que "si algo es probable, entonces algo debe ser cierto". [7] Debe haber, según la explicación de Lewis, algunos hechos ciertos sobre los cuales se condicionaran las probabilidades . Sin embargo, el principio conocido como la regla de Cromwell declara que nada, aparte de una ley lógica, si es que hay alguna, puede saberse con certeza. Jeffrey rechazó famosamente el dictamen de Lewis . [8] Más tarde bromeó diciendo: "Son probabilidades hasta el final", una referencia a la metáfora de " tortugas hasta el final " para el problema de la regresión infinita . Llamó a esta posición probabilismo radical . [9]
En este caso, la regla de Bayes no es capaz de captar un mero cambio subjetivo en la probabilidad de algún hecho crítico. Es posible que la nueva evidencia no haya sido prevista o que ni siquiera haya sido posible articularla después del evento. Parece razonable, como posición inicial, adoptar la ley de probabilidad total y extenderla a la actualización de la misma manera que se hizo con el teorema de Bayes. [10]
Adoptar una regla de este tipo es suficiente para evitar un libro holandés, pero no es necesario. [2] Jeffrey la defendió como regla de actualización en el probabilismo radical y la llamó cinemática de la probabilidad. Otros la han llamado condicionamiento de Jeffrey.
La cinemática de probabilidad no es la única regla de actualización suficiente para el probabilismo radical. Se han propuesto otras, como el principio de máxima entropía de ET Jaynes y el principio de reflexión de Skyrms. Resulta que la cinemática de probabilidad es un caso especial de inferencia de máxima entropía. Sin embargo, la máxima entropía no es una generalización de todas esas reglas de actualización suficientes. [11]