En filosofía , la navaja de Ockham ( en latín : novacula Occami ) es el principio de resolución de problemas que recomienda buscar explicaciones construidas con el menor conjunto posible de elementos. También se conoce como principio de parsimonia o ley de parsimonia ( en latín : lex parsimoniae ). Atribuido a Guillermo de Ockham , filósofo y teólogo inglés del siglo XIV , se cita con frecuencia como Entia non sunt multiplicanda praeter necessitatem , que se traduce como «Las entidades no deben multiplicarse más allá de lo necesario», [1] [2] aunque Occam nunca utilizó estas palabras exactas. Popularmente, el principio a veces se parafrasea como «La explicación más simple suele ser la mejor». [3]
Esta navaja filosófica sostiene que, cuando se presentan hipótesis en competencia sobre la misma predicción y ambas hipótesis tienen el mismo poder explicativo, se debe preferir la hipótesis que requiere menos suposiciones [4] , y que esto no pretende ser una forma de elegir entre hipótesis que hacen predicciones diferentes. De manera similar, en la ciencia, la navaja de Occam se utiliza como una heurística abductiva en el desarrollo de modelos teóricos, en lugar de como un árbitro riguroso entre modelos candidatos [5] [6] .
La frase navaja de Ockham no apareció hasta unos siglos después de la muerte de Guillermo de Ockham en 1347. Libert Froidmont , en su obra Sobre la filosofía cristiana del alma , le da crédito por la frase, hablando de " novacula occami ". [7] Ockham no inventó este principio, pero su fama -y su asociación con él- puede deberse a la frecuencia y eficacia con la que lo utilizó. [8] Ockham enunció el principio de varias maneras, pero la versión más popular, "Las entidades no deben multiplicarse sin necesidad" ( Non sunt multiplicanda entia sine necessitate ) fue formulada por el filósofo franciscano irlandés John Punch en su comentario de 1639 sobre las obras de Duns Scotus . [9]
Los orígenes de lo que se conoce como la navaja de Occam se remontan a las obras de filósofos anteriores como Juan Duns Escoto (1265-1308), Roberto Grosseteste (1175-1253), Maimónides (Moisés ben-Maimón, 1138-1204) e incluso Aristóteles (384-322 a. C.). [10] [11] Aristóteles escribe en sus Analíticos posteriores : «Podemos suponer la superioridad ceteris paribus [en igualdad de condiciones] de la demostración que se deriva de menos postulados o hipótesis». Ptolomeo ( c. 90 d. C. – c. 168 d. C. ) afirmó: «Consideramos que es un buen principio explicar los fenómenos mediante la hipótesis más simple posible». [12]
Frases como «Es vano hacer con más lo que se puede hacer con menos» y «No se puede postular una pluralidad sin necesidad» eran comunes en los escritos escolásticos del siglo XIII . [12] Robert Grosseteste, en su Comentario a los Libros analíticos posteriores ( Commentarius in Posteriorum Analyticorum Libros ) ( c. 1217-1220 ), declara: «Es mejor y más valioso lo que requiere menos, en igualdad de circunstancias... Pues si una cosa se demostrara a partir de muchas y otra a partir de menos premisas igualmente conocidas, claramente es mejor lo que se obtiene a partir de menos porque nos permite saber rápidamente, así como una demostración universal es mejor que una particular porque produce conocimiento a partir de menos premisas. De manera similar, en las ciencias naturales, en la ciencia moral y en la metafísica, lo mejor es lo que no necesita premisas y lo mejor lo que necesita menos, en igualdad de circunstancias». [13]
La Summa Theologica de Tomás de Aquino (1225-1274) afirma que «es superfluo suponer que lo que puede explicarse por unos pocos principios ha sido producido por muchos». Aquino utiliza este principio para construir una objeción a la existencia de Dios , objeción que a su vez responde y refuta de manera general (cf. quinque viae ), y de manera específica, mediante un argumento basado en la causalidad . [14] Por lo tanto, Aquino reconoce el principio que hoy se conoce como la navaja de Occam, pero prefiere las explicaciones causales a otras explicaciones simples (cf. también La correlación no implica causalidad ).
Guillermo de Ockham ( circa 1287-1347) fue un fraile franciscano y teólogo inglés , un influyente filósofo medieval y nominalista . Su fama popular como gran lógico se basa principalmente en la máxima que se le atribuye y que se conoce como la navaja de Ockham. El término navaja se refiere a la distinción entre dos hipótesis ya sea "eliminando" suposiciones innecesarias o cortando en pedazos dos conclusiones similares.
Si bien se ha afirmado que la navaja de Occam no se encuentra en ninguno de los escritos de William, [15] se pueden citar afirmaciones como Numquam ponenda est pluralitas sine necessitate ("La pluralidad nunca debe postularse sin necesidad"), que aparece en su obra teológica. sobre las Sentencias de Pedro Lombardi ( Quaestiones et decisiones in quattuor libros Sententiarum Petri Lombardi ; ed. Lugd., 1495, i, dist. 27, qu. 2, K).
Sin embargo, las palabras precisas a veces atribuidas a Guillermo de Ockham, Entia non sunt multiplicanda praeter necessitatem (Las entidades no deben ser multiplicadas más allá de lo necesario), [16] están ausentes en sus obras existentes; [17] esta frase particular proviene de John Punch , [18] quien describió el principio como un "axioma común" ( axioma vulgare ) de los escolásticos. [9] El propio Guillermo de Ockham parece restringir el funcionamiento de este principio en asuntos relacionados con los milagros y el poder de Dios, considerando una pluralidad de milagros posibles en la Eucaristía [ se necesita más explicación ] simplemente porque agrada a Dios. [12]
Este principio se expresa a veces como Pluralitas non est ponenda sine necessitate ("La pluralidad no debería postularse sin necesidad"). [19] En su Summa Totius Logicae , i. 12, Guillermo de Ockham cita el principio de economía, Frustra fit per plura quod potest fieri per pauciora ("Es inútil hacer con más cosas lo que se puede hacer con menos"; Thorburn, 1918, pp. 352-53; Kneale y Kneale, 1962, p. 243).
Como decía Isaac Newton : «No debemos admitir más causas de las cosas naturales que las que sean verdaderas y suficientes para explicar sus apariencias. Por lo tanto, a los mismos efectos naturales debemos, en la medida de lo posible, asignar las mismas causas». [20] [21] En la oración hypotheses non fingo , Newton afirma el éxito de este enfoque.
Bertrand Russell ofrece una versión particular de la navaja de Occam: “Siempre que sea posible, sustituya construcciones a partir de entidades conocidas por inferencias a entidades desconocidas”. [22]
Alrededor de 1960, Ray Solomonoff fundó la teoría de la inferencia inductiva universal , la teoría de la predicción basada en observaciones (por ejemplo, predecir el siguiente símbolo basándose en una serie dada de símbolos). El único supuesto es que el entorno sigue una distribución de probabilidad desconocida pero computable. Esta teoría es una formalización matemática de la navaja de Occam. [23] [24] [25]
Otro enfoque técnico de la navaja de Occam es la parsimonia ontológica . [26] Parsimonia significa austeridad y también se conoce como la Regla de la Simplicidad. Esta se considera una versión fuerte de la navaja de Occam. [27] [28] Una variación utilizada en medicina se llama " Cebra ": un médico debe rechazar un diagnóstico médico exótico cuando es más probable una explicación más común, derivada del dictamen de Theodore Woodward "Cuando oigas cascos, piensa en caballos, no en cebras". [29]
Ernst Mach formuló la versión más fuerte de la navaja de Occam en física , a la que llamó Principio de Economía y afirmó: "Los científicos deben utilizar los medios más simples para llegar a sus resultados y excluir todo lo que no sea percibido por los sentidos". [30]
Este principio se remonta al menos a Aristóteles, quien escribió: "La naturaleza opera de la manera más breve posible". [27] La idea de parsimonia o simplicidad al decidir entre teorías, aunque no era la intención de la expresión original de la navaja de Occam, ha sido asimilada en la cultura común como la formulación generalizada del profano de que "la explicación más simple es usualmente la correcta". [27]
Antes del siglo XX, era una creencia común que la naturaleza misma era simple y que las hipótesis más simples sobre la naturaleza tenían, por lo tanto, más probabilidades de ser ciertas. Esta noción estaba profundamente arraigada en el valor estético que la simplicidad tiene para el pensamiento humano y las justificaciones presentadas para ella a menudo provenían de la teología . [ Aclaración necesaria ] Tomás de Aquino formuló este argumento en el siglo XIII, escribiendo: "Si una cosa puede hacerse adecuadamente por medio de uno, es superfluo hacerlo por medio de varios; porque observamos que la naturaleza no emplea dos instrumentos [si] uno basta". [31]
A partir del siglo XX, las justificaciones epistemológicas basadas en la inducción , la lógica , el pragmatismo y, especialmente, la teoría de la probabilidad se han vuelto más populares entre los filósofos. [7]
La navaja de Occam ha ganado un fuerte respaldo empírico al ayudar a converger hacia mejores teorías (ver la sección Usos a continuación para ver algunos ejemplos).
En el concepto relacionado de sobreajuste , los modelos excesivamente complejos se ven afectados por el ruido estadístico (un problema también conocido como el equilibrio entre sesgo y varianza ), mientras que los modelos más simples pueden capturar mejor la estructura subyacente y, por lo tanto, pueden tener un mejor rendimiento predictivo . Sin embargo, a menudo es difícil deducir qué parte de los datos es ruido (cf. selección de modelo , conjunto de prueba , longitud mínima de descripción , inferencia bayesiana , etc.).
La afirmación de la navaja de que "en igualdad de condiciones, las explicaciones más simples son generalmente mejores que las más complejas" es susceptible de prueba empírica. Otra interpretación de la afirmación de la navaja sería que "las hipótesis más simples son generalmente mejores que las complejas". El procedimiento para probar la primera interpretación compararía los antecedentes de explicaciones simples y comparativamente complejas. Si se acepta la primera interpretación, la validez de la navaja de Occam como herramienta tendría que ser rechazada si las explicaciones más complejas fueran más a menudo correctas que las menos complejas (mientras que lo inverso apoyaría su uso). Si se acepta la segunda interpretación, la validez de la navaja de Occam como herramienta podría posiblemente ser aceptada si las hipótesis más simples condujeran a conclusiones correctas con mayor frecuencia que las menos complejas.
Aunque a veces sea necesario aumentar la complejidad, sigue existiendo un sesgo general justificado hacia la más simple de dos explicaciones en pugna. Para entender por qué, hay que tener en cuenta que por cada explicación aceptada de un fenómeno siempre hay un número infinito de alternativas posibles, más complejas y, en última instancia, incorrectas. Esto es así porque siempre se puede cargar una explicación fallida con una hipótesis ad hoc . Las hipótesis ad hoc son justificaciones que impiden que las teorías sean refutadas.
Por ejemplo, si un hombre acusado de romper un jarrón hace afirmaciones sobrenaturales de que los duendes fueron los responsables de la rotura, una explicación sencilla podría ser que el hombre lo hizo, pero las justificaciones ad hoc (por ejemplo, "... y no soy yo quien lo rompió en la película; también lo alteraron") podrían evitar con éxito una refutación completa. Esta interminable oferta de explicaciones elaboradas en competencia, llamadas hipótesis salvadoras, no se puede descartar técnicamente, excepto utilizando la navaja de Occam. [32] [33] [34]
Cualquier teoría más compleja podría ser cierta. Un estudio sobre la validez predictiva de la navaja de Occam encontró 32 artículos publicados que incluían 97 comparaciones de pronósticos económicos de métodos de pronóstico simples y complejos. Ninguno de los artículos proporcionó un balance de evidencia de que la complejidad del método mejoraba la precisión del pronóstico. En los 25 artículos con comparaciones cuantitativas, la complejidad aumentó los errores de pronóstico en un promedio del 27 por ciento. [35]
Una justificación de la navaja de Occam es un resultado directo de la teoría básica de la probabilidad . Por definición, todas las suposiciones introducen posibilidades de error; si una suposición no mejora la precisión de una teoría, su único efecto es aumentar la probabilidad de que la teoría general sea errónea.
También ha habido otros intentos de derivar la navaja de Occam a partir de la teoría de la probabilidad, incluidos los notables intentos realizados por Harold Jeffreys y ET Jaynes . La base probabilística (bayesiana) para la navaja de Occam es elaborada por David JC MacKay en el capítulo 28 de su libro Information Theory, Inference, and Learning Algorithms [36] , donde enfatiza que no se requiere un sesgo previo a favor de modelos más simples.
William H. Jefferys y James O. Berger (1991) generalizan y cuantifican el concepto de "suposiciones" de la formulación original como el grado en el que una proposición se adapta innecesariamente a los posibles datos observables. [37] Afirman que "una hipótesis con menos parámetros ajustables tendrá automáticamente una probabilidad posterior mejorada, debido al hecho de que las predicciones que hace son precisas". [37] El uso de "afiladas" aquí no es solo una referencia irónica a la idea de una navaja, sino que también indica que tales predicciones son más precisas que las predicciones de la competencia. El modelo que proponen equilibra la precisión de las predicciones de una teoría frente a su precisión, prefiriendo teorías que hacen predicciones correctas de manera precisa sobre teorías que se adaptan a una amplia gama de otros resultados posibles. Esto, de nuevo, refleja la relación matemática entre los conceptos clave en la inferencia bayesiana (a saber, probabilidad marginal , probabilidad condicional y probabilidad posterior ).
El equilibrio entre sesgo y varianza es un marco que incorpora el principio de la navaja de Occam en su equilibrio entre sobreajuste (asociado con menor sesgo pero mayor varianza) y subajuste (asociado con menor varianza pero mayor sesgo). [38]
Karl Popper sostiene que la preferencia por teorías simples no necesariamente apela a consideraciones prácticas o estéticas. Nuestra preferencia por la simplicidad puede justificarse por su criterio de falsabilidad : preferimos teorías más simples a las más complejas "porque su contenido empírico es mayor y porque son más fáciles de comprobar". [39] La idea aquí es que una teoría simple se aplica a más casos que una más compleja y, por lo tanto, es más fácil de refutar. Esto es, nuevamente, comparar una teoría simple con una teoría más compleja donde ambas explican los datos igualmente bien.
El filósofo de la ciencia Elliott Sober argumentó una vez en la misma línea que Popper, vinculando la simplicidad con la "informatividad": La teoría más simple es la más informativa, en el sentido de que requiere menos información para una pregunta. [40] Desde entonces ha rechazado esta explicación de la simplicidad, supuestamente porque no proporciona una justificación epistémica para la simplicidad. Ahora cree que las consideraciones de simplicidad (y las consideraciones de parsimonia en particular) no cuentan a menos que reflejen algo más fundamental. Los filósofos, sugiere, pueden haber cometido el error de hipostasiar la simplicidad (es decir, dotarla de una existencia sui generis ), cuando solo tiene significado cuando se inserta en un contexto específico (Sober 1992). Si no logramos justificar las consideraciones de simplicidad sobre la base del contexto en el que las usamos, es posible que no tengamos una justificación no circular: "Así como la pregunta '¿por qué ser racional?' Puede que no haya una respuesta no circular, lo mismo puede decirse de la pregunta "¿por qué se debe considerar la simplicidad al evaluar la plausibilidad de las hipótesis? " [ 41]
Richard Swinburne defiende la simplicidad basándose en argumentos lógicos:
... la hipótesis más simple propuesta como explicación de los fenómenos tiene más probabilidades de ser verdadera que cualquier otra hipótesis disponible, sus predicciones tienen más probabilidades de ser verdaderas que las de cualquier otra hipótesis disponible, y es un principio epistémico a priori último que la simplicidad es evidencia de la verdad.
—Swinburne 1997
Según Swinburne, puesto que nuestra elección de teoría no puede determinarse por los datos (véase Subdeterminación y Tesis de Duhem-Quine ), debemos basarnos en algún criterio para determinar qué teoría utilizar. Puesto que es absurdo no tener un método lógico para decidirse por una hipótesis entre un número infinito de hipótesis igualmente compatibles con los datos, deberíamos elegir la teoría más simple: "O bien la ciencia es irracional [en la forma en que juzga probables las teorías y predicciones] o el principio de simplicidad es una verdad sintética fundamental a priori". [42]
Del Tractatus Logico-Philosophicus :
y sobre el concepto relacionado de "simplicidad":
En ciencia , la navaja de Occam se utiliza como una heurística para guiar a los científicos en el desarrollo de modelos teóricos en lugar de como un árbitro entre modelos publicados. [5] [6] En física , la parsimonia fue una heurística importante en la formulación de la relatividad especial de Albert Einstein , [43] [44] en el desarrollo y aplicación del principio de mínima acción por Pierre Louis Maupertuis y Leonhard Euler , [45] y en el desarrollo de la mecánica cuántica por Max Planck , Werner Heisenberg y Louis de Broglie . [6] [46]
En química , la navaja de Occam es a menudo una heurística importante al desarrollar un modelo de un mecanismo de reacción . [47] [48] Aunque es útil como heurística en el desarrollo de modelos de mecanismos de reacción, se ha demostrado que falla como criterio para seleccionar entre algunos modelos publicados seleccionados. [6] En este contexto, el propio Einstein expresó cautela cuando formuló la Restricción de Einstein : "Difícilmente se puede negar que el objetivo supremo de toda teoría es hacer que los elementos básicos irreducibles sean lo más simples y menos numerosos posible sin tener que renunciar a la representación adecuada de un único dato de experiencia". [49] [50] [51] Una versión a menudo citada de esta restricción (que no se puede verificar como postulada por el propio Einstein) [52] la reduce a "Todo debe mantenerse lo más simple posible, pero no más simple".
En el método científico , la navaja de Occam no se considera un principio irrefutable de la lógica o un resultado científico; la preferencia por la simplicidad en el método científico se basa en el criterio de falsabilidad . Para cada explicación aceptada de un fenómeno, puede haber un número extremadamente grande, quizás incluso incomprensible, de alternativas posibles y más complejas. Dado que las explicaciones fallidas siempre pueden cargarse con hipótesis ad hoc para evitar que se las refute, las teorías más simples son preferibles a las más complejas porque tienden a ser más comprobables . [53] [54] [55] Como principio lógico, la navaja de Occam exigiría que los científicos acepten la explicación teórica más simple posible para los datos existentes. Sin embargo, la ciencia ha demostrado repetidamente que los datos futuros a menudo respaldan teorías más complejas que los datos existentes. La ciencia prefiere la explicación más simple que sea consistente con los datos disponibles en un momento dado, pero la explicación más simple puede descartarse a medida que se disponga de nuevos datos. [5] [54] Es decir, la ciencia está abierta a la posibilidad de que futuros experimentos puedan sustentar teorías más complejas que las que exigen los datos actuales y está más interesada en diseñar experimentos para discriminar entre teorías en competencia que en favorecer una teoría sobre otra basándose meramente en principios filosóficos. [53] [54] [55]
Cuando los científicos utilizan la idea de parsimonia, esta tiene sentido sólo en un contexto de investigación muy específico. Se requieren varios supuestos de fondo para que la parsimonia se relacione con la plausibilidad en un problema de investigación particular. [ Aclaración necesaria ] La razonabilidad de la parsimonia en un contexto de investigación puede no tener nada que ver con su razonabilidad en otro. Es un error pensar que existe un único principio global que abarque diversos temas. [55]
Se ha sugerido que la navaja de Occam es un ejemplo ampliamente aceptado de consideración extraevidencial, aunque es una suposición enteramente metafísica. Sin embargo, la mayor parte del tiempo, la navaja de Occam es una herramienta conservadora, que elimina "construcciones locas y complicadas" y asegura "que las hipótesis estén fundamentadas en la ciencia del día", lo que produce una ciencia "normal": modelos de explicación y predicción. [6] Sin embargo, hay excepciones notables en las que la navaja de Occam convierte a un científico conservador en un revolucionario reticente. Por ejemplo, Max Planck interpoló entre las leyes de radiación de Wien y Jeans y utilizó la lógica de la navaja de Occam para formular la hipótesis cuántica, incluso resistiéndose a esa hipótesis cuando se hizo más obvio que era correcta. [6]
Las apelaciones a la simplicidad se utilizaron para argumentar en contra de los fenómenos de los meteoritos, los rayos globulares , la deriva continental y la transcriptasa inversa . [56] Se puede argumentar a favor de los bloques de construcción atómicos para la materia, porque proporciona una explicación más simple para la reversibilidad observada tanto de la mezcla [ aclaración necesaria ] como de las reacciones químicas como simples separaciones y reordenamientos de los bloques de construcción atómicos. En ese momento, sin embargo, la teoría atómica se consideró más compleja porque implicaba la existencia de partículas invisibles que no habían sido detectadas directamente. Ernst Mach y los positivistas lógicos rechazaron la teoría atómica de John Dalton hasta que la realidad de los átomos fue más evidente en el movimiento browniano , como lo demostró Albert Einstein . [57]
De la misma manera, postular la existencia del éter es más complejo que la transmisión de la luz a través del vacío . Sin embargo, en ese momento todas las ondas conocidas se propagaban a través de un medio físico, y parecía más sencillo postular la existencia de un medio que teorizar sobre la propagación de ondas sin un medio. Asimismo, la idea de partículas de luz de Isaac Newton parecía más simple que la idea de ondas de Christiaan Huygens , por lo que muchos la favorecían. En este caso, como se vio, ni la explicación de las ondas ni la de las partículas bastan por sí solas, ya que la luz se comporta como ondas y como partículas .
Los tres axiomas que presupone el método científico son el realismo (la existencia de la realidad objetiva), la existencia de leyes naturales y la constancia de la ley natural. En lugar de depender de la demostrabilidad de estos axiomas, la ciencia depende del hecho de que no han sido objetivamente refutados. La navaja de Occam y la parsimonia apoyan, pero no prueban, estos axiomas de la ciencia. El principio general de la ciencia es que las teorías (o modelos) de la ley natural deben ser consistentes con observaciones experimentales repetibles. Este árbitro último (criterio de selección) se basa en los axiomas mencionados anteriormente. [54]
Si varios modelos de la ley natural hacen exactamente las mismas predicciones comprobables, son equivalentes y no hay necesidad de ser parsimoniosos para elegir uno preferido. Por ejemplo, la mecánica clásica newtoniana , la hamiltoniana y lagrangiana son equivalentes. Los físicos no tienen interés en usar la navaja de Occam para decir que las otras dos están equivocadas. De la misma manera, no hay demanda de principios de simplicidad para arbitrar entre formulaciones ondulatorias y matriciales de la mecánica cuántica. La ciencia a menudo no exige arbitraje o criterios de selección entre modelos que hacen las mismas predicciones comprobables. [54]
Los biólogos o filósofos de la biología utilizan la navaja de Occam en cualquiera de dos contextos, tanto en biología evolutiva : la controversia de las unidades de selección como en sistemática . George C. Williams en su libro Adaptation and Natural Selection (1966) sostiene que la mejor manera de explicar el altruismo entre animales se basa en la selección de bajo nivel (es decir, individual) en oposición a la selección grupal de alto nivel. El altruismo es definido por algunos biólogos evolutivos (por ejemplo, R. Alexander, 1987; WD Hamilton, 1964) como un comportamiento que es beneficioso para otros (o para el grupo) a un costo para el individuo, y muchos postulan la selección individual como el mecanismo que explica el altruismo únicamente en términos de los comportamientos de los organismos individuales que actúan en su propio interés (o en el interés de sus genes, a través de la selección de parentesco). Williams argumentaba en contra de la perspectiva de otros que proponen la selección a nivel del grupo como un mecanismo evolutivo que selecciona rasgos altruistas (por ejemplo, DS Wilson y EO Wilson, 2007). La base de la tesis de Williams es que, de las dos teorías, la selección individual es la más parsimoniosa. Al hacerlo, invoca una variante de la navaja de Occam conocida como el Canon de Morgan : "En ningún caso debe interpretarse una actividad animal en términos de procesos psicológicos superiores, si puede interpretarse justamente en términos de procesos que se encuentran en un nivel inferior de la escala de la evolución y el desarrollo psicológicos" (Morgan 1903).
Sin embargo, análisis biológicos más recientes, como El gen egoísta de Richard Dawkins , han sostenido que el canon de Morgan no es la explicación más simple y básica. Dawkins sostiene que la forma en que funciona la evolución es que los genes propagados en la mayoría de las copias terminan determinando el desarrollo de esa especie en particular, es decir, la selección natural resulta seleccionar genes específicos, y este es realmente el principio subyacente fundamental que automáticamente da a la selección individual y grupal como características emergentes de la evolución.
La zoología nos ofrece un ejemplo. Los bueyes almizcleros , cuando se sienten amenazados por los lobos , forman un círculo con los machos fuera y las hembras y las crías dentro. Este es un ejemplo de un comportamiento de los machos que parece altruista. El comportamiento es desventajoso para ellos individualmente, pero beneficioso para el grupo en su conjunto; por lo tanto, algunos lo consideraron como un apoyo a la teoría de la selección grupal. Otra interpretación es la selección de parentesco: si los machos protegen a su descendencia, están protegiendo copias de sus propios alelos. La participación en este comportamiento se vería favorecida por la selección individual si el coste para el buey almizclero macho es inferior a la mitad del beneficio recibido por su cría, lo que podría ser fácilmente el caso si a los lobos les resulta más fácil matar a las crías que a los machos adultos. También podría darse el caso de que los bueyes almizcleros machos tuvieran menos probabilidades de ser asesinados por los lobos si se situaran en un círculo con los cuernos apuntando hacia fuera, independientemente de si estaban protegiendo a las hembras y a la descendencia. Éste sería un ejemplo de selección natural regular, un fenómeno llamado “la manada egoísta”.
La sistemática es la rama de la biología que intenta establecer patrones de relación entre taxones biológicos, que hoy en día se considera generalmente que reflejan la historia evolutiva. También se ocupa de su clasificación. Hay tres grupos principales en la sistemática: cladistas, feneticistas y taxonomistas evolutivos. Los cladistas sostienen que la clasificación debe basarse en sinapomorfias (estados de caracteres derivados compartidos), los feneticistas sostienen que la similitud general (sinapomorfias y simplesiomorfias complementarias ) es el criterio determinante, mientras que los taxonomistas evolutivos dicen que tanto la genealogía como la similitud cuentan en la clasificación (de una manera determinada por el taxonomista evolutivo). [58] [59]
Es entre los cladistas donde se aplica la navaja de Occam, a través del método de parsimonia cladística . La parsimonia cladística (o parsimonia máxima ) es un método de inferencia filogenética que produce árboles filogenéticos (más específicamente, cladogramas). Los cladogramas son ramificaciones, diagramas utilizados para representar hipótesis de grado relativo de relación, basados en sinapomorfías . La parsimonia cladística se utiliza para seleccionar como hipótesis preferida de relaciones el cladograma que requiere la menor cantidad de transformaciones de estado de caracteres implícitas (o el menor peso, si los caracteres tienen una ponderación diferencial). Los críticos del enfoque cladístico a menudo observan que para algunos tipos de datos, la parsimonia podría producir resultados erróneos, independientemente de la cantidad de datos que se recopilen (esto se llama inconsistencia estadística o atracción de ramas largas ). Sin embargo, esta crítica también es potencialmente cierta para cualquier tipo de inferencia filogenética, a menos que el modelo utilizado para estimar el árbol refleje la forma en que realmente ocurrió la evolución. Como esta información no es accesible empíricamente, la crítica de la inconsistencia estadística contra la parsimonia no tiene fuerza. [60] Para un tratamiento extenso de la parsimonia cladística, véase Elliott Sober en Reconstructing the Past: Parsimony, Evolution, and Inference (1988). Para un análisis de ambos usos de la navaja de Ockham en biología, véase el artículo de Sober "Let's Razor Ockham's Razor" (1990).
Otros métodos para inferir relaciones evolutivas utilizan la parsimonia de una manera más general. Los métodos de verosimilitud para la filogenia utilizan la parsimonia como lo hacen para todas las pruebas de verosimilitud, con hipótesis que requieren menos parámetros diferentes (es decir, números o diferentes tasas de cambio de caracteres o diferentes frecuencias de transiciones de estados de caracteres) siendo tratadas como hipótesis nulas en relación con las hipótesis que requieren más parámetros diferentes. Por lo tanto, las hipótesis complejas deben predecir los datos mucho mejor que las hipótesis simples antes de que los investigadores rechacen las hipótesis simples. Los avances recientes emplean la teoría de la información , un primo cercano de la verosimilitud, que utiliza la navaja de Occam de la misma manera. La elección del "árbol más corto" en relación con un árbol no tan corto bajo cualquier criterio de optimalidad (distancia más pequeña, menos pasos o máxima verosimilitud) siempre se basa en la parsimonia. [61]
Francis Crick ha comentado las posibles limitaciones de la navaja de Ockham en biología. Plantea el argumento de que, puesto que los sistemas biológicos son productos de una selección natural (en curso), los mecanismos no son necesariamente óptimos en un sentido obvio. Advierte: "Si bien la navaja de Ockham es una herramienta útil en las ciencias físicas, puede ser un instrumento muy peligroso en biología. Por lo tanto, es muy temerario utilizar la simplicidad y la elegancia como guía en la investigación biológica". [62] Se trata de una crítica ontológica de la parsimonia.
En biogeografía , la parsimonia se utiliza para inferir eventos vicariantes antiguos o migraciones de especies o poblaciones mediante la observación de la distribución geográfica y las relaciones de los organismos existentes . Dado el árbol filogenético, se infiere que las subdivisiones de poblaciones ancestrales son aquellas que requieren la cantidad mínima de cambio. [ cita requerida ]
En la filosofía de la religión , la navaja de Ockham se aplica a veces a la existencia de Dios. El propio Guillermo de Ockham era cristiano . Creía en Dios y en la autoridad de las escrituras cristianas ; escribe que "nada debe postularse sin una razón dada, a menos que sea evidente por sí mismo (literalmente, conocido por sí mismo) o conocido por experiencia o probado por la autoridad de la Sagrada Escritura". [63] Ockham creía que una explicación no tiene base suficiente en la realidad cuando no armoniza con la razón, la experiencia o la Biblia . Sin embargo, a diferencia de muchos teólogos de su tiempo, Ockham no creía que Dios pudiera probarse lógicamente con argumentos. Para Ockham, la ciencia era una cuestión de descubrimiento; la teología era una cuestión de revelación y fe . Afirma: "Solo la fe nos da acceso a las verdades teológicas. Los caminos de Dios no están abiertos a la razón, porque Dios ha elegido libremente crear un mundo y establecer un camino de salvación dentro de él, al margen de cualquier ley necesaria que la lógica o la racionalidad humanas puedan descubrir". [64]
Tomás de Aquino , en la Suma Teológica , utiliza una formulación de la navaja de Occam para construir una objeción a la idea de que Dios existe, que refuta directamente con un contraargumento: [65]
Además, es superfluo suponer que lo que puede explicarse por unos pocos principios haya sido producido por muchos. Pero parece que todo lo que vemos en el mundo puede explicarse por otros principios, suponiendo que Dios no existiera. En efecto, todas las cosas naturales pueden reducirse a un solo principio, que es la naturaleza, y todas las cosas voluntarias pueden reducirse a un solo principio, que es la razón humana o voluntad. Luego no hay necesidad de suponer la existencia de Dios.
A su vez, Aquino responde a esto con las quinque viae , y aborda la objeción particular anterior con la siguiente respuesta:
Como la naturaleza obra por un fin determinado bajo la dirección de un agente superior, todo lo que la naturaleza hace debe necesariamente atribuirse a Dios, como a su primera causa. Así también todo lo que se hace voluntariamente debe atribuirse a una causa superior distinta de la razón o la voluntad humanas, ya que éstas pueden cambiar o fallar; pues todo lo que es cambiante y susceptible de defectos debe atribuirse a un primer principio inamovible y necesario por sí mismo, como se demostró en el cuerpo del artículo.
En lugar de defender la necesidad de un dios, algunos teístas basan su creencia en fundamentos independientes o anteriores a la razón, lo que hace que la navaja de Occam sea irrelevante. Esta fue la postura de Søren Kierkegaard , quien veía la creencia en Dios como un acto de fe que a veces se oponía directamente a la razón. [66] Esta es también la doctrina de la apologética presuposicional de Gordon Clark , con la excepción de que Clark nunca pensó que el acto de fe fuera contrario a la razón (véase también Fideísmo ).
Diversos argumentos a favor de Dios establecen que Dios es una suposición útil o incluso necesaria. Por el contrario, algunos antiteístas sostienen firmemente la creencia de que suponer la existencia de Dios introduce una complejidad innecesaria (por ejemplo, la táctica del Boeing 747 definitivo de El espejismo de Dios de Dawkins [67] ). [68]
Otra aplicación del principio se encuentra en la obra de George Berkeley (1685-1753). Berkeley era un idealista que creía que toda la realidad podía explicarse en términos de la mente únicamente. Invocó la navaja de Occam contra el materialismo , afirmando que la materia no era necesaria para su metafísica y, por lo tanto, era eliminable. Un problema potencial con esta creencia [¿ para quién? ] es que es posible, dada la posición de Berkeley, encontrar que el solipsismo en sí mismo está más en línea con la navaja que un mundo mediado por Dios más allá de un solo pensador.
La navaja de Occam también puede reconocerse en la historia apócrifa sobre un intercambio entre Pierre-Simon Laplace y Napoleón . Se dice que al elogiar a Laplace por una de sus publicaciones recientes, el emperador preguntó cómo era posible que el nombre de Dios, que aparecía con tanta frecuencia en los escritos de Lagrange , no apareciera en ninguna parte en los de Laplace. Ante eso, se dice que respondió: "Es porque no necesitaba esa hipótesis". [69] Aunque algunos puntos de esta historia ilustran el ateísmo de Laplace , un análisis más cuidadoso sugiere que puede haber tenido la intención de ilustrar simplemente el poder del naturalismo metodológico , o incluso simplemente que cuantas menos premisas lógicas se asuman, más sólida es la conclusión.
En su artículo "Sensaciones y procesos cerebrales" (1959), JJC Smart invocó la navaja de Occam con el objetivo de justificar su preferencia por la teoría de la identidad mente-cerebro sobre el dualismo espíritu-cuerpo . Los dualistas afirman que hay dos tipos de sustancias en el universo: física (incluido el cuerpo) y espiritual, que es no física. En contraste, los teóricos de la identidad afirman que todo es físico, incluida la conciencia, y que no hay nada no físico. Aunque es imposible apreciar lo espiritual cuando uno se limita a lo físico, [ cita requerida ] Smart sostuvo que la teoría de la identidad explica todos los fenómenos asumiendo solo una realidad física. Posteriormente, Smart ha sido severamente criticado por su uso (o mal uso) de la navaja de Occam y finalmente se retractó de su defensa de ella en este contexto. Paul Churchland (1984) afirma que por sí sola la navaja de Occam no es concluyente con respecto a la dualidad. De manera similar, Dale Jacquette (1994) afirmó que la navaja de Occam se ha utilizado en intentos de justificar el eliminativismo y el reduccionismo en la filosofía de la mente. El eliminativismo es la tesis de que la ontología de la psicología popular, que incluye entidades como el "dolor", la "alegría", el "deseo", el "miedo", etc., son eliminables en favor de una ontología de una neurociencia completa.
En la teoría penal y la filosofía del castigo, la parsimonia se refiere específicamente a tener cuidado en la distribución del castigo para evitar un castigo excesivo. En el enfoque utilitarista de la filosofía del castigo, el "principio de parsimonia" de Jeremy Bentham establece que cualquier castigo mayor que el requerido para lograr su fin es injusto. El concepto está relacionado, pero no es idéntico, al concepto legal de proporcionalidad . La parsimonia es una consideración clave de la justicia restaurativa moderna y es un componente de los enfoques utilitaristas del castigo, así como del movimiento de abolición de las prisiones . Bentham creía que la verdadera parsimonia requeriría que el castigo se individualizara para tener en cuenta la sensibilidad del individuo: un individuo más sensible al castigo debería recibir uno proporcionalmente menor, ya que de lo contrario se le infligiría un dolor innecesario. Los escritores utilitaristas posteriores han tendido a abandonar esta idea, en gran parte debido a la impracticabilidad de determinar la sensibilidad relativa de cada presunto criminal a castigos específicos. [70]
La inteligencia artificial universal de Marcus Hutter se basa en la formalización matemática de la navaja de Solomonoff para calcular el valor esperado de una acción.
Existen varios artículos en revistas académicas que derivan versiones formales de la navaja de Occam a partir de la teoría de la probabilidad, la aplican en la inferencia estadística y la utilizan para elaborar criterios para penalizar la complejidad en la inferencia estadística. Los artículos [71] [72] han sugerido una conexión entre la navaja de Occam y la complejidad de Kolmogorov . [73]
Uno de los problemas con la formulación original de la navaja es que sólo se aplica a modelos con el mismo poder explicativo (es decir, sólo nos dice que prefiramos el más simple de los modelos igualmente buenos). Una forma más general de la navaja se puede derivar de la comparación de modelos bayesianos, que se basa en factores de Bayes y se puede utilizar para comparar modelos que no se ajustan igualmente bien a las observaciones. Estos métodos a veces pueden equilibrar de forma óptima la complejidad y el poder de un modelo. Generalmente, el factor de Occam exacto es intratable, pero se utilizan aproximaciones como el criterio de información de Akaike , el criterio de información bayesiano , los métodos bayesianos variacionales , la tasa de descubrimiento falso y el método de Laplace . Muchos investigadores de inteligencia artificial están empleando ahora tales técnicas, por ejemplo a través del trabajo sobre el aprendizaje de Occam o, de forma más general, sobre el principio de energía libre .
Las versiones estadísticas de la navaja de Occam tienen una formulación más rigurosa que la que producen las discusiones filosóficas. En particular, deben tener una definición específica del término simplicidad , y esa definición puede variar. Por ejemplo, en el enfoque de longitud mínima de descripción de Kolmogorov - Chaitin , el sujeto debe elegir una máquina de Turing cuyas operaciones describan las operaciones básicas que el sujeto cree que representan la "simplicidad". Sin embargo, siempre se podría elegir una máquina de Turing con una operación simple que construyera la teoría completa de uno y, por lo tanto, obtendría una puntuación alta en la navaja. Esto ha dado lugar a dos bandos opuestos: uno que cree que la navaja de Occam es objetiva y otro que cree que es subjetiva.
El conjunto mínimo de instrucciones de una máquina de Turing universal requiere aproximadamente la misma longitud de descripción en diferentes formulaciones, y es pequeño en comparación con la complejidad de Kolmogorov de la mayoría de las teorías prácticas. Marcus Hutter ha utilizado esta consistencia para definir una máquina de Turing "natural" de tamaño pequeño como la base adecuada para excluir conjuntos de instrucciones arbitrariamente complejos en la formulación de navajas de afeitar. [74] Al describir el programa para el programa universal como la "hipótesis", y la representación de la evidencia como datos del programa, se ha demostrado formalmente bajo la teoría de conjuntos de Zermelo-Fraenkel que "la suma del logaritmo de la probabilidad universal del modelo más el logaritmo de la probabilidad de los datos dados el modelo debe minimizarse". [75] Interpretar esto como minimizar la longitud total de un modelo de codificación de mensajes de dos partes seguido de un modelo de datos dados nos da el principio de longitud mínima del mensaje (MML). [71] [72]
Una posible conclusión de la combinación de los conceptos de complejidad de Kolmogorov y la navaja de Occam es que un compresor de datos ideal también sería un generador de explicaciones o formulaciones científicas. Se han hecho algunos intentos de volver a derivar leyes conocidas a partir de consideraciones de simplicidad o compresibilidad. [24] [76]
Según Jürgen Schmidhuber , la teoría matemática apropiada de la navaja de Occam ya existe, a saber, la teoría de inferencia inductiva óptima de Solomonoff [77] y sus extensiones. [78] Véanse los debates en "Foreword re CS Wallace" [79] de David L. Dowe para las sutiles distinciones entre el trabajo de probabilidad algorítmica de Solomonoff y el trabajo MML de Chris Wallace , y véase "MML, hybrid Bayesian network graphical models, statistical consistencia, invariance and uniqueness" [80] de Dowe tanto para tales debates como para (en la sección 4) debates sobre MML y la navaja de Occam. Para un ejemplo específico de MML como navaja de Occam en el problema de la inducción de árboles de decisión, véase "Message Length as an Effective Ockham's Razor in Decision Tree Induction" de Dowe y Needham. [81]
Los teoremas de "no hay almuerzo gratis " (NFL) para la inferencia inductiva prueban que la navaja de Occam debe basarse en suposiciones en última instancia arbitrarias sobre la distribución de probabilidad previa encontrada en nuestro mundo. [82] Específicamente, supongamos que se nos dan dos algoritmos de inferencia inductiva, A y B, donde A es un procedimiento bayesiano basado en la elección de alguna distribución previa motivada por la navaja de Occam (por ejemplo, la previa podría favorecer hipótesis con una complejidad de Kolmogorov menor ). Supongamos que B es el procedimiento anti-Bayes, que calcula lo que predecirá el algoritmo bayesiano A basado en la navaja de Occam, y luego predice exactamente lo opuesto. Entonces hay tantos anteriores reales (incluidos aquellos diferentes del anterior de la navaja de Occam asumido por A) en los que el algoritmo B supera a A como anteriores en los que el procedimiento A basado en la navaja de Occam sale ganando. En particular, los teoremas de la NFL muestran que el argumento bayesiano de los "factores de Occam" para la navaja de Occam debe hacer suposiciones de modelado en última instancia arbitrarias. [83]
En el desarrollo de software, la regla del menor poder sostiene que el lenguaje de programación correcto que se debe utilizar es el que es más simple y que, al mismo tiempo, resuelve el problema de software en cuestión. En esa forma, la regla se atribuye a menudo a Tim Berners-Lee, ya que apareció en sus directrices de diseño para el Protocolo de Transferencia de Hipertexto original . [84] La complejidad en este contexto se mide ya sea colocando un lenguaje en la jerarquía de Chomsky o enumerando las características idiomáticas del lenguaje y comparándolas de acuerdo con una escala acordada de dificultades entre modismos. Muchos lenguajes que alguna vez se creyeron de menor complejidad han evolucionado o luego se descubrió que eran más complejos de lo que se pretendía originalmente; por lo tanto, en la práctica, esta regla se aplica a la relativa facilidad de un programador para obtener la potencia del lenguaje, en lugar de los límites teóricos precisos del lenguaje.
La navaja de Occam no es un embargo contra la postulación de cualquier tipo de entidad, ni una recomendación de la teoría más simple pase lo que pase. [a] La navaja de Occam se utiliza para decidir entre teorías que ya han pasado pruebas de "escrutinio teórico" y que están igualmente bien respaldadas por la evidencia. [b] Además, puede utilizarse para priorizar las pruebas empíricas entre dos hipótesis igualmente plausibles pero desigualmente comprobables; minimizando así los costos y los desperdicios mientras se aumentan las posibilidades de falsificación de la hipótesis más simple de comprobar. [ cita requerida ]
Otro aspecto polémico de la navaja es que una teoría puede volverse más compleja en términos de su estructura (o sintaxis ), mientras que su ontología (o semántica ) se vuelve más simple, o viceversa. [c] Quine, en una discusión sobre la definición, se refirió a estas dos perspectivas como "economía de expresión práctica" y "economía en gramática y vocabulario", respectivamente. [86]
Galileo Galilei satirizó el mal uso de la navaja de Occam en su Diálogo . El principio está representado en el diálogo por Simplicio. El punto revelador que Galileo presentó irónicamente fue que si uno realmente quería comenzar a partir de un pequeño número de entidades, siempre podría considerar las letras del alfabeto como las entidades fundamentales, ya que podría construir todo el conocimiento humano a partir de ellas.
Se han criticado los casos en que se ha utilizado la navaja de Occam para justificar la creencia en teorías menos complejas y más simples, por considerar que se utiliza de forma inapropiada. Por ejemplo, Francis Crick afirmó que "si bien la navaja de Occam es una herramienta útil en las ciencias físicas, puede ser un instrumento muy peligroso en biología. Por lo tanto, es muy imprudente utilizar la simplicidad y la elegancia como guía en la investigación biológica". [87]
La navaja de Occam ha encontrado cierta oposición por parte de personas que la consideran demasiado extrema o temeraria. Walter Chatton ( c. 1290–1343 ) fue un contemporáneo de Guillermo de Ockham que se opuso a la navaja de Occam y al uso que Ockham le dio. En respuesta, ideó su propia antinavaja : "Si tres cosas no son suficientes para verificar una proposición afirmativa sobre las cosas, se debe agregar una cuarta y así sucesivamente". Aunque ha habido varios filósofos que han formulado antinavajas similares desde la época de Chatton, ninguna antinavaja se ha perpetuado de manera tan notable como la antinavaja de Chatton, aunque este podría ser el caso del lema italiano del Renacimiento tardío de atribución desconocida Se non è vero, è ben trovato ("Incluso si no es verdad, está bien concebido") cuando se hace referencia a una explicación particularmente ingeniosa.
Gottfried Wilhelm Leibniz (1646-1716), Immanuel Kant (1724-1804) y Karl Menger (1902-1985) también crearon navajas antinavajas . La versión de Leibniz adoptó la forma de un principio de plenitud , como lo denominó Arthur Lovejoy : la idea era que Dios creó el mundo más variado y poblado de los posibles. Kant sintió la necesidad de moderar los efectos de la navaja de Occam y, por lo tanto, creó su propia navaja antinavaja: "La variedad de los seres no debe disminuirse precipitadamente". [88]
Karl Menger consideró que los matemáticos eran demasiado parsimoniosos con respecto a las variables, por lo que formuló su Ley contra la avaricia, que adoptó una de dos formas: "Las entidades no deben reducirse al punto de la inadecuación" y "Es vano hacer con menos lo que requiere más". Una anti-navaja menos seria pero aún más extremista es la 'patafísica' , la "ciencia de las soluciones imaginarias" desarrollada por Alfred Jarry (1873-1907). Tal vez el máximo antirreducionismo, "la 'patafísica' busca nada menos que ver cada evento en el universo como completamente único, sujeto a ninguna ley excepto a las suyas propias". Variaciones sobre este tema fueron exploradas posteriormente por el escritor argentino Jorge Luis Borges en su cuento/ensayo simulado " Tlön, Uqbar, Orbis Tertius ". El físico RV Jones ideó el garrote de Crabtree, que afirma que "no puede existir ningún conjunto de observaciones mutuamente inconsistentes para las cuales algún intelecto humano no pueda concebir una explicación coherente, por complicada que sea". [89]
Recientemente, el físico estadounidense Igor Mazin argumentó que debido a que las revistas de física de alto perfil prefieren publicaciones que ofrecen interpretaciones exóticas e inusuales, el principio de la navaja de Occam está siendo reemplazado por una "navaja de Occam inversa", lo que implica que la explicación más simple posible suele ser rechazada. [90]
Desde 2012 [actualizar], la revista The Skeptic otorga anualmente los Premios Ockham, o simplemente los Ockhams, llamados así por la navaja de Occam, en QED . [91] Los Ockhams fueron presentados por la editora en jefe Deborah Hyde para "reconocer el esfuerzo y el tiempo que se han invertido en los blogs escépticos favoritos de la comunidad, los podcasts escépticos, las campañas escépticas y los contribuyentes destacados a la causa escéptica". [92] Los trofeos , diseñados por Neil Davies y Karl Derrick, llevan el texto superior " Ockham's " y el texto inferior " The Skeptic. Shaving away necessary postures since 1285 ". Entre los textos, hay una imagen de una hoja de afeitar de seguridad de doble filo , y ambas esquinas inferiores presentan una imagen del rostro de Guillermo de Ockham. [92]
Entium varietates non temere esse minuendas