En filosofía , la navaja de Occam (también deletreada navaja de Ockham o navaja de Ocham ; en latín : novacula Occami ) es el principio de resolución de problemas que recomienda buscar explicaciones construidas con el menor conjunto de elementos posible. También se le conoce como principio de parsimonia o ley de parsimonia ( latín : lex parsimoniae ). Atribuido a Guillermo de Ockham , filósofo y teólogo inglés del siglo XIV , se cita con frecuencia como Entia non sunt multiplicanda praeter necessitatem , que se traduce como "Las entidades no deben multiplicarse más allá de la necesidad", [1] [2] aunque Occam nunca lo usó. estas palabras exactas. Popularmente, el principio a veces se parafrasea como "La explicación más simple suele ser la mejor". [3]
Esta navaja filosófica defiende que cuando se presentan hipótesis en competencia sobre la misma predicción y ambas hipótesis tienen el mismo poder explicativo, uno debería preferir la hipótesis que requiere la menor cantidad de suposiciones [4] y que esto no pretende ser una forma de elegir entre hipótesis que hacer predicciones diferentes. De manera similar, en ciencia, la navaja de Occam se utiliza como heurística abductiva en el desarrollo de modelos teóricos más que como árbitro riguroso entre modelos candidatos. [5] [6]
La frase navaja de Occam no apareció hasta unos siglos después de la muerte de Guillermo de Ockham en 1347. Libert Froidmont , en su Sobre la filosofía cristiana del alma , le da crédito por la frase, hablando de " novacula occami ". [7] Ockham no inventó este principio, pero su fama—y su asociación con él—puede deberse a la frecuencia y eficacia con la que lo utilizó. [8] Ockham expresó el principio de varias maneras, pero la versión más popular, "Las entidades no deben multiplicarse sin necesidad" ( Non sunt multiplicanda entia sine necessitate ) fue formulada por el filósofo franciscano irlandés John Punch en su comentario de 1639 sobre el obras de Duns Escoto . [9]
Los orígenes de lo que se conoce como la navaja de Occam se remontan a las obras de filósofos anteriores como John Duns Scotus (1265-1308), Robert Grosseteste (1175-1253), Maimónides (Moisés ben-Maimon, 1138-1204). , e incluso Aristóteles (384-322 a. C.). [10] [11] Aristóteles escribe en sus Análisis posteriores : "Podemos asumir la superioridad ceteris paribus [en igualdad de condiciones] de la demostración que se deriva de menos postulados o hipótesis". Ptolomeo ( c. 90 d. C. - c. 168 ) declaró: "Consideramos que es un buen principio explicar los fenómenos mediante la hipótesis más simple posible". [12]
Frases como "Es vano hacer con más lo que se puede hacer con menos" y "No se debe plantear una pluralidad sin necesidad" eran comunes en los escritos escolásticos del siglo XIII . [12] Robert Grosseteste, en Comentario sobre los Libros analíticos posteriores [de Aristóteles] ( Commentarius in Posteriorum Analyticorum Libros ) ( c. 1217-1220 ), declara: "Es mejor y más valioso lo que requiere menos, siendo iguales las demás circunstancias... Porque si una cosa se demuestra a partir de muchas y otra cosa a partir de menos premisas igualmente conocidas, claramente es mejor la que sea a partir de menos, porque nos hace saber rápidamente, así como una demostración universal es mejor que la particular porque produce conocimiento a partir de menos premisas. De manera similar, en las ciencias naturales, en las ciencias morales y en la metafísica, lo mejor es lo que no necesita premisas y mejor lo que necesita menos, siendo iguales las demás circunstancias". [13]
La Summa Theologica de Tomás de Aquino (1225-1274) afirma que "es superfluo suponer que lo que puede explicarse mediante unos pocos principios haya sido producido por muchos". Tomás de Aquino utiliza este principio para construir una objeción a la existencia de Dios , objeción que él a su vez responde y refuta de manera general (cf. quinque viae ), y específicamente, a través de un argumento basado en la causalidad . [14] Por lo tanto, Tomás de Aquino reconoce el principio que hoy se conoce como la navaja de Occam, pero prefiere explicaciones causales a otras explicaciones simples (cf. también Correlación no implica causalidad ).
Guillermo de Ockham ( alrededor de 1287-1347) fue un fraile y teólogo franciscano inglés , un influyente filósofo medieval y nominalista . Su fama popular como gran lógico se basa principalmente en la máxima que se le atribuye y conocida como la navaja de Occam. El término navaja se refiere a distinguir entre dos hipótesis, ya sea "eliminando" suposiciones innecesarias o separando dos conclusiones similares.
Si bien se ha afirmado que la navaja de Occam no se encuentra en ninguno de los escritos de William, [15] se pueden citar afirmaciones como Numquam ponenda est pluralitas sine necessitate ("La pluralidad nunca debe postularse sin necesidad"), que aparece en su obra teológica. sobre las Sentencias de Pedro Lombardi ( Quaestiones et decisiones in quattuor libros Sententiarum Petri Lombardi ; ed. Lugd., 1495, i, dist. 27, qu. 2, K).
Sin embargo, las palabras precisas atribuidas a veces a Guillermo de Ockham, Entia non sunt multiplicanda praeter necessitatem (Las entidades no deben multiplicarse más allá de la necesidad), [16] están ausentes en sus obras existentes; [17] esta frase particular proviene de John Punch , [18] quien describió el principio como un "axioma común" ( axioma vulgare ) de los escolásticos. [9] El propio Guillermo de Ockham parece restringir el funcionamiento de este principio en cuestiones relativas a los milagros y al poder de Dios, considerando una pluralidad de milagros posibles en la Eucaristía [ se necesita más explicación ] simplemente porque agrada a Dios. [12]
Este principio a veces se expresa como Pluralitas non est ponenda sine necessitate ("La pluralidad no debe postularse sin necesidad"). [19] En su Summa Totius Logicae , i. 12, Guillermo de Ockham cita el principio de economía, Frustra fit per plura quod potest fieri per pauciora ("Es inútil hacer con más cosas lo que se puede hacer con menos"; Thorburn, 1918, págs. 352-53; Kneale y Kneale, 1962, pág. 243.)
Para citar a Isaac Newton , "No debemos admitir más causas de las cosas naturales que las que sean verdaderas y suficientes para explicar sus apariencias. Por lo tanto, a los mismos efectos naturales debemos, en la medida de lo posible, asignar las mismas causas". [20] [21] En la frase hipotesis non fingo , Newton afirma el éxito de este enfoque.
Bertrand Russell ofrece una versión particular de la navaja de Occam: "Siempre que sea posible, sustituya construcciones a partir de entidades conocidas por inferencias a entidades desconocidas". [22]
Alrededor de 1960, Ray Solomonoff fundó la teoría de la inferencia inductiva universal , la teoría de la predicción basada en observaciones; por ejemplo, predecir el siguiente símbolo basándose en una serie determinada de símbolos. El único supuesto es que el entorno sigue una distribución de probabilidad desconocida pero computable. Esta teoría es una formalización matemática de la navaja de Occam. [23] [24] [25]
Otra aproximación técnica a la navaja de Occam es la parsimonia ontológica . [26] Parsimonia significa moderación y también se la conoce como la Regla de la Simplicidad. Esta se considera una versión fuerte de la navaja de Occam. [27] [28] Una variación utilizada en medicina se llama " Cebra ": un médico debe rechazar un diagnóstico médico exótico cuando una explicación más común es más probable, derivada del dicho de Theodore Woodward "Cuando escuches cascos, piensa en caballos, no cebras". [29]
Ernst Mach formuló en física la versión más fuerte de la navaja de Occam , a la que llamó Principio de Economía afirmando: "Los científicos deben utilizar los medios más simples para llegar a sus resultados y excluir todo lo que no sea percibido por los sentidos". [30]
Este principio se remonta al menos a Aristóteles, quien escribió "La naturaleza actúa del modo más corto posible". [27] La idea de parsimonia o simplicidad al decidir entre teorías, aunque no es la intención de la expresión original de la navaja de Occam, ha sido asimilada en la cultura común como la formulación generalizada del profano de que "la explicación más simple suele ser la correcta". [27]
Antes del siglo XX, era una creencia común que la naturaleza misma era simple y que, por lo tanto, las hipótesis más simples sobre la naturaleza tenían más probabilidades de ser ciertas. Esta noción estaba profundamente arraigada en el valor estético que la simplicidad tiene para el pensamiento humano y las justificaciones presentadas a menudo provenían de la teología . [ se necesita aclaración ] Tomás de Aquino planteó este argumento en el siglo XIII, escribiendo: "Si una cosa se puede hacer adecuadamente por medio de uno, es superfluo hacerlo por medio de varios; porque observamos que la naturaleza no emplea dos instrumentos". [si] uno es suficiente." [31]
A partir del siglo XX, las justificaciones epistemológicas basadas en la inducción , la lógica , el pragmatismo y especialmente la teoría de la probabilidad se han vuelto más populares entre los filósofos. [7]
La navaja de Occam ha obtenido un fuerte apoyo empírico para ayudar a converger en mejores teorías (consulte la sección Usos a continuación para ver algunos ejemplos).
En el concepto relacionado de sobreajuste , los modelos excesivamente complejos se ven afectados por el ruido estadístico (un problema también conocido como compensación entre sesgo y varianza ), mientras que los modelos más simples pueden capturar mejor la estructura subyacente y, por lo tanto, pueden tener un mejor rendimiento predictivo . Sin embargo, a menudo es difícil deducir qué parte de los datos es ruido (cf. selección de modelo , conjunto de pruebas , longitud mínima de descripción , inferencia bayesiana , etc.).
La afirmación de la navaja de que "en igualdad de condiciones, las explicaciones más simples son generalmente mejores que las más complejas" es susceptible de prueba empírica. Otra interpretación de la afirmación de la navaja sería que "las hipótesis más simples son generalmente mejores que las complejas". El procedimiento para probar la primera interpretación compararía los antecedentes de explicaciones simples y comparativamente complejas. Si se acepta la primera interpretación, entonces habría que rechazar la validez de la navaja de Occam como herramienta si las explicaciones más complejas fueran más correctas que las menos complejas (mientras que lo contrario respaldaría su uso). Si se acepta esta última interpretación, la validez de la navaja de Occam como herramienta podría aceptarse si las hipótesis más simples condujeran a conclusiones correctas la mayoría de las veces.
Incluso si a veces son necesarios algunos aumentos en la complejidad, aún persiste un sesgo general justificado hacia la más simple de dos explicaciones en competencia. Para entender por qué, considere que para cada explicación aceptada de un fenómeno, siempre hay un número infinito de alternativas posibles, más complejas y, en última instancia, incorrectas. Esto es así porque siempre se puede cargar una explicación fallida con una hipótesis ad hoc . Las hipótesis ad hoc son justificaciones que impiden que las teorías sean falsadas.
Por ejemplo, si un hombre, acusado de romper un jarrón, hace afirmaciones sobrenaturales de que los duendes fueron los responsables de la rotura, una explicación simple podría ser que el hombre lo hizo, pero hay justificaciones ad hoc continuas (por ejemplo, "... y eso no es yo lo rompí en la película; ellos también lo alteraron") podría evitar con éxito una refutación total. Este suministro interminable de elaboradas explicaciones contrapuestas, llamadas hipótesis salvadoras, no puede descartarse técnicamente, excepto utilizando la navaja de Occam. [32] [33] [34]
Es posible que cualquier teoría más compleja siga siendo cierta. Un estudio sobre la validez predictiva de la navaja de Occam encontró 32 artículos publicados que incluían 97 comparaciones de pronósticos económicos a partir de métodos de pronóstico simples y complejos. Ninguno de los artículos proporcionó un equilibrio de evidencia de que la complejidad del método mejoró la precisión del pronóstico. En los 25 artículos con comparaciones cuantitativas, la complejidad aumentó los errores de pronóstico en un promedio del 27 por ciento. [35]
Una justificación de la navaja de Occam es un resultado directo de la teoría básica de la probabilidad . Por definición, todos los supuestos introducen posibilidades de error; Si un supuesto no mejora la precisión de una teoría, su único efecto es aumentar la probabilidad de que la teoría general sea errónea.
También ha habido otros intentos de derivar la navaja de Occam a partir de la teoría de la probabilidad, incluidos los intentos notables de Harold Jeffreys y ET Jaynes . La base probabilística (bayesiana) de la navaja de Occam es elaborada por David JC MacKay en el capítulo 28 de su libro Teoría de la información, inferencia y algoritmos de aprendizaje , [36] donde enfatiza que no se requiere un sesgo previo a favor de modelos más simples.
William H. Jefferys y James O. Berger (1991) generalizan y cuantifican el concepto de "supuestos" de la formulación original como el grado en que una proposición se adapta innecesariamente a posibles datos observables. [37] Afirman: "Una hipótesis con menos parámetros ajustables tendrá automáticamente una probabilidad posterior mejorada, debido al hecho de que las predicciones que hace son precisas". [37] El uso de "agudo" aquí no es sólo una referencia irónica a la idea de una navaja de afeitar, sino que también indica que tales predicciones son más precisas que las predicciones competidoras. El modelo que proponen equilibra la precisión de las predicciones de una teoría con su agudeza, prefiriendo teorías que hacen predicciones claramente correctas a teorías que se adaptan a una amplia gama de otros resultados posibles. Esto, nuevamente, refleja la relación matemática entre conceptos clave en la inferencia bayesiana (a saber, probabilidad marginal , probabilidad condicional y probabilidad posterior ).
El equilibrio entre sesgo y varianza es un marco que incorpora el principio de la navaja de Occam en su equilibrio entre sobreajuste (asociado con menor sesgo pero mayor varianza) y desajuste (asociado con menor varianza pero mayor sesgo). [38]
Karl Popper sostiene que la preferencia por teorías simples no tiene por qué apelar a consideraciones prácticas o estéticas. Nuestra preferencia por la simplicidad puede estar justificada por su criterio de falsabilidad : preferimos teorías más simples a otras más complejas "porque su contenido empírico es mayor; y porque son mejor comprobables". [39] La idea aquí es que una teoría simple se aplica a más casos que una más compleja y, por lo tanto, es más fácilmente falsable. Esto es nuevamente comparar una teoría simple con una teoría más compleja donde ambas explican los datos igualmente bien.
El filósofo de la ciencia Elliott Sober argumentó una vez en la misma línea que Popper, vinculando la simplicidad con la "informatividad": La teoría más simple es la más informativa, en el sentido de que requiere menos información para una pregunta. [40] Desde entonces ha rechazado esta explicación de la simplicidad, supuestamente porque no proporciona una justificación epistémica para la simplicidad. Ahora cree que las consideraciones de simplicidad (y las consideraciones de parsimonia en particular) no cuentan a menos que reflejen algo más fundamental. Sugiere que los filósofos pueden haber cometido el error de hipostasiar la simplicidad (es decir, dotarla de una existencia sui generis ), cuando sólo tiene significado cuando está inserta en un contexto específico (Sober 1992). Si no logramos justificar las consideraciones de simplicidad sobre la base del contexto en el que las usamos, es posible que no tengamos una justificación no circular: "Así como la pregunta '¿por qué ser racional?' puede no tener una respuesta no circular, lo mismo puede aplicarse a la pregunta '¿por qué debería considerarse la simplicidad al evaluar la plausibilidad de las hipótesis ' " [41]
Richard Swinburne aboga por la simplicidad sobre bases lógicas:
... la hipótesis más simple propuesta como explicación de los fenómenos tiene más probabilidades de ser verdadera que cualquier otra hipótesis disponible, que sus predicciones tienen más probabilidades de ser verdaderas que las de cualquier otra hipótesis disponible, y que es una hipótesis definitiva Principio epistémico a priori de que la simplicidad es evidencia de la verdad.
-Swinburne 1997
Según Swinburne, dado que nuestra elección de teoría no puede estar determinada por los datos (ver Subdeterminación y tesis de Duhem-Quine ), debemos confiar en algún criterio para determinar qué teoría usar. Dado que es absurdo no tener un método lógico para decidir una hipótesis entre un número infinito de hipótesis igualmente compatibles con los datos, deberíamos elegir la teoría más simple: "O la ciencia es irracional [en la forma en que juzga probables las teorías y predicciones] o la El principio de simplicidad es una verdad sintética fundamental a priori”. [42]
Del Tractatus Logico-Philosophicus :
y sobre el concepto relacionado de "simplicidad":
En ciencia , la navaja de Occam se utiliza como heurística para guiar a los científicos en el desarrollo de modelos teóricos más que como árbitro entre los modelos publicados. [5] [6] En física , la parsimonia fue una heurística importante en la formulación de la relatividad especial de Albert Einstein , [43] [44] en el desarrollo y aplicación del principio de acción mínima por Pierre Louis Maupertuis y Leonhard Euler , [ 45] y en el desarrollo de la mecánica cuántica por Max Planck , Werner Heisenberg y Louis de Broglie . [6] [46]
En química , la navaja de Occam suele ser una heurística importante a la hora de desarrollar un modelo de mecanismo de reacción . [47] [48] Aunque es útil como heurística en el desarrollo de modelos de mecanismos de reacción, se ha demostrado que falla como criterio para seleccionar entre algunos modelos publicados seleccionados. [6] En este contexto, el propio Einstein expresó cautela cuando formuló la Restricción de Einstein : "Difícilmente se puede negar que el objetivo supremo de toda teoría es hacer que los elementos básicos irreducibles sean tan simples y tan pocos como sea posible sin tener que renunciar a los elementos básicos adecuados". representación de un único dato de experiencia." [49] [50] [51] Una versión citada a menudo de esta restricción (que no puede ser verificada como postulada por el propio Einstein) [52] la reduce a "Todo debe mantenerse lo más simple posible, pero no más simple".
En el método científico , la navaja de Occam no es considerada un principio irrefutable de lógica ni un resultado científico; la preferencia por la simplicidad en el método científico se basa en el criterio de falsabilidad . Para cada explicación aceptada de un fenómeno, puede haber un número extremadamente grande, quizás incluso incomprensible, de alternativas posibles y más complejas. Dado que las explicaciones fallidas siempre pueden verse cargadas de hipótesis ad hoc para evitar que sean refutadas, las teorías más simples son preferibles a las más complejas porque tienden a ser más comprobables . [53] [54] [55] Como principio lógico, la navaja de Occam exigiría que los científicos aceptaran la explicación teórica más simple posible para los datos existentes. Sin embargo, la ciencia ha demostrado repetidamente que los datos futuros a menudo respaldan teorías más complejas que los datos existentes. La ciencia prefiere la explicación más simple que sea consistente con los datos disponibles en un momento dado, pero la explicación más simple puede descartarse a medida que se disponga de nuevos datos. [5] [54] Es decir, la ciencia está abierta a la posibilidad de que experimentos futuros puedan respaldar teorías más complejas que las que exigen los datos actuales y está más interesada en diseñar experimentos para discriminar entre teorías en competencia que en favorecer una teoría sobre otra basada meramente en principios filosóficos. principios. [53] [54] [55]
Cuando los científicos utilizan la idea de parsimonia, sólo tiene significado en un contexto de investigación muy específico. Se requieren varios supuestos básicos para que la parsimonia se conecte con la plausibilidad en un problema de investigación particular. [ se necesita aclaración ] La razonabilidad de la parsimonia en un contexto de investigación puede no tener nada que ver con su razonabilidad en otro. Es un error pensar que existe un único principio global que abarca diversos temas. [55]
Se ha sugerido que la navaja de Occam es un ejemplo ampliamente aceptado de consideración extraevidencial, aunque sea enteramente una suposición metafísica. La mayor parte del tiempo, sin embargo, la navaja de Occam es una herramienta conservadora, que elimina "construcciones locas y complicadas" y asegura "que las hipótesis estén basadas en la ciencia del momento", produciendo así ciencia "normal": modelos de explicación y predicción. [6] Sin embargo, hay excepciones notables en las que la navaja de Occam convierte a un científico conservador en un revolucionario reacio. Por ejemplo, Max Planck interpoló entre las leyes de radiación de Wien y Jeans y utilizó la lógica de la navaja de Occam para formular la hipótesis cuántica, incluso resistiéndose a esa hipótesis cuando se hizo más obvio que era correcta. [6]
Se utilizaron apelaciones a la simplicidad para argumentar en contra de los fenómenos de los meteoritos, las centellas , la deriva continental y la transcriptasa inversa . [56] Se puede defender los bloques de construcción atómicos de la materia, porque proporciona una explicación más simple para la reversibilidad observada tanto de la mezcla [ aclaración necesaria ] como de las reacciones químicas como simples separaciones y reordenamientos de bloques de construcción atómicos. En aquella época, sin embargo, la teoría atómica se consideraba más compleja porque implicaba la existencia de partículas invisibles que no habían sido detectadas directamente. Ernst Mach y los positivistas lógicos rechazaron la teoría atómica de John Dalton hasta que la realidad de los átomos fue más evidente en el movimiento browniano , como lo demostró Albert Einstein . [57]
Del mismo modo, postular el éter es más complejo que la transmisión de la luz a través del vacío . En aquel momento, sin embargo, todas las ondas conocidas se propagaban a través de un medio físico, y parecía más sencillo postular la existencia de un medio que teorizar sobre la propagación de ondas sin un medio. Asimismo, la idea de Isaac Newton sobre las partículas de luz parecía más simple que la idea de ondas de Christiaan Huygens , por lo que muchos la favorecieron. En este caso, resultó que ni la explicación de la onda ni de la partícula por sí sola es suficiente, ya que la luz se comporta como ondas y como partículas .
Tres axiomas que presupone el método científico son el realismo (la existencia de la realidad objetiva), la existencia de leyes naturales y la constancia de la ley natural. En lugar de depender de la demostrabilidad de estos axiomas, la ciencia depende del hecho de que no hayan sido objetivamente refutados. La navaja y la parsimonia de Occam apoyan, pero no prueban, estos axiomas de la ciencia. El principio general de la ciencia es que las teorías (o modelos) de la ley natural deben ser consistentes con observaciones experimentales repetibles. Este árbitro último (criterio de selección) se basa en los axiomas mencionados anteriormente. [54]
Si varios modelos de ley natural hacen exactamente las mismas predicciones comprobables, son equivalentes y no hay necesidad de ser parsimonia para elegir uno preferido. Por ejemplo, la mecánica clásica newtoniana , hamiltoniana y lagrangiana son equivalentes. Los físicos no tienen ningún interés en utilizar la navaja de Occam para decir que los otros dos están equivocados. Del mismo modo, no se exigen principios de simplicidad para arbitrar entre las formulaciones ondulatorias y matriciales de la mecánica cuántica. La ciencia a menudo no exige criterios de arbitraje o selección entre modelos que hacen las mismas predicciones comprobables. [54]
Los biólogos o filósofos de la biología utilizan la navaja de Occam en cualquiera de dos contextos tanto en la biología evolutiva : las unidades de selección, la controversia y la sistemática . George C. Williams en su libro Adaptación y selección natural (1966) sostiene que la mejor manera de explicar el altruismo entre animales se basa en la selección de bajo nivel (es decir, individual) en contraposición a la selección grupal de alto nivel. Algunos biólogos evolucionistas (p. ej., R. Alexander, 1987; WD Hamilton, 1964) definen el altruismo como un comportamiento que beneficia a otros (o al grupo) a un costo para el individuo, y muchos postulan la selección individual como el mecanismo que explica el altruismo únicamente en términos de comportamientos de organismos individuales que actúan en su propio interés (o en interés de sus genes, a través de la selección de parentesco). Williams estaba argumentando en contra de la perspectiva de otros que proponen la selección a nivel de grupo como un mecanismo evolutivo que selecciona rasgos altruistas (por ejemplo, DS Wilson y EO Wilson, 2007). La base de la afirmación de Williams es que, de las dos, la selección individual es la teoría más parsimoniosa. Al hacerlo, invoca una variante de la navaja de Occam conocida como el Canon de Morgan : "En ningún caso una actividad animal debe interpretarse en términos de procesos psicológicos superiores, si puede interpretarse justamente en términos de procesos que se encuentran en niveles inferiores en la escala". de la evolución y el desarrollo psicológico." (Morgan 1903).
Sin embargo, análisis biológicos más recientes, como The Selfish Gene de Richard Dawkins , han sostenido que el Canon de Morgan no es la explicación más simple y básica. Dawkins sostiene que la forma en que funciona la evolución es que los genes propagados en la mayoría de las copias terminan determinando el desarrollo de esa especie en particular, es decir, la selección natural selecciona genes específicos, y este es realmente el principio subyacente fundamental que automáticamente da selección individual y grupal. como características emergentes de la evolución.
La zoología proporciona un ejemplo. Los bueyes almizcleros , cuando son amenazados por los lobos , forman un círculo con los machos en el exterior y las hembras y crías en el interior. Este es un ejemplo de un comportamiento de los machos que parece altruista. El comportamiento es desventajoso para ellos individualmente pero beneficioso para el grupo en su conjunto y, por lo tanto, algunos consideraron que apoya la teoría de la selección grupal. Otra interpretación es la selección de parentesco: si los machos protegen a su descendencia, están protegiendo copias de sus propios alelos. La selección individual favorecería este comportamiento si el coste para el buey almizclero macho es inferior a la mitad del beneficio recibido por su cría, lo que fácilmente podría ser el caso si a los lobos les resulta más fácil matar crías que a los machos adultos. También podría darse el caso de que los bueyes almizcleros machos tuvieran individualmente menos probabilidades de ser asesinados por lobos si se pararan en círculo con los cuernos apuntando, independientemente de si estaban protegiendo a las hembras y a las crías. Ése sería un ejemplo de selección natural regular, un fenómeno llamado "el rebaño egoísta".
La sistemática es la rama de la biología que intenta establecer patrones de relación entre taxones biológicos, que hoy generalmente se cree que reflejan la historia evolutiva. También le preocupa su clasificación. Hay tres campos principales en sistemática: cladistas, fenetistas y taxónomos evolutivos. Los cladistas sostienen que la clasificación debe basarse en sinapomorfias (estados de carácter derivados y compartidos), los fenetistas sostienen que la similitud general (sinapomorfias y simplesiomorfias complementarias ) es el criterio determinante, mientras que los taxonomistas evolutivos dicen que tanto la genealogía como la similitud cuentan en la clasificación (de una manera determinada). por el taxónomo evolucionista). [58] [59]
Es entre los cladistas donde se aplica la navaja de Occam, mediante el método de la parsimonia cladística . La parsimonia cladística (o parsimonia máxima ) es un método de inferencia filogenética que produce árboles filogenéticos (más específicamente, cladogramas). Los cladogramas son diagramas ramificados que se utilizan para representar hipótesis de grado relativo de relación, basados en sinapomorfias . La parsimonia cladística se utiliza para seleccionar como hipótesis preferida de relaciones el cladograma que requiere la menor cantidad de transformaciones implícitas del estado de los caracteres (o el menor peso, si los caracteres tienen una ponderación diferencial). Los críticos del enfoque cladístico a menudo observan que para algunos tipos de datos, la parsimonia podría producir resultados incorrectos, independientemente de la cantidad de datos que se recopilen (esto se llama inconsistencia estadística o atracción de rama larga ). Sin embargo, esta crítica también es potencialmente cierta para cualquier tipo de inferencia filogenética, a menos que el modelo utilizado para estimar el árbol refleje la forma en que realmente ocurrió la evolución. Como esta información no es empíricamente accesible, la crítica de la inconsistencia estadística contra la parsimonia no tiene fuerza. [60] Para un tratamiento completo de la parsimonia cladística, véase Reconstructing the Past: Parsimony, Evolution, and Inference de Elliott Sober ( 1988). Para una discusión de ambos usos de la navaja de Ockham en biología, consulte el artículo de Sober "Let's Razor Ockham's Razor" (1990).
Otros métodos para inferir relaciones evolutivas utilizan la parsimonia de una manera más general. Los métodos de verosimilitud para la filogenia utilizan la parsimonia como lo hacen para todas las pruebas de verosimilitud, donde las hipótesis que requieren menos parámetros diferentes (es decir, números o diferentes tasas de cambio de carácter o diferentes frecuencias de transiciones de estado de carácter) se tratan como hipótesis nulas en relación con las hipótesis que requieren más parámetros diferentes. . Por lo tanto, las hipótesis complejas deben predecir los datos mucho mejor que las hipótesis simples antes de que los investigadores rechacen las hipótesis simples. Los avances recientes emplean la teoría de la información , prima cercana de la probabilidad, que utiliza la navaja de Occam de la misma manera. La elección del "árbol más corto" en relación con un árbol no tan corto bajo cualquier criterio de optimización (distancia más pequeña, menor número de pasos o máxima probabilidad) siempre se basa en la parsimonia. [61]
Francis Crick ha comentado sobre las posibles limitaciones de la navaja de Occam en biología. Plantea el argumento de que, dado que los sistemas biológicos son producto de una selección natural (en curso), los mecanismos no son necesariamente óptimos en un sentido obvio. Advierte: "Si bien la navaja de Ockham es una herramienta útil en las ciencias físicas, puede ser un instrumento muy peligroso en biología. Por lo tanto, es muy imprudente utilizar la simplicidad y la elegancia como guía en la investigación biológica". [62] Ésta es una crítica ontológica de la parsimonia.
En biogeografía , la parsimonia se utiliza para inferir eventos vicariantes antiguos o migraciones de especies o poblaciones mediante la observación de la distribución geográfica y las relaciones de los organismos existentes . Dado el árbol filogenético, se infiere que las subdivisiones de la población ancestral son aquellas que requieren la cantidad mínima de cambio. [ cita necesaria ]
En la filosofía de la religión , la navaja de Occam se aplica en ocasiones a la existencia de Dios. El propio Guillermo de Ockham era cristiano . Creía en Dios y en la autoridad de las Escrituras cristianas ; escribe que "nada debe postularse sin una razón dada, a menos que sea evidente por sí mismo (literalmente, conocido por sí mismo) o conocido por la experiencia o probado por la autoridad de la Sagrada Escritura". [63] Ockham creía que una explicación no tiene base suficiente en la realidad cuando no armoniza con la razón, la experiencia o la Biblia . Sin embargo, a diferencia de muchos teólogos de su tiempo, Ockham no creía que Dios pudiera demostrarse lógicamente con argumentos. Para Ockham, la ciencia era una cuestión de descubrimiento; la teología era una cuestión de revelación y fe . Afirma: "Sólo la fe nos da acceso a las verdades teológicas. Los caminos de Dios no están abiertos a la razón, porque Dios ha elegido libremente crear un mundo y establecer un camino de salvación dentro de él, aparte de cualquier ley necesaria que la lógica o la racionalidad humana puede descubrir." [64]
Tomás de Aquino , en la Summa Theologica , utiliza una formulación de la navaja de Occam para construir una objeción a la idea de que Dios existe, que refuta directamente con un contraargumento: [65]
Además, es superfluo suponer que lo que puede explicarse mediante unos pocos principios haya sido producido por muchos. Pero parece que todo lo que vemos en el mundo puede explicarse mediante otros principios, suponiendo que Dios no existiera. Pues todas las cosas naturales pueden reducirse a un principio que es la naturaleza; y todas las cosas voluntarias pueden reducirse a un principio que es la razón o voluntad humana. Por tanto, no hay necesidad de suponer la existencia de Dios.
A su vez, Tomás de Aquino responde a esto con el quinque viae y aborda la objeción particular anterior con la siguiente respuesta:
Dado que la naturaleza trabaja para un fin determinado bajo la dirección de un agente superior, todo lo que hace la naturaleza debe remontarse a Dios, como a su causa primera. Así también, todo lo que se hace voluntariamente debe atribuirse a alguna causa superior distinta de la razón o la voluntad humana, ya que éstas pueden cambiar o fallar; porque todas las cosas que son cambiables y susceptibles de defecto deben remontarse a un primer principio inamovible y necesario por sí mismo, como se muestra en el cuerpo del artículo.
En lugar de defender la necesidad de un dios, algunos teístas basan su creencia en motivos independientes de la razón o anteriores a ella, haciendo irrelevante la navaja de Occam. Esta fue la postura de Søren Kierkegaard , quien veía la creencia en Dios como un acto de fe que a veces se oponía directamente a la razón. [66] Esta es también la doctrina de la apologética presuposicional de Gordon Clark , con la excepción de que Clark nunca pensó que el acto de fe fuera contrario a la razón (ver también Fideísmo ).
Varios argumentos a favor de Dios establecen a Dios como una suposición útil o incluso necesaria. Por el contrario, algunos antiteístas se aferran firmemente a la creencia de que asumir la existencia de Dios introduce una complejidad innecesaria (por ejemplo, la táctica definitiva del Boeing 747 de The God Delusion de Dawkins [67] ). [68]
Otra aplicación del principio se encuentra en la obra de George Berkeley (1685-1753). Berkeley era un idealista que creía que toda la realidad podía explicarse únicamente en términos de la mente. Invocó la navaja de Occam contra el materialismo , afirmando que su metafísica no requería la materia y, por tanto, era eliminable. Un problema potencial con esta creencia [ ¿para quién? ] es que es posible, dada la posición de Berkeley, encontrar el solipsismo en sí más acorde con la navaja que con un mundo mediado por Dios más allá de un solo pensador.
La navaja de Occam también puede reconocerse en la historia apócrifa sobre un intercambio entre Pierre-Simon Laplace y Napoleón . Se dice que al elogiar a Laplace por una de sus recientes publicaciones, el emperador preguntó cómo era posible que el nombre de Dios, que aparecía con tanta frecuencia en los escritos de Lagrange , no apareciera en ninguna parte de los de Laplace. Se dice que respondió: "Es porque no necesitaba esa hipótesis". [69] Aunque algunos puntos de esta historia ilustran el ateísmo de Laplace , una consideración más cuidadosa sugiere que, en cambio, pudo haber pretendido simplemente ilustrar el poder del naturalismo metodológico , o incluso simplemente que cuantas menos premisas lógicas se asumen, más fuerte es la conclusión.
En su artículo "Sensaciones y procesos cerebrales" (1959), JJC Smart invocó la navaja de Occam con el objetivo de justificar su preferencia por la teoría de la identidad mente-cerebro sobre el dualismo espíritu-cuerpo . Los dualistas afirman que hay dos tipos de sustancias en el universo: físicas (incluido el cuerpo) y espirituales, que no son físicas. Por el contrario, los teóricos de la identidad afirman que todo es físico, incluida la conciencia, y que no hay nada que no sea físico. Aunque es imposible apreciar lo espiritual cuando uno se limita a lo físico, [ cita necesaria ] Smart sostuvo que la teoría de la identidad explica todos los fenómenos asumiendo sólo una realidad física. Posteriormente, Smart ha sido duramente criticado por su uso (o mal uso) de la navaja de Occam y finalmente se retractó de su defensa en este contexto. Paul Churchland (1984) afirma que por sí sola la navaja de Occam no es concluyente respecto de la dualidad. De manera similar, Dale Jacquette (1994) afirmó que la navaja de Occam se ha utilizado en un intento de justificar el eliminativismo y el reduccionismo en la filosofía de la mente. El eliminativismo es la tesis de que la ontología de la psicología popular , incluidas entidades como "dolor", "alegría", "deseo", "miedo", etc., son eliminables en favor de una ontología de una neurociencia completa.
En la teoría penal y la filosofía del castigo, la parsimonia se refiere específicamente a tener cuidado en la distribución del castigo para evitar un castigo excesivo. En el enfoque utilitarista de la filosofía del castigo, el "principio de parsimonia" de Jeremy Bentham establece que cualquier castigo mayor al necesario para lograr su fin es injusto. El concepto está relacionado pero no es idéntico al concepto legal de proporcionalidad . La parsimonia es una consideración clave de la justicia restaurativa moderna y es un componente de los enfoques utilitarios del castigo, así como del movimiento abolicionista de las prisiones . Bentham creía que la verdadera parsimonia requeriría que el castigo fuera individualizado para tener en cuenta la sensibilidad del individuo: un individuo más sensible al castigo debería recibir uno proporcionalmente menor, ya que de lo contrario se le infligiría un dolor innecesario. Los escritores utilitaristas posteriores han tendido a abandonar esta idea, en gran parte debido a la impracticabilidad de determinar la sensibilidad relativa de cada presunto criminal a castigos específicos. [70]
La inteligencia artificial universal de Marcus Hutter se basa en la formalización matemática de la navaja de Solomonoff para calcular el valor esperado de una acción.
Hay varios artículos en revistas académicas que derivan versiones formales de la navaja de Occam a partir de la teoría de la probabilidad, las aplican en la inferencia estadística y las utilizan para generar criterios para penalizar la complejidad en la inferencia estadística. Los artículos [71] [72] han sugerido una conexión entre la navaja de Occam y la complejidad de Kolmogorov . [73]
Uno de los problemas con la formulación original de la navaja es que sólo se aplica a modelos con el mismo poder explicativo (es decir, sólo nos dice que prefiramos el más simple entre modelos igualmente buenos). Se puede derivar una forma más general de la navaja de la comparación de modelos bayesianos, que se basa en factores de Bayes y puede usarse para comparar modelos que no se ajustan igualmente bien a las observaciones. En ocasiones, estos métodos pueden equilibrar de manera óptima la complejidad y el poder de un modelo. Generalmente, el factor de Occam exacto es intratable, pero se utilizan aproximaciones como el criterio de información de Akaike , el criterio de información bayesiano , los métodos bayesianos variacionales , la tasa de descubrimiento falso y el método de Laplace . Muchos investigadores de inteligencia artificial están empleando actualmente este tipo de técnicas, por ejemplo mediante trabajos sobre el aprendizaje Occam o, más en general, sobre el principio de energía libre .
Las versiones estadísticas de la navaja de Occam tienen una formulación más rigurosa que la que producen las discusiones filosóficas. En particular, deben tener una definición específica del término simplicidad , y esa definición puede variar. Por ejemplo, en el enfoque de longitud mínima de descripción de Kolmogorov - Chaitin , el sujeto debe elegir una máquina de Turing cuyas operaciones describan las operaciones básicas que el sujeto cree que representan "simplicidad". Sin embargo, siempre se podría elegir una máquina de Turing con una operación simple que permitiera construir toda la teoría y que, por tanto, obtuviera una puntuación alta bajo la navaja. Esto ha llevado a dos bandos opuestos: uno que cree que la navaja de Occam es objetiva y otro que cree que es subjetiva.
El conjunto mínimo de instrucciones de una máquina de Turing universal requiere aproximadamente la misma longitud de descripción en diferentes formulaciones y es pequeño en comparación con la complejidad de Kolmogorov de la mayoría de las teorías prácticas. Marcus Hutter ha utilizado esta coherencia para definir una máquina de Turing "natural" de pequeño tamaño como base adecuada para excluir conjuntos de instrucciones arbitrariamente complejos en la formulación de navajas. [74] Al describir el programa para el programa universal como la "hipótesis" y la representación de la evidencia como datos del programa, se ha demostrado formalmente bajo la teoría de conjuntos de Zermelo-Fraenkel que "la suma de la probabilidad logarítmica universal del modelo más el registro de la probabilidad de los datos dado el modelo debe minimizarse." [75] Interpretar esto como minimizar la longitud total de un modelo de codificación de mensajes de dos partes seguido del modelo de datos dado nos da el principio de longitud mínima de mensaje (MML). [71] [72]
Una posible conclusión al mezclar los conceptos de complejidad de Kolmogorov y la navaja de Occam es que un compresor de datos ideal también sería un generador de explicaciones/formulaciones científicas. Se han hecho algunos intentos de volver a derivar leyes conocidas a partir de consideraciones de simplicidad o compresibilidad. [24] [76]
Según Jürgen Schmidhuber , ya existe la teoría matemática adecuada de la navaja de Occam, a saber, la teoría de la inferencia inductiva óptima de Solomonoff [77] y sus extensiones. [78] Véanse las discusiones en el "Prólogo a CS Wallace" de David L. Dowe [79] para conocer las sutiles distinciones entre el trabajo de probabilidad algorítmica de Solomonoff y el trabajo de MML de Chris Wallace , y consulte "MML, modelos gráficos de redes bayesianas híbridas" de Dowe. consistencia estadística, invariancia y unicidad" [80] tanto para tales discusiones como para (en la sección 4) discusiones sobre MML y la navaja de Occam. Para ver un ejemplo específico de MML como la navaja de Ockham en el problema de la inducción del árbol de decisión, consulte "La longitud del mensaje como una navaja de Ockham eficaz en la inducción del árbol de decisión" de Dowe y Needham. [81]
Los teoremas de no almuerzo gratis (NFL) para la inferencia inductiva demuestran que la navaja de Occam debe basarse en suposiciones, en última instancia, arbitrarias sobre la distribución de probabilidad previa que se encuentra en nuestro mundo. [82] Específicamente, supongamos que se le dan dos algoritmos de inferencia inductiva, A y B, donde A es un procedimiento bayesiano basado en la elección de alguna distribución previa motivada por la navaja de Occam (por ejemplo, la anterior podría favorecer hipótesis con menor complejidad de Kolmogorov ). Supongamos que B es el procedimiento anti-Bayes, que calcula lo que predecirá el algoritmo bayesiano A basado en la navaja de Occam, y luego predice exactamente lo contrario. Entonces hay tantos antecedentes reales (incluidos aquellos diferentes del anterior de la navaja de Occam asumido por A) en los que el algoritmo B supera a A como antecedentes en los que el procedimiento A basado en la navaja de Occam sale victorioso. En particular, los teoremas de la NFL muestran que el argumento bayesiano de los "factores de Occam" a favor de la navaja de Occam debe hacer, en última instancia, suposiciones de modelado arbitrarias. [83]
En el desarrollo de software, la regla del menor poder sostiene que el lenguaje de programación correcto a utilizar es el que sea más simple y al mismo tiempo resuelva el problema de software específico. De esa forma, la regla a menudo se atribuye a Tim Berners-Lee, ya que apareció en sus pautas de diseño para el Protocolo de transferencia de hipertexto original . [84] La complejidad en este contexto se mide colocando una lengua en la jerarquía de Chomsky o enumerando las características idiomáticas de la lengua y comparándolas según una escala acordada de dificultades entre modismos. Muchos lenguajes que alguna vez se consideraron de menor complejidad han evolucionado o luego se descubrió que eran más complejos de lo que se pretendía originalmente; entonces, en la práctica esta regla se aplica a la relativa facilidad de un programador para obtener el poder del lenguaje, en lugar de a los límites teóricos precisos del lenguaje.
La navaja de Occam no es un embargo contra la postulación de ningún tipo de entidad, ni una recomendación de la teoría más simple, pase lo que pase. [a] La navaja de Occam se utiliza para juzgar entre teorías que ya han pasado pruebas de "escrutinio teórico" y están igualmente bien respaldadas por evidencia. [b] Además, puede utilizarse para priorizar las pruebas empíricas entre dos hipótesis igualmente plausibles pero desigualmente comprobables; minimizando así los costos y desperdicios al tiempo que aumenta las posibilidades de falsificación de la hipótesis más simple de probar. [ cita necesaria ]
Otro aspecto polémico de la navaja es que una teoría puede volverse más compleja en términos de su estructura (o sintaxis ), mientras que su ontología (o semántica ) se vuelve más simple, o viceversa. [c] Quine, en una discusión sobre la definición, se refirió a estas dos perspectivas como "economía de expresión práctica" y "economía en gramática y vocabulario", respectivamente. [86]
Galileo Galilei satirizó el mal uso de la navaja de Occam en su Diálogo . El principio está representado en el diálogo por Simplicio. El punto revelador que Galileo presentó irónicamente fue que si uno realmente quisiera partir de un pequeño número de entidades, siempre podría considerar las letras del alfabeto como las entidades fundamentales, ya que a partir de ellas se podría construir todo el conocimiento humano.
Los casos de uso de la navaja de Occam para justificar la creencia en teorías menos complejas y más simples han sido criticados por usar la navaja de manera inapropiada. Por ejemplo, Francis Crick afirmó que "si bien la navaja de Occam es una herramienta útil en las ciencias físicas, puede ser un instrumento muy peligroso en biología. Por tanto, es muy imprudente utilizar la simplicidad y la elegancia como guía en la investigación biológica". [87]
La navaja de Occam ha encontrado cierta oposición por parte de personas que la consideran demasiado extrema o imprudente. Walter Chatton ( c. 1290-1343 ) fue un contemporáneo de Guillermo de Ockham, quien se opuso a la navaja de afeitar de Occam y al uso que éste hacía de ella. En respuesta, ideó su propia anti-navaja : "Si tres cosas no son suficientes para verificar una proposición afirmativa sobre las cosas, hay que añadir una cuarta y así sucesivamente". Aunque ha habido varios filósofos que han formulado anti-navajas similares desde la época de Chatton, ningún anti-navaja se ha perpetuado tan notablemente como la anti-navaja de Chatton, aunque este podría ser el caso del lema italiano del Renacimiento tardío de atribución desconocida Se non è vero, è ben trovato ("Aunque no sea cierto, está bien concebido") cuando se hace referencia a una explicación particularmente ingeniosa.
Gottfried Wilhelm Leibniz (1646-1716), Immanuel Kant (1724-1804) y Karl Menger (1902-1985) también crearon anti-navajas . La versión de Leibniz tomó la forma de un principio de plenitud , como lo ha llamado Arthur Lovejoy : la idea es que Dios creó el más variado y poblado de los mundos posibles. Kant sintió la necesidad de moderar los efectos de la navaja de Occam y creó así su propia navaja de afeitar: "No se debe disminuir precipitadamente la variedad de los seres". [88]
Karl Menger encontró que los matemáticos eran demasiado parsimoniosos con respecto a las variables, por lo que formuló su Ley contra la avaricia, que adoptó una de dos formas: "Las entidades no deben reducirse al punto de ser inadecuadas" y "Es en vano hacer con menos lo que requiere". más." Un anti-navaja menos serio pero aún más extremista es la Patafísica , la "ciencia de las soluciones imaginarias" desarrollada por Alfred Jarry (1873-1907). Quizás lo último en antirreduccionismo: "La patafísica busca nada menos que ver cada evento en el universo como completamente único, sujeto a ninguna ley más que la suya propia". Variaciones sobre este tema fueron posteriormente exploradas por el escritor argentino Jorge Luis Borges en su cuento/ensayo simulado " Tlön, Uqbar, Orbis Tertius ". El físico RV Jones ideó el Bludgeon de Crabtree, que afirma que "no puede existir ningún conjunto de observaciones mutuamente inconsistentes para las cuales algún intelecto humano no pueda concebir una explicación coherente, por complicada que sea". [89]
Recientemente, el físico estadounidense Igor Mazin argumentó que debido a que las revistas de física de alto perfil prefieren publicaciones que ofrecen interpretaciones exóticas e inusuales, el principio de la navaja de Occam está siendo reemplazado por una "navaja de Occam inversa", lo que implica que generalmente se rechaza la explicación más simple posible. [90]
Desde 2012, la revista The Skeptic otorga anualmente en QED los premios Ockham, o simplemente los Ockham, que llevan el nombre de la navaja de Occam . [91] Los Ockham fueron presentados por la editora en jefe Deborah Hyde para "reconocer el esfuerzo y el tiempo invertido en los blogs escépticos favoritos de la comunidad, los podcasts escépticos, las campañas escépticas y los contribuyentes destacados a la causa escéptica". [92] Los trofeos , diseñados por Neil Davies y Karl Derrick, llevan el texto superior " Ockham's " y el texto inferior " El escéptico. Eliminando suposiciones innecesarias desde 1285 ". Entre los textos, hay una imagen de un arma de doble filo. hoja de afeitar de seguridad , y ambas esquinas inferiores presentan una imagen del rostro de Guillermo de Ockham. [92]
Entium varietates non temere esse minuendas