El razonamiento inductivo es cualquiera de los diversos métodos de razonamiento en los que se derivan generalizaciones o principios amplios a partir de un conjunto de observaciones. [1] [2] Este artículo se ocupa del razonamiento inductivo distinto del razonamiento deductivo (como la inducción matemática ), donde la conclusión de un argumento deductivo es cierta dado que las premisas son correctas; por el contrario, la verdad de la conclusión de un argumento inductivo es, en el mejor de los casos , probable , en función de la evidencia proporcionada. [3] [4]
Los tipos de razonamiento inductivo incluyen la generalización, la predicción, el silogismo estadístico , el argumento por analogía y la inferencia causal. También existen diferencias en la forma en que se consideran sus resultados.
Una generalización (más precisamente, una generalización inductiva ) procede de premisas sobre una muestra a una conclusión sobre la población . [5] La observación obtenida de esta muestra se proyecta sobre la población más amplia. [5]
Por ejemplo, si hay 20 bolas, ya sean negras o blancas, en una urna: para estimar sus respectivos números, se extrae una muestra de cuatro bolas, tres son negras y una es blanca. Una generalización inductiva puede ser que hay 15 bolas negras y cinco blancas en la urna. Sin embargo, esta es solo una de las 17 posibilidades en cuanto al número real de cada color de bolas en la urna (la población) : puede haber habido, por supuesto, 19 bolas negras y solo 1 bola blanca, o solo 3 bolas negras y 17 blancas, o cualquier mezcla intermedia. La probabilidad de que cada distribución posible sea la cantidad real de bolas blancas y negras se puede estimar utilizando técnicas como la inferencia bayesiana , donde los supuestos previos sobre la distribución se actualizan con la muestra observada, o la estimación de máxima verosimilitud (MLE), que identifica la distribución más probable dada la muestra observada.
El grado en que las premisas respaldan la conclusión depende del número de personas que componen el grupo de muestra, del número de personas que componen la población y del grado en que la muestra representa a la población (lo que, en el caso de una población estática, puede lograrse tomando una muestra aleatoria). Cuanto mayor sea el tamaño de la muestra en relación con la población y cuanto más fielmente represente la muestra a la población, más sólida será la generalización. La generalización apresurada y la muestra sesgada son falacias de generalización.
Una generalización estadística es un tipo de argumento inductivo en el que se infiere una conclusión sobre una población utilizando una muestra estadísticamente representativa . Por ejemplo:
La medida es altamente confiable dentro de un margen de error bien definido, siempre que el proceso de selección haya sido genuinamente aleatorio y que el número de elementos en la muestra que tengan las propiedades consideradas sea grande. Es fácilmente cuantificable. Compare el argumento anterior con el siguiente: "Seis de las diez personas de mi club de lectura son libertarios. Por lo tanto, aproximadamente el 60% de las personas son libertarios". El argumento es débil porque la muestra no es aleatoria y el tamaño de la muestra es muy pequeño.
Las generalizaciones estadísticas también se denominan proyecciones estadísticas [6] y proyecciones de muestra . [7]
Una generalización anecdótica es un tipo de argumento inductivo en el que se infiere una conclusión sobre una población utilizando una muestra no estadística. [8] En otras palabras, la generalización se basa en evidencia anecdótica . Por ejemplo:
Esta inferencia es menos fiable (y por tanto más propensa a cometer la falacia de generalización apresurada) que una generalización estadística, en primer lugar, porque los eventos de la muestra no son aleatorios, y en segundo lugar porque no es reducible a una expresión matemática. Estadísticamente hablando, simplemente no hay manera de conocer, medir y calcular las circunstancias que afectarán el desempeño que ocurrirá en el futuro. En un nivel filosófico, el argumento se basa en la presuposición de que el funcionamiento de los eventos futuros reflejará el pasado. En otras palabras, da por sentado una uniformidad de la naturaleza, un principio no probado que no puede derivarse de los datos empíricos en sí. Los argumentos que presuponen tácitamente esta uniformidad a veces se denominan humeanos en honor al filósofo que fue el primero en someterlos al escrutinio filosófico. [9]
Una predicción inductiva extrae una conclusión sobre una instancia futura, actual o pasada a partir de una muestra de otras instancias. Al igual que una generalización inductiva, una predicción inductiva se basa en un conjunto de datos que consiste en instancias específicas de un fenómeno. Pero en lugar de concluir con una afirmación general, la predicción inductiva concluye con una afirmación específica sobre la probabilidad de que una única instancia tenga (o no) un atributo compartido (o no compartido) por las otras instancias. [10]
Un silogismo estadístico procede de una generalización sobre un grupo a una conclusión sobre un individuo.
Por ejemplo:
Este es un silogismo estadístico . [11] Aunque no se puede estar seguro de que Bob asistirá a la universidad, la probabilidad exacta de este resultado está completamente asegurada (sin más información). Pueden ocurrir dos falacias dicto simpliciter en los silogismos estadísticos: " accidente " y " accidente inverso ".
El proceso de inferencia analógica implica notar las propiedades compartidas de dos o más cosas y a partir de esta base inferir que también comparten alguna propiedad adicional: [12]
El razonamiento analógico es muy frecuente en el sentido común , la ciencia , la filosofía , el derecho y las humanidades , pero a veces se acepta sólo como método auxiliar. Un enfoque refinado es el razonamiento basado en casos . [13]
Se trata de la inducción analógica , según la cual las cosas que son similares en ciertos aspectos tienen más probabilidades de ser similares en otros. Esta forma de inducción fue explorada en detalle por el filósofo John Stuart Mill en su Sistema de lógica , donde afirma que "no puede haber ninguna duda de que cada semejanza [que no se sabe que es irrelevante] ofrece cierto grado de probabilidad, más allá de lo que existiría de otro modo, a favor de la conclusión". [14] Véase Métodos de Mill .
Algunos pensadores sostienen que la inducción analógica es una subcategoría de la generalización inductiva porque presupone una uniformidad preestablecida que rige los acontecimientos. [ cita requerida ] La inducción analógica requiere un examen auxiliar de la relevancia de las características citadas como comunes al par. En el ejemplo anterior, si se añadiera una premisa que estableciera que ambas piedras se mencionaban en los registros de los primeros exploradores españoles, este atributo común es ajeno a las piedras y no contribuye a su probable afinidad.
Una trampa de la analogía es que las características pueden seleccionarse a dedo : si bien los objetos pueden mostrar similitudes sorprendentes, dos cosas yuxtapuestas pueden poseer respectivamente otras características no identificadas en la analogía que son características marcadamente diferentes . Por lo tanto, la analogía puede inducir a error si no se hacen todas las comparaciones relevantes.
Una inferencia causal extrae una conclusión sobre una conexión causal posible o probable en función de las condiciones de ocurrencia de un efecto. Las premisas sobre la correlación de dos cosas pueden indicar una relación causal entre ellas, pero se deben confirmar factores adicionales para establecer la forma exacta de la relación causal. [ cita requerida ]
Los dos métodos principales utilizados para llegar a generalizaciones inductivas son la inducción enumerativa y la inducción eliminativa. [15] [16]
La inducción enumerativa es un método inductivo en el que se construye una generalización en función del número de instancias que la respaldan. Cuanto más instancias de respaldo haya, más sólida será la conclusión. [15] [16]
La forma más básica de inducción enumerativa razona desde casos particulares a todos los casos y es por lo tanto una generalización sin restricciones. [17] Si uno observa 100 cisnes, y los 100 fueran blancos, uno podría inferir una probable proposición categórica universal de la forma Todos los cisnes son blancos . Como las premisas de esta forma de razonamiento , incluso si son verdaderas, no implican la verdad de la conclusión, esta es una forma de inferencia inductiva. La conclusión puede ser verdadera, y puede pensarse que es probablemente verdadera, pero puede ser falsa. Las preguntas sobre la justificación y la forma de las inducciones enumerativas han sido centrales en la filosofía de la ciencia , ya que la inducción enumerativa tiene un papel fundamental en el modelo tradicional del método científico .
Esta es la inducción enumerativa , también conocida como inducción simple o inducción predictiva simple . Es una subcategoría de la generalización inductiva. En la práctica cotidiana, esta es quizás la forma más común de inducción. Para el argumento precedente, la conclusión es tentadora pero hace una predicción que excede con creces la evidencia. Primero, supone que las formas de vida observadas hasta ahora pueden decirnos cómo serán los casos futuros: una apelación a la uniformidad. Segundo, la conclusión Todo es una afirmación audaz. Un solo caso contrario frustra el argumento. Y por último, cuantificar el nivel de probabilidad en cualquier forma matemática es problemático. [18] ¿Con qué estándar medimos nuestra muestra terrestre de vida conocida contra toda la vida (posible)? Supongamos que descubrimos algún organismo nuevo, como algún microorganismo flotando en la mesosfera o un asteroide, y es celular. ¿La adición de esta evidencia corroborante nos obliga a aumentar nuestra evaluación de probabilidad para la proposición en cuestión? En general, se considera razonable responder a esta pregunta con un "sí", y para muchos este "sí" no sólo es razonable sino incontrovertible. Entonces, ¿en qué medida estos nuevos datos deberían cambiar nuestra evaluación de la probabilidad? En este punto, el consenso se desvanece y en su lugar surge la pregunta de si podemos hablar de probabilidad de manera coherente con o sin cuantificación numérica.
Se trata de una inducción enumerativa en su forma débil . Restringe el "todo" a un solo caso y, al hacer una afirmación mucho más débil, refuerza considerablemente la probabilidad de su conclusión. Por lo demás, tiene las mismas deficiencias que la forma fuerte: su población de muestra no es aleatoria y los métodos de cuantificación son difíciles de conseguir.
La inducción eliminativa , también llamada inducción variativa, es un método inductivo propuesto por primera vez por Francis Bacon ; [19] en él se construye una generalización basada en la variedad de instancias que la respaldan. A diferencia de la inducción enumerativa, la inducción eliminativa razona basándose en los diversos tipos de instancias que respaldan una conclusión, en lugar de en el número de instancias que la respaldan. A medida que aumenta la variedad de instancias, se pueden identificar como incompatibles y eliminar más conclusiones posibles basadas en esas instancias. Esto, a su vez, aumenta la fuerza de cualquier conclusión que siga siendo consistente con las diversas instancias. En este contexto, la confianza es la función de cuántas instancias se han identificado como incompatibles y se han eliminado. Esta confianza se expresa como la probabilidad baconiana i|n (que se lee como "i de n") donde se han identificado n razones para encontrar una afirmación incompatible e i de ellas se han eliminado mediante evidencia o argumento. [19]
Hay tres formas de atacar un argumento; estas formas, conocidas como derrotadores en la literatura de razonamiento derrotable , son: refutar, socavar y socavar. Refutar las derrotas ofreciendo un contraejemplo, socavar las derrotas cuestionando la validez de la evidencia y socavar las derrotas señalando condiciones en las que una conclusión no es verdadera cuando la inferencia sí lo es. Al identificar los derrotadores y demostrar que están equivocados es como este enfoque genera confianza. [19]
Este tipo de inducción puede utilizar diferentes metodologías, como la cuasi-experimentación, que prueba y, cuando es posible, elimina hipótesis rivales. [20] También se pueden emplear diferentes pruebas evidenciales para eliminar las posibilidades que se barajan. [21]
La inducción eliminativa es crucial para el método científico y se utiliza para eliminar hipótesis que son inconsistentes con las observaciones y los experimentos. [15] [16] Se centra en las posibles causas en lugar de en los casos reales observados de conexiones causales. [22]
Para pasar de lo particular a lo universal, Aristóteles utilizó en el siglo IV a. C. la palabra griega epagogé , que Cicerón tradujo al latín inductio . [23]
Los Segundos Analíticos de Aristóteles tratan los métodos de prueba inductiva en la filosofía natural y en las ciencias sociales. El primer libro de los Segundos Analíticos describe la naturaleza y la ciencia de la demostración y sus elementos: incluyendo la definición, la división, el razonamiento intuitivo de los primeros principios, la demostración particular y universal, la demostración afirmativa y negativa, la diferencia entre ciencia y opinión, etc.
Los antiguos pirronistas fueron los primeros filósofos occidentales en señalar el problema de la inducción : que la inducción no puede, según ellos, justificar la aceptación de enunciados universales como verdaderos. [23]
La escuela empírica de la medicina griega antigua empleaba el epilogismo como método de inferencia. El 'epilogismo' es un método libre de teoría que analiza la historia a través de la acumulación de hechos sin generalizaciones importantes y teniendo en cuenta las consecuencias de hacer afirmaciones causales. [24] El epilogismo es una inferencia que se mueve completamente dentro del dominio de las cosas visibles y evidentes, intenta no invocar cosas no observables .
La escuela dogmática de la medicina griega antigua empleaba el analogismos como método de inferencia. [25] Este método utilizaba la analogía para razonar a partir de lo observado hasta llegar a fuerzas no observables.
En 1620, el filósofo moderno Francis Bacon repudió el valor de la mera experiencia y de la inducción enumerativa por sí sola. Su método de inductivismo requería que las observaciones minuciosas y variadas que revelaban la estructura y las relaciones causales del mundo natural debían combinarse con la inducción enumerativa para obtener conocimientos que trascendieran el ámbito actual de la experiencia. Por lo tanto, el inductivismo requería la inducción enumerativa como un componente.
La postura del empirista David Hume de 1740 consideró que la inducción enumerativa no tenía una base racional, y mucho menos lógica; en cambio, la inducción era el producto del instinto más que de la razón, una costumbre de la mente y una necesidad cotidiana de vivir. Si bien las observaciones, como el movimiento del sol, podían combinarse con el principio de la uniformidad de la naturaleza para producir conclusiones que parecían ser ciertas, el problema de la inducción surgió del hecho de que la uniformidad de la naturaleza no era un principio lógicamente válido, por lo tanto no podía defenderse como deductivamente racional, pero tampoco podía defenderse como inductivamente racional apelando al hecho de que la uniformidad de la naturaleza ha descrito con precisión el pasado y, por lo tanto, probablemente describirá con precisión el futuro porque ese es un argumento inductivo y, por lo tanto, circular, ya que la inducción es lo que necesita justificarse.
Desde que Hume escribió por primera vez sobre el dilema entre la invalidez de los argumentos deductivos y la circularidad de los argumentos inductivos en apoyo de la uniformidad de la naturaleza, esta supuesta dicotomía entre simplemente dos modos de inferencia, deducción e inducción, ha sido cuestionada con el descubrimiento de un tercer modo de inferencia conocido como abducción, o razonamiento abductivo , que fue formulado y propuesto por primera vez por Charles Sanders Peirce , en 1886, donde se refirió a él como "razonamiento por hipótesis". [26] La inferencia a la mejor explicación es a menudo, aunque podría decirse, tratada como sinónimo de abducción, tal como fue identificada por primera vez por Gilbert Harman en 1965, donde se refirió a ella como "razonamiento abductivo", sin embargo, su definición de abducción difiere ligeramente de la definición de Pierce. [27] En cualquier caso, si la abducción es de hecho un tercer modo de inferencia racionalmente independiente de los otros dos, entonces o bien la uniformidad de la naturaleza puede justificarse racionalmente a través de la abducción, o bien el dilema de Hume es más bien un trilema. Hume también era escéptico respecto de la aplicación de la inducción enumerativa y la razón para alcanzar la certeza acerca de los inobservables y, especialmente, la inferencia de causalidad a partir del hecho de que modificar un aspecto de una relación impide o produce un resultado particular.
Despertado de su "sueño dogmático" por una traducción alemana de la obra de Hume, Kant trató de explicar la posibilidad de la metafísica . En 1781, la Crítica de la razón pura de Kant introdujo el racionalismo como un camino hacia el conocimiento distinto del empirismo . Kant clasificó los enunciados en dos tipos. Los enunciados analíticos son verdaderos en virtud de la disposición de sus términos y significados , por lo que los enunciados analíticos son tautologías , meramente verdades lógicas, verdaderas por necesidad . Mientras que los enunciados sintéticos tienen significados para referirse a estados de hechos, contingencias . Contra filósofos racionalistas como Descartes y Leibniz , así como contra filósofos empiristas como Locke y Hume , la Crítica de la razón pura de Kant es un argumento sostenido de que para tener conocimiento necesitamos tanto una contribución de nuestra mente (conceptos) como una contribución de nuestros sentidos (intuiciones). Para Kant, el conocimiento propiamente dicho se limita a lo que posiblemente podemos percibir ( los fenómenos ), mientras que los objetos del mero pensamiento (" las cosas en sí mismas ") son en principio incognoscibles debido a la imposibilidad de percibirlos alguna vez.
Al razonar que la mente debe contener sus propias categorías para organizar los datos sensoriales , haciendo posible la experiencia de los objetos en el espacio y el tiempo ( fenómenos ) , Kant concluyó que la uniformidad de la naturaleza era una verdad a priori . [28] Una clase de enunciados sintéticos que no eran contingentes sino verdaderos por necesidad, eran entonces sintéticos a priori . Kant salvó así tanto la metafísica como la ley de gravitación universal de Newton . Sobre la base del argumento de que lo que va más allá de nuestro conocimiento "no es nada para nosotros", [29] descartó el realismo científico . La posición de Kant de que el conocimiento surge de una cooperación entre la percepción y nuestra capacidad de pensar ( idealismo trascendental ) dio origen al movimiento del idealismo alemán . El idealismo absoluto de Hegel floreció posteriormente en toda Europa continental e Inglaterra.
El positivismo , desarrollado por Henri de Saint-Simon y promulgado en la década de 1830 por su antiguo alumno Auguste Comte , fue la primera filosofía de la ciencia de la era moderna tardía . Tras la Revolución Francesa , temiendo la ruina de la sociedad, Comte se opuso a la metafísica . El conocimiento humano había evolucionado de la religión a la metafísica y de ahí a la ciencia, decía Comte, que había fluido de las matemáticas a la astronomía , a la física, a la química , a la biología y a la sociología —en ese orden— describiendo dominios cada vez más intrincados. Todo el conocimiento de la sociedad se había vuelto científico, y las cuestiones de teología y metafísica eran incontestables. Comte encontró que la inducción enumerativa era confiable como consecuencia de su fundamento en la experiencia disponible. Afirmó el uso de la ciencia, en lugar de la verdad metafísica, como el método correcto para la mejora de la sociedad humana.
Según Comte, el método científico formula predicciones, las confirma y establece leyes (enunciados positivos) irrefutables por la teología o por la metafísica . Considerando que la experiencia justifica la inducción enumerativa al demostrar la uniformidad de la naturaleza , [28] el filósofo británico John Stuart Mill dio la bienvenida al positivismo de Comte, pero pensó que las leyes científicas eran susceptibles de ser retiradas o revisadas y Mill también se abstuvo de la Religión de la Humanidad de Comte . Comte confiaba en tratar la ley científica como una base irrefutable para todo conocimiento , y creía que las iglesias, al honrar a los científicos eminentes, debían centrar la mentalidad pública en el altruismo (un término acuñado por Comte) para aplicar la ciencia al bienestar social de la humanidad a través de la sociología , la ciencia principal de Comte.
Durante las décadas de 1830 y 1840, mientras Comte y Mill eran los filósofos de la ciencia más destacados, William Whewell no encontró la inducción enumerativa tan convincente y, a pesar del predominio del inductivismo, formuló la "superinducción". [30] Whewell sostuvo que "se debe reconocer el significado peculiar del término inducción ": "hay alguna concepción superinducida sobre los hechos", es decir, "la invención de una nueva concepción en cada inferencia inductiva". La creación de concepciones se pasa por alto fácilmente y antes de Whewell rara vez se reconocía. [30] Whewell explicó:
"Aunque unimos los hechos superponiéndoles una nueva concepción, esta concepción, una vez introducida y aplicada, se considera como inseparablemente conectada con los hechos y necesariamente implicada en ellos. Una vez que los fenómenos están unidos en sus mentes en virtud de la concepción, los hombres ya no pueden restaurarlos fácilmente a la condición separada e incoherente en la que se encontraban antes de que se combinaran de esa manera". [30]
Estas explicaciones "superinducidas" pueden tener sus defectos, pero su precisión queda demostrada cuando muestran lo que Whewell denominó consiliencia (es decir, predecir simultáneamente las generalizaciones inductivas en múltiples áreas), una hazaña que, según Whewell, puede establecer su verdad. Tal vez para adaptarse a la visión predominante de la ciencia como método inductivista, Whewell dedicó varios capítulos a los "métodos de inducción" y a veces utilizó la frase "lógica de la inducción", a pesar del hecho de que la inducción carece de reglas y no puede ser entrenada. [30]
En la década de 1870, el creador del pragmatismo , CS Peirce, realizó vastas investigaciones que aclararon la base de la inferencia deductiva como prueba matemática (como lo hizo Gottlob Frege de forma independiente ). Peirce reconoció la inducción, pero siempre insistió en un tercer tipo de inferencia que Peirce denominó de diversas formas abducción o retroducción o hipótesis o presunción . [31] Los filósofos posteriores denominaron a la abducción de Peirce, etc., Inferencia a la mejor explicación (IBE). [32]
Tras destacar el problema de la inducción de Hume , John Maynard Keynes planteó la probabilidad lógica como su respuesta, o una solución tan cercana como podía llegar. [33] Bertrand Russell consideró que el Tratado de probabilidad de Keynes era el mejor examen de la inducción, y creía que si se leía junto con Le Probleme logique de l'induction de Jean Nicod y la revisión de la obra de Keynes de RB Braithwaite en la edición de octubre de 1925 de Mind , eso cubriría "la mayor parte de lo que se sabe sobre la inducción", aunque el "tema es técnico y difícil, e implica una buena dosis de matemáticas". [34] Dos décadas después, Russell siguió a Keynes al considerar la inducción enumerativa como un "principio lógico independiente". [35] [36] [37] Russell encontró:
"El escepticismo de Hume se basa enteramente en su rechazo del principio de inducción. El principio de inducción, tal como se aplica a la causalidad, dice que, si se ha encontrado que A va acompañado o seguido muy a menudo de B , entonces es probable que en la próxima ocasión en que se observe A , vaya acompañado o seguido de B. Para que el principio sea adecuado, un número suficiente de casos debe hacer que la probabilidad no esté lejos de la certeza. Si este principio, o cualquier otro del que pueda deducirse, es verdadero, entonces las inferencias casuales que Hume rechaza son válidas, no en cuanto que dan certeza, sino en cuanto que dan una probabilidad suficiente para fines prácticos. Si este principio no es verdadero, todo intento de llegar a leyes científicas generales a partir de observaciones particulares es falaz, y el escepticismo de Hume es ineludible para un empirista. El principio en sí mismo no puede, por supuesto, sin circularidad, inferirse de las uniformidades observadas, ya que es necesario para justificar cualquier inferencia de ese tipo. "Por lo tanto, debe ser, o deducirse de, un principio independiente no basado en la experiencia. En este sentido, Hume ha demostrado que el empirismo puro no es una base suficiente para la ciencia. Pero si se admite este principio, todo lo demás puede proceder de acuerdo con la teoría de que todo nuestro conocimiento se basa en la experiencia. Hay que admitir que esto es una grave desviación del empirismo puro, y que quienes no son empiristas pueden preguntar por qué, si se permite una desviación, se prohíben otras. Sin embargo, éstas no son cuestiones que se planteen directamente en los argumentos de Hume. Lo que estos argumentos prueban -y no creo que la prueba pueda ser refutada- es que la inducción es un principio lógico independiente, incapaz de ser inferido ni de la experiencia ni de otros principios lógicos, y que sin este principio la ciencia es imposible". [37]
En un artículo de 1965, Gilbert Harman explicó que la inducción enumerativa no es un fenómeno autónomo, sino simplemente una consecuencia disfrazada de la Inferencia a la Mejor Explicación (IBE). [32] La IBE es, de otro modo, sinónimo de la abducción de CS Peirce . [32] Muchos filósofos de la ciencia que defienden el realismo científico han mantenido que la IBE es la forma en que los científicos desarrollan teorías científicas aproximadamente verdaderas sobre la naturaleza. [38]
El razonamiento inductivo es una forma de argumentación que, a diferencia del razonamiento deductivo, permite la posibilidad de que una conclusión sea falsa, incluso si todas las premisas son verdaderas. [39] Esta diferencia entre el razonamiento deductivo y el inductivo se refleja en la terminología utilizada para describir los argumentos deductivos e inductivos. En el razonamiento deductivo, un argumento es " válido " cuando, suponiendo que las premisas del argumento sean verdaderas, la conclusión debe ser verdadera. Si el argumento es válido y las premisas son verdaderas, entonces el argumento es "sólido" . Por el contrario, en el razonamiento inductivo, las premisas de un argumento nunca pueden garantizar que la conclusión debe ser verdadera. En cambio, un argumento es "fuerte" cuando, suponiendo que las premisas del argumento sean verdaderas, la conclusión probablemente sea verdadera. Si el argumento es fuerte y se piensa que las premisas son verdaderas, entonces se dice que el argumento es "cogente". [40] De manera menos formal, la conclusión de un argumento inductivo puede llamarse “probable”, “plausible”, “verosímil”, “razonable” o “justificada”, pero nunca “cierta” o “necesaria”. La lógica no ofrece ningún puente entre lo probable y lo cierto.
La futilidad de alcanzar la certeza mediante una masa crítica de probabilidad se puede ilustrar con un ejercicio de lanzamiento de moneda. Supongamos que alguien prueba si una moneda es justa o tiene dos caras. La lanza diez veces y diez veces sale cara. En este punto, hay una razón de peso para creer que tiene dos caras. Después de todo, la probabilidad de que salgan diez caras seguidas es de 0,000976: menos de una en mil. Entonces, después de 100 lanzamientos, todos los lanzamientos han salido cara. Ahora hay una certeza “virtual” de que la moneda tiene dos caras, y uno puede considerar como “verdadero” que la moneda probablemente tenga dos caras. Sin embargo, no se puede descartar ni lógica ni empíricamente que el próximo lanzamiento salga cruz. No importa cuántas veces seguidas salga cara, esto sigue siendo así. Si uno programara una máquina para que lanzara una moneda una y otra vez continuamente, en algún momento el resultado sería una serie de 100 caras. Con el paso del tiempo aparecerán todas las combinaciones.
En cuanto a la escasa posibilidad de obtener diez de diez caras de una moneda justa (el resultado que hizo que la moneda pareciera sesgada), a muchos les sorprenderá saber que la probabilidad de cualquier secuencia de caras o cruces es igualmente improbable (por ejemplo, HHTTHTHHHT) y, sin embargo, ocurre en cada ensayo de diez lanzamientos. Eso significa que todos los resultados de diez lanzamientos tienen la misma probabilidad de obtener diez de diez caras, que es 0,000976. Si uno registra las secuencias de caras y cruces, para cualquier resultado, esa secuencia exacta tenía una probabilidad de 0,000976.
Un argumento es deductivo cuando la conclusión es necesaria dadas las premisas. Es decir, la conclusión debe ser verdadera si las premisas son verdaderas. Por ejemplo, después de obtener 10 caras seguidas, uno podría deducir que la moneda había cumplido algún criterio estadístico para ser considerada como "probablemente de dos caras", una conclusión que no sería refutada incluso si el siguiente lanzamiento diera "cruz".
Si una conclusión deductiva se sigue debidamente de sus premisas, entonces es válida; de lo contrario, es inválida (que un argumento sea inválido no significa que sus conclusiones sean falsas; puede tener una conclusión verdadera, pero no a causa de las premisas). Un examen de los siguientes ejemplos mostrará que la relación entre premisas y conclusión es tal que la verdad de la conclusión ya está implícita en las premisas. Los solteros son solteros porque decimos que lo son; los hemos definido así. Sócrates es mortal porque lo hemos incluido en un conjunto de seres que son mortales. La conclusión de un argumento deductivo válido ya está contenida en las premisas, ya que su verdad es estrictamente una cuestión de relaciones lógicas. No puede decir más que sus premisas. Las premisas inductivas, por otro lado, extraen su sustancia de los hechos y la evidencia, y la conclusión, en consecuencia, hace una afirmación o predicción fáctica. Su fiabilidad varía proporcionalmente con la evidencia. La inducción quiere revelar algo nuevo sobre el mundo. Se podría decir que la inducción quiere decir más de lo que está contenido en las premisas.
Para ver mejor la diferencia entre argumentos inductivos y deductivos, considere que no tendría sentido decir: "todos los rectángulos examinados hasta ahora tienen cuatro ángulos rectos, por lo que el próximo que vea tendrá cuatro ángulos rectos". Esto trataría las relaciones lógicas como algo fáctico y detectable, y por lo tanto variable e incierto. Del mismo modo, hablando deductivamente, podemos decir permisiblemente: "Todos los unicornios pueden volar; tengo un unicornio llamado Charlie; por lo tanto, Charlie puede volar". Este argumento deductivo es válido porque las relaciones lógicas se mantienen; no nos interesa su solidez fáctica.
Las conclusiones del razonamiento inductivo son inherentemente inciertas . Solo se ocupa del grado en el que, dadas las premisas, la conclusión es creíble de acuerdo con alguna teoría de la evidencia. Los ejemplos incluyen una lógica de múltiples valores , la teoría de Dempster-Shafer o la teoría de la probabilidad con reglas para la inferencia como la regla de Bayes . A diferencia del razonamiento deductivo, no se basa en universales que se mantengan en un dominio cerrado del discurso para extraer conclusiones, por lo que puede ser aplicable incluso en casos de incertidumbre epistémica (sin embargo, pueden surgir problemas técnicos con esto; por ejemplo, el segundo axioma de probabilidad es un supuesto de mundo cerrado). [41]
Otra diferencia crucial entre estos dos tipos de argumento es que la certeza deductiva es imposible en sistemas no axiomáticos o empíricos como la realidad , lo que deja al razonamiento inductivo como la ruta principal hacia el conocimiento (probabilístico) de tales sistemas. [42]
Dado que "si A es verdadera, entonces eso causaría que B , C y D sean verdaderas", un ejemplo de deducción sería " A es verdadera, por lo tanto, podemos deducir que B , C y D son verdaderas". Un ejemplo de inducción sería " se observa que B , C y D son verdaderas, por lo tanto, A podría ser verdadera". A es una explicación razonable de que B , C y D sean verdaderas.
Por ejemplo:
Sin embargo, cabe señalar que la explicación de la extinción masiva a partir de los asteroides no es necesariamente correcta. Otros eventos con el potencial de afectar el clima global también coinciden con la extinción de los dinosaurios no aviares . Por ejemplo, la liberación de gases volcánicos (en particular dióxido de azufre ) durante la formación de las Traps del Decán en la India .
Otro ejemplo de argumento inductivo:
Este argumento podría haberse utilizado cada vez que se descubriera una nueva forma de vida biológica, y habría llegado a una conclusión correcta en todas las ocasiones; sin embargo, todavía es posible que en el futuro se descubra una forma de vida biológica que no requiera agua líquida. Como resultado, el argumento puede formularse de la siguiente manera:
Un ejemplo clásico de silogismo estadístico incorrecto fue presentado por John Vickers:
La conclusión no es acertada porque la población de cisnes conocida en aquel momento no era representativa de todos los cisnes. Una conclusión más razonable sería la siguiente: de acuerdo con las convenciones aplicables, podríamos esperar razonablemente que todos los cisnes de Inglaterra fueran blancos, al menos en el corto plazo.
En pocas palabras: la deducción se ocupa de la certeza/necesidad ; la inducción se ocupa de la probabilidad . [11] Cualquier afirmación individual responderá a uno de estos dos criterios. Otro enfoque para el análisis del razonamiento es el de la lógica modal , que se ocupa de la distinción entre lo necesario y lo posible de una manera que no se ocupa de las probabilidades entre las cosas consideradas posibles.
La definición filosófica del razonamiento inductivo es más matizada que una simple progresión desde casos particulares/individuales hasta generalizaciones más amplias. Más bien, las premisas de un argumento lógico inductivo indican cierto grado de respaldo (probabilidad inductiva) a la conclusión pero no la implican ; es decir, sugieren la verdad pero no la aseguran. De esta manera, existe la posibilidad de pasar de enunciados generales a casos individuales (por ejemplo, silogismos estadísticos).
Nótese que la definición de razonamiento inductivo descrita aquí difiere de la inducción matemática , que, de hecho, es una forma de razonamiento deductivo . La inducción matemática se utiliza para proporcionar pruebas estrictas de las propiedades de conjuntos definidos recursivamente. [43] La naturaleza deductiva de la inducción matemática deriva de su base en un número no finito de casos, en contraste con el número finito de casos involucrados en un procedimiento de inducción enumerativa como la prueba por agotamiento . Tanto la inducción matemática como la prueba por agotamiento son ejemplos de inducción completa . La inducción completa es un tipo enmascarado de razonamiento deductivo.
Aunque filósofos como Sexto Empírico , al menos desde el pirronista, han señalado la falta de solidez del razonamiento inductivo, [44] la crítica filosófica clásica del problema de la inducción fue dada por el filósofo escocés David Hume . [45] Aunque el uso del razonamiento inductivo demuestra un éxito considerable, la justificación de su aplicación ha sido cuestionada. Reconociendo esto, Hume destacó el hecho de que nuestra mente a menudo extrae conclusiones de experiencias relativamente limitadas que parecen correctas pero que en realidad están lejos de ser ciertas. En la deducción, el valor de verdad de la conclusión se basa en la verdad de la premisa. En la inducción, sin embargo, la dependencia de la conclusión con respecto a la premisa es siempre incierta. Por ejemplo, supongamos que todos los cuervos son negros. El hecho de que haya numerosos cuervos negros apoya la suposición. Nuestra suposición, sin embargo, se vuelve inválida una vez que se descubre que hay cuervos blancos. Por lo tanto, la regla general "todos los cuervos son negros" no es el tipo de afirmación que pueda ser cierta. Hume argumentó además que es imposible justificar el razonamiento inductivo: esto se debe a que no se puede justificar deductivamente, por lo que nuestra única opción es justificarlo inductivamente. Dado que este argumento es circular, con la ayuda de la bifurcación de Hume concluyó que nuestro uso de la inducción no es lógicamente justificable. [46]
Hume, sin embargo, afirmó que incluso si se demostrara que la inducción no es fiable, todavía tendríamos que confiar en ella. Así que, en lugar de una posición de escepticismo severo , Hume abogó por un escepticismo práctico basado en el sentido común , donde se acepta la inevitabilidad de la inducción. [47] Bertrand Russell ilustró el escepticismo de Hume en una historia sobre un pollo que, alimentado todas las mañanas sin falta y siguiendo las leyes de la inducción, concluyó que esta alimentación siempre continuaría, hasta que finalmente el granjero le cortara la garganta. [48]
En 1963, Karl Popper escribió: "La inducción, es decir, la inferencia basada en muchas observaciones, es un mito. No es un hecho psicológico, ni un hecho de la vida ordinaria, ni un procedimiento científico". [49] [50] El libro de Popper de 1972 Conocimiento objetivo —cuyo primer capítulo está dedicado al problema de la inducción— comienza: "Creo que he resuelto un importante problema filosófico: el problema de la inducción ". [50] En el esquema de Popper, la inducción enumerativa es "una especie de ilusión óptica" proyectada por los pasos de conjetura y refutación durante un cambio de problema . [50] Un salto imaginativo, la solución tentativa es improvisada, carente de reglas inductivas que la guíen. [50] La generalización resultante, sin restricciones, es deductiva, una consecuencia implícita de todas las consideraciones explicativas. [50] Sin embargo, la controversia continuó, ya que la supuesta solución de Popper no fue generalmente aceptada. [51]
Donald A. Gillies sostiene que las reglas de inferencia relacionadas con el razonamiento inductivo están abrumadoramente ausentes en la ciencia, y describe la mayoría de las inferencias científicas como "que implican conjeturas ideadas por el ingenio y la creatividad humanos, y de ninguna manera inferidas de manera mecánica o de acuerdo con reglas especificadas con precisión". [52] Gillies también proporciona un contraejemplo poco común "en los programas de aprendizaje automático de la IA ". [52]
El razonamiento inductivo también se conoce como construcción de hipótesis porque las conclusiones a las que se llega se basan en el conocimiento y las predicciones actuales. [ cita requerida ] Al igual que con los argumentos deductivos, los sesgos pueden distorsionar la aplicación adecuada del argumento inductivo, impidiendo así que el razonador formule la conclusión más lógica basándose en las pistas. Algunos ejemplos de estos sesgos incluyen la heurística de disponibilidad , el sesgo de confirmación y el sesgo del mundo predecible .
Se considera que la heurística de disponibilidad hace que el razonador dependa principalmente de la información que está fácilmente disponible. Las personas tienen tendencia a confiar en la información que es fácilmente accesible en el mundo que las rodea. Por ejemplo, en las encuestas, cuando se pide a las personas que calculen el porcentaje de personas que murieron por diversas causas, la mayoría de los encuestados eligen las causas que han sido más frecuentes en los medios de comunicación, como el terrorismo, los asesinatos y los accidentes de aviación, en lugar de causas como las enfermedades y los accidentes de tráfico, que técnicamente han sido "menos accesibles" para el individuo, ya que no se enfatizan tanto en el mundo que lo rodea.
El sesgo de confirmación se basa en la tendencia natural a confirmar una hipótesis en lugar de negarla. Las investigaciones han demostrado que las personas tienden a buscar soluciones a los problemas que sean más coherentes con las hipótesis conocidas en lugar de intentar refutarlas. A menudo, en los experimentos, los sujetos formulan preguntas que buscan respuestas que se ajusten a las hipótesis establecidas, confirmando así dichas hipótesis. Por ejemplo, si se plantea la hipótesis de que Sally es una persona sociable, los sujetos buscarán naturalmente confirmar la premisa formulando preguntas que produzcan respuestas que confirmen que Sally es, de hecho, una persona sociable.
El sesgo del mundo predecible gira en torno a la inclinación a percibir un orden cuando no se ha demostrado que exista, ya sea en absoluto o en un nivel particular de abstracción. Los juegos de azar, por ejemplo, son uno de los ejemplos más populares de sesgo del mundo predecible. Los jugadores a menudo empiezan a pensar que ven patrones simples y obvios en los resultados y, por lo tanto, creen que son capaces de predecir los resultados basándose en lo que han presenciado. Sin embargo, en realidad, los resultados de estos juegos son difíciles de predecir y de naturaleza altamente compleja. En general, las personas tienden a buscar algún tipo de orden simplista para explicar o justificar sus creencias y experiencias, y a menudo les resulta difícil darse cuenta de que sus percepciones del orden pueden ser completamente diferentes de la verdad. [53]
Como lógica de inducción más que como teoría de creencias, la inferencia bayesiana no determina qué creencias son racionales a priori , sino que determina cómo deberíamos cambiar racionalmente las creencias que tenemos cuando se nos presentan pruebas. Empezamos considerando una lista exhaustiva de posibilidades, una caracterización probabilística definida de cada una de ellas (en términos de probabilidades) y probabilidades previas precisas para ellas (por ejemplo, basadas en la lógica o la inducción a partir de la experiencia previa) y, cuando nos enfrentamos a las pruebas, ajustamos la fuerza de nuestra creencia en las hipótesis dadas de una manera precisa utilizando la lógica bayesiana para producir "probabilidades a posteriori" candidatas, sin tener en cuenta hasta qué punto las nuevas pruebas pueden darnos razones específicas para dudar de nuestras suposiciones. De lo contrario, es aconsejable revisar y repetir según sea necesario la consideración de las posibilidades y su caracterización hasta que, tal vez, se alcance una situación estable. [54]
Alrededor de 1960, Ray Solomonoff fundó la teoría de la inferencia inductiva universal , una teoría de predicción basada en observaciones, por ejemplo, predecir el siguiente símbolo basándose en una serie dada de símbolos. Este es un marco inductivo formal que combina la teoría de la información algorítmica con el marco bayesiano. La inferencia inductiva universal se basa en fundamentos filosóficos sólidos y "parece ser una herramienta inadecuada para tratar con cualquier entorno razonablemente complejo o del mundo real", [55] y puede considerarse como una navaja de Occam formalizada matemáticamente . Los ingredientes fundamentales de la teoría son los conceptos de probabilidad algorítmica y complejidad de Kolmogorov .
En una inducción enumerativa típica, las premisas enumeran los individuos que se observa que tienen una propiedad común, y la conclusión afirma que todos los individuos de la misma población tienen esa propiedad.