La RAE define «inducir» en su sentido filosófico, como «extraer, a partir de determinadas observaciones o experiencias particulares, el principio general que en ellas está implícito».
Esas «extracciones» son de dos tipos: Dado que ambas son utilizadas, ya sea explícita o implícitamente, en forma generalizada para proponer hipótesis —ya sea formales o no— a partir de observaciones empíricas, su cuestionamiento pone en duda una gran parte, si es que no la totalidad, del conocimiento humano.
Cuanto mayor sea la lógica que detente una teoría, menor será la contrastabilidad empírica.
[18] Hume postuló que todo el razonamiento humano pertenece a dos clases o ámbitos.
No hay ninguna razón por la cual deba aceptarse lógicamente, dice Hume, la necesidad del efecto por la causa.
[24] A partir de lo anterior se generó lo que llegó a ser conocido como «el problema del cisne negro»: dada una generalización o presunción sobre cualesquiera eventos futuros, ¿cómo podemos saber que no se encontrarán «cisnes negros», es decir, sucesos aparentemente imposibles o improbables que demuestran erróneas nuestras proposiciones o hipótesis?.
En este último el proponer buenas hipótesis puede ser no solamente útil, sino la estrategia esencial para obtener conocimiento.
Lo mismo pero explicitando el principio de uniformidad: he visto ese cisne y era (por cualquier motivo) blanco.
Lo mismo después de estudios: los cisnes europeos son, debido a causas genéticas, blancos.
Estas tentativas, pese a los avances metodológicos que lograron, fueron generalmente consideradas infructuosas en relación con resolver el problema de la inducción.
[38][39] Puesto de otra manera: dada la falla en demostrar que las inferencias inductivas pueden ser indudablemente justificadas «Un modo de atenuar la postura del inductivismo ingenuo consiste en recurrir a la probabilidad: ya no se afirma que las generalizaciones a las que se han arribado mediante la inducción sean perfectamente verdaderas, sino probablemente verdaderas...».
[40] Sin embargo, en esas fechas comenzó a difundirse la tesis del holismo epistemológico —introducida inicialmente (1906) por Pierre Duhem[41]— que, básicamente, sugiere que un experimento (o el resultado del mismo) no es simplemente una observación, sino más bien una interpretación de la observación mediante un entramado teórico (que incluye no solo las teorías, pero un sistema de asunciones, métodos, etc).
Sigue que, no importa como se diseñe un experimento, es imposible someter una hipótesis a prueba experimental por sí misma o aislada de ese sistema teórico.
[50] Un aspecto importante en ese proyecto es el énfasis en cuestiones lingüísticas,[51] envolviendo el desarrollo de lo que ha sido llamado «un modelo de lengua perfecta, sujeta a las reglas de lógica formal»[52] y «construir, pieza por pieza, un lenguaje científico completo, perfecto, en el cual se pueden enunciar todas las proposiciones científicas.» (Lakatos, op.
En las palabras de Karl Popper: Esos ataques no han tenido una respuesta considerada generalmente como satisfactoria.
La situación se complica dado que, al nivel del asunto de otorgar grados de corroboración estadística a propuestas, y aun cuando Popper comenzó dudando que tal tentativa pudiera tener éxito, finalmente él mismo lo resolvió.
De acuerdo a Imre Lakatos: «Sin embargo, su tercera nota,[62] publicada en 1958, representa un cambio interesante.
En esta nota Popper elaboró una medida para los grados de corroboración de teorías estadísticas, dada evidencia interpretada estadísticamente, una «métrica o lógica absoluta», basada en consideraciones puramente lógicas, que él consideró «completamente adecuada».
Entre ellos: Este se puede considerar el problema complementario al resaltado por la Tesis de Duhem-Quine.
Así como ese muestra como una teoría define que son los hechos relevantes a la teoría, este nuevo problema apunta que cualquier hecho (más apropiadamente: cualquier observación) puede ser descrito utilizando una variedad indefinida de predicados.
Pero, y obviamente, en la práctica tanto diaria como científica, solo algunas de ellas son consideradas.
Así, el problema delineado se puede enunciar preguntando como sabemos, para sugerir una inducción, cuales de las categorías que usamos o podríamos usar son generalizables.
Goodman sugiere que solo en la medida en que pueda resolverse este problema podremos establecer una distinción entre inferencias inductivas válidas y no válidas, y, como solución, esboza su teoría de la proyección, que busca establecer una distinción entre hipótesis confirmables y no confirmables en términos del «refuerzo» de los predicados utilizados en su formulación.
En otras palabras, utilizamos predicados «legales» o «normables» (lawlike), es decir, que corresponden a nuestras reglas sintácticas (En las palabras de Goodman, el nuevo problema de la inducción es decidir: «si el predicado es «bien comportado» - es decir, si es el caso que hipótesis universales simples que se le aplican son normalizables».[72]).
Esto nos da una regla formal para decidir y/o juzgar la evidencia, a diferencia del principio de uniformidad, que hace la suposición que el universo es «legal» (se comporta de acuerdo a «leyes naturales» descubribles).
Su validez depende de su conformidad con las inferencias deductivas particulares que hacemos y sancionamos en realidad.
El punto es que las reglas y las inferencias particulares por igual se justifican porque son llevadas a un acuerdo entre sí.
La sugerencia parece dar origen a una visión constructivista del mundo;[77] sugiriendo, al mismo tiempo, una heurística parsimoniosa en la selección o uso de predicados.