El método científico es un método empírico para adquirir conocimiento que ha caracterizado el desarrollo de la ciencia desde al menos el siglo XVII. El método científico implica una observación cuidadosa acompañada de un escepticismo riguroso , porque los supuestos cognitivos pueden distorsionar la interpretación de la observación . La investigación científica incluye la creación de una hipótesis a través del razonamiento inductivo , su prueba mediante experimentos y análisis estadísticos, y el ajuste o el descarte de la hipótesis en función de los resultados. [1] [2] [3]
Aunque los procedimientos varían de un campo de investigación a otro, el proceso subyacente suele ser similar. El proceso en el método científico implica hacer conjeturas (explicaciones hipotéticas), derivar predicciones de las hipótesis como consecuencias lógicas y luego llevar a cabo experimentos u observaciones empíricas basadas en esas predicciones. [4] Una hipótesis es una conjetura basada en el conocimiento obtenido al buscar respuestas a la pregunta. La hipótesis puede ser muy específica o puede ser amplia. Luego, los científicos prueban las hipótesis realizando experimentos o estudios. Una hipótesis científica debe ser falsable , lo que implica que es posible identificar un posible resultado de un experimento u observación que entre en conflicto con las predicciones deducidas de la hipótesis; de lo contrario, la hipótesis no puede probarse de manera significativa. [5]
Aunque el método científico suele presentarse como una secuencia fija de pasos, en realidad representa más bien un conjunto de principios generales. No todos los pasos se dan en todas las investigaciones científicas (ni en el mismo grado) y no siempre se dan en el mismo orden. [6] [7]
La historia del método científico estudia los cambios en la metodología de la investigación científica, a diferencia de la historia de la ciencia misma. El desarrollo de reglas para el razonamiento científico no ha sido sencillo; el método científico ha sido objeto de intensos y recurrentes debates a lo largo de la historia de la ciencia, y eminentes filósofos naturales y científicos han defendido la primacía de uno u otro enfoque para establecer el conocimiento científico.
A lo largo de la historia se pueden encontrar diferentes expresiones tempranas del empirismo y del método científico, por ejemplo, con los antiguos estoicos , Epicuro , [8] Alhazen , [A] [a] [B] [i] Avicena , Al-Biruni , [13] [14] Roger Bacon [α] y Guillermo de Ockham .
En la revolución científica de los siglos XVI y XVII algunos de los desarrollos más importantes fueron el fomento del empirismo por Francis Bacon y Robert Hooke , [17] [18] el enfoque racionalista descrito por René Descartes y el inductivismo , que cobró especial importancia gracias a Isaac Newton y quienes lo siguieron. Los experimentos fueron defendidos por Francis Bacon y realizados por Giambattista della Porta , [19] Johannes Kepler , [20] [d] y Galileo Galilei . [β] Hubo un desarrollo particular ayudado por los trabajos teóricos de un escéptico Francisco Sanches , [22] por idealistas y empiristas como John Locke , George Berkeley y David Hume . [e]
Un viaje por mar desde América hasta Europa le proporcionó a CS Peirce la distancia necesaria para aclarar sus ideas, dando lugar gradualmente al modelo hipotético-deductivo . [25] Formulado en el siglo XX, el modelo ha sufrido importantes revisiones desde que se propuso por primera vez.
El término "método científico" surgió en el siglo XIX, como resultado del importante desarrollo institucional de la ciencia y de la aparición de terminologías que establecían límites claros entre ciencia y no ciencia, como "científico" y "pseudociencia". [26] A lo largo de las décadas de 1830 y 1850, cuando el baconianismo era popular, naturalistas como William Whewell, John Herschel y John Stuart Mill participaron en debates sobre la "inducción" y los "hechos" y se centraron en cómo generar conocimiento. [26 ] A finales del siglo XIX y principios del XX, se llevó a cabo un debate sobre el realismo frente al antirrealismo a medida que las poderosas teorías científicas se extendían más allá del ámbito de lo observable. [27]
El término "método científico" se popularizó en el siglo XX; el libro de Dewey de 1910, Cómo pensamos , inspiró pautas populares, [28] apareciendo en diccionarios y libros de texto de ciencias, aunque hubo poco consenso sobre su significado. [26] Aunque hubo crecimiento hasta mediados del siglo XX, [f] en los años 1960 y 1970 numerosos filósofos influyentes de la ciencia como Thomas Kuhn y Paul Feyerabend habían cuestionado la universalidad del "método científico" y al hacerlo reemplazaron en gran medida la noción de ciencia como un método homogéneo y universal por la de ser una práctica heterogénea y local. [26] En particular,Paul Feyerabend, en la primera edición de 1975 de su libro Contra el método , argumentó en contra de la existencia de reglas universales para la ciencia ; [27] Karl Popper , [γ] y Gauch 2003, [6] no están de acuerdo con la afirmación de Feyerabend.
Posturas posteriores incluyen el ensayo de 2013 del físico Lee Smolin "No hay método científico", [30] en el que defiende dos principios éticos, [δ] y el capítulo del historiador de la ciencia Daniel Thurs en el libro de 2015 Newton's Apple and Other Myths about Science , que concluyó que el método científico es un mito o, en el mejor de los casos, una idealización. [31] Como los mitos son creencias, [32] están sujetos a la falacia narrativa como señala Taleb. [33] Los filósofos Robert Nola y Howard Sankey, en su libro de 2007 Theories of Scientific Method , dijeron que los debates sobre el método científico continúan, y argumentaron que Feyerabend, a pesar del título de Against Method , aceptó ciertas reglas del método e intentó justificar esas reglas con una metametodología. [34] Staddon (2017) sostiene que es un error intentar seguir reglas en ausencia de un método científico algorítmico; en ese caso, "la ciencia se entiende mejor a través de ejemplos". [35] [36] Pero los métodos algorítmicos, como la refutación de la teoría existente mediante experimentos, se han utilizado desde Alhacén (1027) y su Libro de óptica , [a] y Galileo (1638) y sus Dos nuevas ciencias , [21] y El ensayador , [37] que todavía se mantienen como método científico.
Los elementos básicos del método científico se ilustran con el siguiente ejemplo (que ocurrió entre 1944 y 1953) del descubrimiento de la estructura del ADN (marcado con y sangrado).
El método científico es el proceso mediante el cual se lleva a cabo la ciencia . [38] Como en otras áreas de investigación, la ciencia (a través del método científico) puede basarse en conocimientos previos y puede unificar la comprensión de sus temas de estudio a lo largo del tiempo. [g] Se puede considerar que este modelo subyace a la revolución científica . [40]
El proceso general implica hacer conjeturas ( hipótesis ), derivar predicciones de ellas como consecuencias lógicas y luego llevar a cabo experimentos basados en esas predicciones para determinar si la conjetura original era correcta. [4] Sin embargo, existen dificultades en una declaración de método formulaica. Aunque el método científico a menudo se presenta como una secuencia fija de pasos, es mejor considerar estas acciones como principios generales. [41] No todos los pasos tienen lugar en cada investigación científica (ni en el mismo grado), y no siempre se realizan en el mismo orden. Como señaló el científico y filósofo William Whewell (1794-1866), "invención, sagacidad [y] genio" [7] son necesarios en cada paso.
Existen diferentes formas de describir el método básico utilizado para la investigación científica. La comunidad científica y los filósofos de la ciencia generalmente coinciden en la siguiente clasificación de los componentes del método. Estos elementos metodológicos y la organización de los procedimientos tienden a ser más característicos de las ciencias experimentales que de las ciencias sociales . No obstante, el ciclo de formulación de hipótesis, prueba y análisis de los resultados y formulación de nuevas hipótesis se asemejará al ciclo que se describe a continuación.El método científico es un proceso iterativo y cíclico a través del cual la información se revisa continuamente. [42] [43] Generalmente se reconoce que el desarrollo de avances en el conocimiento se realiza a través de los siguientes elementos, en diversas combinaciones o contribuciones: [44] [45]
Cada elemento del método científico está sujeto a revisión por pares para detectar posibles errores. Estas actividades no describen todo lo que hacen los científicos, sino que se aplican principalmente a las ciencias experimentales (por ejemplo, física, química, biología y psicología). Los elementos anteriores se enseñan a menudo en el sistema educativo como "el método científico". [C]
El método científico no es una receta única: requiere inteligencia, imaginación y creatividad. [46] En este sentido, no es un conjunto de normas y procedimientos que se deben seguir sin pensar, sino más bien un ciclo continuo, en el que se desarrollan constantemente modelos y métodos más útiles, precisos y completos. Por ejemplo, cuando Einstein desarrolló las teorías especial y general de la relatividad, no refutó ni descartó en modo alguno los Principia de Newton . Por el contrario, si se eliminan de las teorías de Einstein lo astronómicamente masivo, lo ligero como una pluma y lo extremadamente rápido (todos fenómenos que Newton no podría haber observado), lo que queda son las ecuaciones de Newton. Las teorías de Einstein son ampliaciones y refinamientos de las teorías de Newton y, por tanto, aumentan la confianza en el trabajo de Newton.
A veces se ofrece un esquema iterativo [43] , pragmático [12] de los cuatro puntos anteriores como guía para proceder: [47]
El ciclo iterativo inherente a este método paso a paso va del punto 3 al 6 y vuelve al 3 nuevamente.
Si bien este esquema describe un método típico de hipótesis/prueba, [48] muchos filósofos, historiadores y sociólogos de la ciencia, incluido Paul Feyerabend , [h] afirman que tales descripciones del método científico tienen poca relación con las formas en que realmente se practica la ciencia.
En 1950, se supo que la herencia genética tenía una descripción matemática, a partir de los estudios de Gregor Mendel , y que el ADN contenía información genética ( principio transformante de Oswald Avery ). [50] Pero el mecanismo de almacenamiento de información genética (es decir, genes) en el ADN no estaba claro. Los investigadores del laboratorio de Bragg en la Universidad de Cambridge hicieron imágenes de difracción de rayos X de varias moléculas , comenzando con cristales de sal , y procediendo a sustancias más complicadas. Usando pistas reunidas minuciosamente durante décadas, comenzando con su composición química, se determinó que debería ser posible caracterizar la estructura física del ADN, y las imágenes de rayos X serían el vehículo. [51]
El método científico depende de caracterizaciones cada vez más sofisticadas de los sujetos de investigación. (Los sujetos también pueden denominarse problemas no resueltos o incógnitas ). [C] Por ejemplo, Benjamin Franklin conjeturó, correctamente, que el fuego de San Telmo era de naturaleza eléctrica , pero se necesitó una larga serie de experimentos y cambios teóricos para establecerlo. Al buscar las propiedades pertinentes de los sujetos, una reflexión cuidadosa también puede implicar algunas definiciones y observaciones ; estas observaciones a menudo exigen mediciones cuidadosas y/o recuentos que pueden tomar la forma de una investigación empírica expansiva .
Una pregunta científica puede referirse a la explicación de una observación específica , [C] como en "¿Por qué el cielo es azul?", pero también puede ser abierta, como en "¿Cómo puedo diseñar un medicamento para curar esta enfermedad en particular?". Esta etapa con frecuencia implica encontrar y evaluar evidencia de experimentos previos, observaciones o afirmaciones científicas personales, así como el trabajo de otros científicos. Si ya se conoce la respuesta, se puede plantear una pregunta diferente que se base en la evidencia. Al aplicar el método científico a la investigación, determinar una buena pregunta puede ser muy difícil y afectará el resultado de la investigación. [52]
La recopilación sistemática y cuidadosa de mediciones o recuentos de cantidades relevantes es a menudo la diferencia crítica entre las pseudociencias , como la alquimia, y las ciencias, como la química o la biología. Las mediciones científicas suelen tabularse, graficarse o mapearse, y se realizan sobre ellas manipulaciones estadísticas, como la correlación y la regresión . Las mediciones pueden realizarse en un entorno controlado, como un laboratorio, o sobre objetos más o menos inaccesibles o inmanipulables, como estrellas o poblaciones humanas. Las mediciones a menudo requieren instrumentos científicos especializados , como termómetros , espectroscopios , aceleradores de partículas o voltímetros , y el progreso de un campo científico suele estar íntimamente ligado a su invención y mejora.
No estoy acostumbrado a decir nada con certeza después de sólo una o dos observaciones.
—Andreas Vesalio (1546) [53]
La definición científica de un término a veces difiere sustancialmente de su uso en el lenguaje natural . Por ejemplo, masa y peso tienen significados superpuestos en el discurso común, pero tienen significados distintos en mecánica . Las cantidades científicas a menudo se caracterizan por sus unidades de medida , que luego pueden describirse en términos de unidades físicas convencionales al comunicar el trabajo.
A veces se desarrollan nuevas teorías después de darse cuenta de que ciertos términos no se habían definido con suficiente claridad anteriormente. Por ejemplo, el primer artículo de Albert Einstein sobre la relatividad comienza definiendo la simultaneidad y los medios para determinar la longitud . Isaac Newton pasó por alto estas ideas con "No defino el tiempo , el espacio, el lugar y el movimiento como si fueran bien conocidos por todos". El artículo de Einstein luego demuestra que ellos (es decir, el tiempo absoluto y la longitud independiente del movimiento) eran aproximaciones. Sin embargo, Francis Crick nos advierte que, al caracterizar un sujeto, puede ser prematuro definir algo cuando sigue siendo mal comprendido. [54] En el estudio de Crick sobre la conciencia , en realidad le resultó más fácil estudiar la conciencia en el sistema visual , en lugar de estudiar el libre albedrío , por ejemplo. Su ejemplo de advertencia fue el gen; el gen era mucho menos comprendido antes del descubrimiento pionero de Watson y Crick de la estructura del ADN; habría sido contraproducente dedicar mucho tiempo a la definición del gen, antes de ellos.
Linus Pauling propuso que el ADN podría ser una triple hélice . [55] [56] Esta hipótesis también fue considerada por Francis Crick y James D. Watson , pero fue descartada. Cuando Watson y Crick conocieron la hipótesis de Pauling, entendieron a partir de los datos existentes que Pauling estaba equivocado. [57] y que Pauling pronto admitiría sus dificultades con esa estructura.
Una hipótesis es una explicación sugerida de un fenómeno o, alternativamente, una propuesta razonada que sugiere una posible correlación entre un conjunto de fenómenos. Normalmente, las hipótesis tienen la forma de un modelo matemático . A veces, pero no siempre, también pueden formularse como enunciados existenciales , que establecen que algún caso particular del fenómeno que se estudia tiene algunas explicaciones características y causales, que tienen la forma general de enunciados universales , que establecen que cada caso del fenómeno tiene una característica particular.
Los científicos son libres de utilizar cualquier recurso que tengan (su propia creatividad, ideas de otros campos, razonamiento inductivo , inferencia bayesiana , etc.) para imaginar posibles explicaciones para un fenómeno en estudio.Albert Einstein observó una vez que "no hay un puente lógico entre los fenómenos y sus principios teóricos". [58] [i] Charles Sanders Peirce , tomando prestada una página de Aristóteles ( Prior Analytics , 2.25 ) [60] describió las etapas incipientes de la investigación , instigadas por la "irritación de la duda" para aventurar una conjetura plausible, como razonamiento abductivo . [61] : II, p.290 La historia de la ciencia está llena de historias de científicos que afirman haber tenido un "destello de inspiración", o una corazonada, que luego los motivó a buscar evidencia para apoyar o refutar su idea. Michael Polanyi hizo de dicha creatividad la pieza central de su discusión de la metodología.
William Glen observa que [62]
El éxito de una hipótesis, o su servicio a la ciencia, no reside simplemente en su "verdad" percibida, o en su poder para desplazar, subsumir o reducir una idea predecesora, sino quizás más en su capacidad para estimular la investigación que iluminará... suposiciones simples y áreas de vaguedad.
— William Glen, Los debates sobre la extinción masiva
En general, los científicos tienden a buscar teorías que sean " elegantes " o " bellas ". Los científicos suelen utilizar estos términos para referirse a una teoría que sigue los hechos conocidos pero que, no obstante, es relativamente simple y fácil de manejar. La navaja de Occam sirve como regla general para elegir la más deseable entre un grupo de hipótesis igualmente explicativas.
Para minimizar el sesgo de confirmación que resulta de considerar una única hipótesis, la inferencia fuerte enfatiza la necesidad de considerar múltiples hipótesis alternativas [63] y evitar artefactos. [64]
James D. Watson , Francis Crick y otros plantearon la hipótesis de que el ADN tenía una estructura helicoidal. Esto implicaba que el patrón de difracción de rayos X del ADN tendría "forma de x". [65] [66] Esta predicción se derivó del trabajo de Cochran, Crick y Vand [67] (y de forma independiente de Stokes). El teorema de Cochran-Crick-Vand-Stokes proporcionó una explicación matemática para la observación empírica de que la difracción de estructuras helicoidales produce patrones en forma de x. En su primer artículo, Watson y Crick también señalaron que la estructura de doble hélice que propusieron proporcionaba un mecanismo simple para la replicación del ADN , y escribieron: "No se nos ha escapado que el emparejamiento específico que hemos postulado sugiere inmediatamente un posible mecanismo de copia para el material genético". [68]
Toda hipótesis útil permitirá hacer predicciones mediante razonamientos que incluyan el razonamiento deductivo . [j] Puede predecir el resultado de un experimento en un laboratorio o la observación de un fenómeno en la naturaleza. La predicción también puede ser estadística y tratar únicamente con probabilidades.
Es esencial que el resultado de la prueba de dicha predicción sea desconocido en el momento. Sólo en este caso un resultado exitoso aumenta la probabilidad de que la hipótesis sea verdadera. Si el resultado ya es conocido, se denomina consecuencia y ya debería haberse considerado al formular la hipótesis.
Si las predicciones no son accesibles mediante la observación o la experiencia, la hipótesis no es aún comprobable y, por lo tanto, seguirá siendo, en ese sentido, no científica en sentido estricto. Una nueva tecnología o teoría podría hacer factibles los experimentos necesarios. Por ejemplo, si bien una hipótesis sobre la existencia de otras especies inteligentes puede ser convincente con una especulación basada en la ciencia, ningún experimento conocido puede poner a prueba esa hipótesis. Por lo tanto, la ciencia en sí misma puede tener poco que decir sobre la posibilidad. En el futuro, una nueva técnica podría permitir una prueba experimental y la especulación pasaría entonces a formar parte de la ciencia aceptada.
Por ejemplo, la teoría de la relatividad general de Einstein hace varias predicciones específicas sobre la estructura observable del espacio-tiempo , como que la luz se curva en un campo gravitatorio y que la cantidad de curvatura depende de manera precisa de la fuerza de ese campo gravitatorio. Las observaciones de Arthur Eddington realizadas durante un eclipse solar de 1919 apoyaron la relatividad general en lugar de la gravitación newtoniana . [69]
Watson y Crick mostraron una propuesta inicial (e incorrecta) de la estructura del ADN a un equipo del King's College de Londres ( Rosalind Franklin , Maurice Wilkins y Raymond Gosling) . Franklin detectó inmediatamente los fallos relacionados con el contenido de agua. Más tarde, Watson vio la fotografía 51 de Franklin , una imagen detallada de difracción de rayos X, que mostraba una forma de X [70] [71] y pudo confirmar que la estructura era helicoidal. [72] [73] [k]
Una vez que se hacen predicciones, se pueden buscar mediante experimentos. Si los resultados de la prueba contradicen las predicciones, las hipótesis que las implicaron se ponen en tela de juicio y se vuelven menos sostenibles. A veces, los experimentos se llevan a cabo incorrectamente o no están muy bien diseñados en comparación con un experimento crucial . Si los resultados experimentales confirman las predicciones, entonces se considera que es más probable que las hipótesis sean correctas, pero aún podrían estar equivocadas y continuar estando sujetas a más pruebas. El control experimental es una técnica para tratar el error de observación. Esta técnica utiliza el contraste entre múltiples muestras, observaciones o poblaciones, bajo diferentes condiciones, para ver qué varía o qué permanece igual. Variamos las condiciones para los actos de medición, para ayudar a aislar lo que ha cambiado. Los cánones de Mill pueden ayudarnos entonces a determinar cuál es el factor importante. [77] El análisis factorial es una técnica para descubrir el factor importante en un efecto.
Dependiendo de las predicciones, los experimentos pueden adoptar distintas formas. Puede tratarse de un experimento clásico en un laboratorio, un estudio doble ciego o una excavación arqueológica . Incluso tomar un avión de Nueva York a París es un experimento que pone a prueba las hipótesis aerodinámicas utilizadas para construir el avión.
Estas instituciones reducen así la función de investigación a una relación coste/beneficio, [78] que se expresa en dinero, y en el tiempo y la atención que los investigadores deben dedicar, [78] a cambio de un informe a sus electores. [79] Los grandes instrumentos actuales, como el Gran Colisionador de Hadrones (LHC) del CERN, [80] o el LIGO , [81] o el National Ignition Facility (NIF), [82] o la Estación Espacial Internacional (ISS), [83] o el Telescopio Espacial James Webb (JWST), [84] [85] implican unos costes previstos de miles de millones de dólares y plazos que se extienden a lo largo de décadas. Este tipo de instituciones afectan a las políticas públicas, a nivel nacional o incluso internacional, y los investigadores necesitarían un acceso compartido a dichas máquinas y a su infraestructura adjunta. [ε] [86]
Los científicos asumen una actitud de apertura y responsabilidad por parte de quienes experimentan. El mantenimiento de registros detallados es esencial para ayudar a registrar e informar sobre los resultados experimentales y respaldar la eficacia e integridad del procedimiento. También ayudarán a reproducir los resultados experimentales, probablemente por otros. Se pueden ver rastros de este enfoque en el trabajo de Hiparco (190-120 a. C.), al determinar un valor para la precesión de la Tierra, mientras que los experimentos controlados se pueden ver en las obras de al-Battani (853-929 d. C.) [87] y Alhazen (965-1039 d. C.). [88] [l] [b]
Watson y Crick elaboraron entonces su modelo, utilizando esta información junto con la información previamente conocida sobre la composición del ADN, especialmente las reglas de Chargaff sobre el apareamiento de bases. [76] Después de una considerable experimentación infructuosa, de que su superior les desaconsejara continuar y de numerosos falsos comienzos, [90] [91] [92] Watson y Crick pudieron inferir la estructura esencial del ADN mediante el modelado concreto de las formas físicas de los nucleótidos que lo componen. [76] [93] [94] Se guiaron por las longitudes de enlace que habían sido deducidas por Linus Pauling y por las imágenes de difracción de rayos X de Rosalind Franklin .
El método científico es iterativo. En cualquier etapa, es posible refinar su exactitud y precisión , de modo que alguna consideración lleve al científico a repetir una parte anterior del proceso. El fracaso en desarrollar una hipótesis interesante puede llevar al científico a redefinir el tema en consideración. El fracaso de una hipótesis para producir predicciones interesantes y comprobables puede llevar a reconsiderar la hipótesis o la definición del tema. El fracaso de un experimento para producir resultados interesantes puede llevar al científico a reconsiderar el método experimental, la hipótesis o la definición del tema.
Esta forma de iteración puede abarcar décadas y, a veces, siglos. Se pueden crear artículos publicados a partir de ellos. Por ejemplo: en 1027, Alhazen , basándose en sus mediciones de la refracción de la luz, pudo deducir que el espacio exterior era menos denso que el aire , es decir: "el cuerpo de los cielos es más raro que el cuerpo del aire". [10] En 1079, el Tratado sobre el crepúsculo de Ibn Mu'adh pudo inferir que la atmósfera de la Tierra tenía un espesor de 50 millas, basándose en la refracción atmosférica de los rayos del sol. [m]
Por eso, el método científico suele representarse como circular: la nueva información conduce a nuevas caracterizaciones y el ciclo de la ciencia continúa. Las mediciones recopiladas pueden archivarse , transmitirse y utilizarse por otros.Otros científicos pueden iniciar su propia investigación y entrar en el proceso en cualquier etapa. Pueden adoptar la caracterización y formular su propia hipótesis, o pueden adoptar la hipótesis y deducir sus propias predicciones. A menudo, el experimento no lo realiza la persona que hizo la predicción, y la caracterización se basa en experimentos realizados por otra persona. Los resultados publicados de los experimentos también pueden servir como hipótesis para predecir su propia reproducibilidad.
La ciencia es una empresa social y el trabajo científico tiende a ser aceptado por la comunidad científica cuando ha sido confirmado. Es fundamental que los resultados experimentales y teóricos sean reproducidos por otros dentro de la comunidad científica. Los investigadores han dado sus vidas por esta visión; Georg Wilhelm Richmann fue asesinado por un rayo globular (1753) cuando intentaba replicar el experimento de volar cometas de 1752 de Benjamin Franklin . [96]
Si un experimento no puede repetirse para producir los mismos resultados, esto implica que los resultados originales podrían haber sido erróneos. Como resultado, es común que un mismo experimento se realice varias veces, especialmente cuando hay variables no controladas u otros indicios de error experimental . En el caso de resultados significativos o sorprendentes, otros científicos también pueden intentar replicar los resultados por sí mismos, especialmente si esos resultados serían importantes para su propio trabajo. [97] La replicación se ha convertido en un tema polémico en las ciencias sociales y biomédicas, donde se administran tratamientos a grupos de individuos. Normalmente, un grupo experimental recibe el tratamiento, como un fármaco, y el grupo de control recibe un placebo. John Ioannidis señaló en 2005 que el método que se utiliza ha llevado a muchos hallazgos que no se pueden replicar. [98]
El proceso de revisión por pares implica la evaluación del experimento por parte de expertos, que normalmente dan su opinión de forma anónima. Algunas revistas solicitan que el experimentador proporcione listas de posibles revisores pares, especialmente si el campo es muy especializado. La revisión por pares no certifica la exactitud de los resultados, solo que, en opinión del revisor, los experimentos en sí mismos eran sólidos (según la descripción proporcionada por el experimentador). Si el trabajo pasa la revisión por pares, que ocasionalmente puede requerir nuevos experimentos solicitados por los revisores, se publicará en una revista científica revisada por pares . La revista específica que publica los resultados indica la calidad percibida del trabajo. [n]
Los científicos suelen ser cuidadosos al registrar sus datos, un requisito promovido por Ludwik Fleck (1896-1961) y otros. [99] Aunque normalmente no se les exige, se les puede solicitar que proporcionen estos datos a otros científicos que deseen replicar sus resultados originales (o partes de sus resultados originales), lo que se extiende al intercambio de cualquier muestra experimental que pueda ser difícil de obtener. [100] Para protegerse contra la mala ciencia y los datos fraudulentos, las agencias gubernamentales que otorgan subvenciones a la investigación, como la National Science Foundation y las revistas científicas, incluidas Nature y Science , tienen una política según la cual los investigadores deben archivar sus datos y métodos para que otros investigadores puedan probarlos y desarrollar la investigación que se ha realizado anteriormente. El archivo de datos científicos se puede realizar en varios archivos nacionales en los EE. UU. o en el Centro Mundial de Datos .
Los principios sin trabas de la ciencia son la búsqueda de la exactitud y el credo de la honestidad; la apertura es ya una cuestión de grados. La apertura está restringida por el rigor general del escepticismo. Y, por supuesto, por la cuestión de la no ciencia.
En 2013, Smolin defendió principios éticos en lugar de dar una definición potencialmente limitada de las reglas de investigación. [δ] Sus ideas se sitúan en el contexto de la escala de la ciencia basada en datos y de gran escala , en la que ha aumentado la importancia de la honestidad y, en consecuencia, de la reproducibilidad . Su idea es que la ciencia es un esfuerzo comunitario de quienes tienen acreditación y trabajan dentro de la comunidad . También advierte contra la parsimonia excesiva.
Popper ya había llevado los principios éticos aún más lejos, llegando al extremo de atribuir valor a las teorías sólo si eran falsables. Popper utilizó el criterio de falsabilidad para demarcar una teoría científica de una teoría como la astrología: ambas "explican" las observaciones, pero la teoría científica asume el riesgo de hacer predicciones que deciden si es correcta o no: [101] [102]
"Aquellos de nosotros que no están dispuestos a exponer sus ideas al riesgo de la refutación no participan en el juego de la ciencia".
—Karl Popper, La lógica del descubrimiento científico (2002 [1935])
La ciencia tiene límites. Se suele pensar que esos límites son las respuestas a preguntas que no pertenecen al ámbito de la ciencia, como la fe. La ciencia también tiene otros límites, ya que busca hacer afirmaciones verdaderas sobre la realidad. [103] La naturaleza de la verdad y el debate sobre cómo se relacionan las afirmaciones científicas con la realidad es mejor dejarlo para el artículo sobre la filosofía de la ciencia . Las limitaciones más inmediatas se manifiestan en la observación de la realidad.
Una de las limitaciones naturales de la investigación científica es que no existe una observación pura, ya que se requiere una teoría para interpretar los datos empíricos, y la observación, por lo tanto, está influida por el marco conceptual del observador. [105] Como la ciencia es un proyecto inacabado, esto conduce a dificultades, a saber, que se extraen conclusiones falsas debido a la información limitada.
Un ejemplo de ello son los experimentos de Kepler y Brahe, utilizados por Hanson para ilustrar el concepto. A pesar de observar el mismo amanecer, los dos científicos llegaron a conclusiones diferentes: su intersubjetividad condujo a conclusiones diferentes. Johannes Kepler utilizó el método de observación de Tycho Brahe , que consistía en proyectar la imagen del Sol en un trozo de papel a través de una abertura de un agujero de alfiler, en lugar de mirar directamente al Sol. No estaba de acuerdo con la conclusión de Brahe de que los eclipses totales de Sol eran imposibles porque, al contrario de Brahe, sabía que existían relatos históricos de eclipses totales. En cambio, dedujo que las imágenes tomadas serían más precisas cuanto mayor fuera la abertura; este hecho es ahora fundamental para el diseño de sistemas ópticos. [d] Otro ejemplo histórico aquí es el descubrimiento de Neptuno , al que se le atribuye haber sido descubierto mediante matemáticas porque los observadores anteriores no sabían lo que estaban mirando. [106]
El quehacer científico puede caracterizarse como la búsqueda de verdades sobre el mundo natural o como la eliminación de dudas sobre el mismo. La primera es la construcción directa de explicaciones a partir de datos empíricos y de la lógica, la segunda la reducción de explicaciones potenciales. [ζ] Se estableció anteriormente que la interpretación de datos empíricos está cargada de teoría, por lo que ninguno de los dos enfoques es trivial.
El elemento omnipresente en el método científico es el empirismo , que sostiene que el conocimiento se crea mediante un proceso que implica observación; las teorías científicas generalizan las observaciones. Esto se opone a las formas estrictas del racionalismo , que sostiene que el conocimiento es creado por el intelecto humano; más tarde aclarado por Popper que se basa en una teoría previa. [108] El método científico encarna la posición de que la razón por sí sola no puede resolver un problema científico particular; refuta inequívocamente las afirmaciones de que la revelación , el dogma político o religioso , las apelaciones a la tradición, las creencias comúnmente aceptadas, el sentido común o las teorías actualmente aceptadas plantean los únicos medios posibles para demostrar la verdad. [12] [75]
En 1877, [44] CS Peirce caracterizó la investigación en general no como la búsqueda de la verdad per se, sino como la lucha por alejarse de las dudas irritantes e inhibidoras nacidas de sorpresas, desacuerdos y similares, y llegar a una creencia segura, siendo la creencia aquello sobre lo que uno está preparado para actuar. Sus puntos de vista pragmáticos enmarcaron la investigación científica como parte de un espectro más amplio y como impulsada, como la investigación en general, por la duda real, no la mera duda verbal o "hiperbólica", que él sostenía que era infructuosa. [o] Esta "duda hiperbólica" contra la que Peirce argumenta aquí es, por supuesto, solo otro nombre para la duda cartesiana asociada con René Descartes . Es una ruta metodológica hacia un conocimiento cierto mediante la identificación de lo que no se puede dudar.
Una formulación fuerte del método científico no siempre está alineada con una forma de empirismo en la que los datos empíricos se presentan en forma de experiencia u otras formas abstractas de conocimiento, como en la práctica científica actual, donde normalmente se acepta el uso de modelos científicos y la confianza en tipologías y teorías abstractas. En 2010, Hawking sugirió que los modelos de la realidad de la física deberían simplemente aceptarse cuando demuestren que hacen predicciones útiles. Él llama a este concepto realismo dependiente del modelo . [111]
La racionalidad encarna la esencia del razonamiento sólido, una piedra angular no sólo en el discurso filosófico sino también en los ámbitos de la ciencia y la toma de decisiones prácticas. Según el punto de vista tradicional, la racionalidad tiene un doble propósito: gobierna las creencias, asegurándose de que se alinean con los principios lógicos, y dirige las acciones, orientándolas hacia resultados coherentes y beneficiosos. Esta comprensión subraya el papel fundamental de la razón en la configuración de nuestra comprensión del mundo y en la orientación de nuestras elecciones y comportamientos. [112] La siguiente sección explorará primero las creencias y los sesgos, y luego llegará al razonamiento racional más asociado con las ciencias.
La metodología científica suele indicar que las hipótesis deben comprobarse en condiciones controladas siempre que sea posible. Esto suele ser posible en ciertas áreas, como las ciencias biológicas, y más difícil en otras, como la astronomía.
La práctica del control y la reproducibilidad experimentales puede tener el efecto de disminuir los efectos potencialmente nocivos de las circunstancias y, en cierta medida, los sesgos personales. Por ejemplo, las creencias preexistentes pueden alterar la interpretación de los resultados, como en el caso del sesgo de confirmación ; se trata de una heurística que lleva a una persona con una creencia particular a ver las cosas como un refuerzo de su creencia, incluso si otro observador puede estar en desacuerdo (en otras palabras, las personas tienden a observar lo que esperan observar). [32]
[L]a acción del pensamiento es excitada por la irritación de la duda y cesa cuando se alcanza la creencia.
— CS Peirce , Cómo hacer claras nuestras ideas (1877) [61]
Un ejemplo histórico es la creencia de que las patas de un caballo al galope están separadas en el punto en que ninguna de las patas del caballo toca el suelo, hasta el punto de que esta imagen fue incluida en pinturas por sus partidarios. Sin embargo, las primeras imágenes stop-action de un caballo al galope realizadas por Eadweard Muybridge demostraron que esto era falso y que las patas están, en cambio, unidas. [113]
Otro sesgo humano importante que juega un papel es la preferencia por afirmaciones nuevas y sorprendentes (véase Apelación a la novedad ), que puede resultar en una búsqueda de evidencia de que lo nuevo es verdadero. [114] Las creencias mal atestiguadas pueden ser creídas y puestas en práctica a través de una heurística menos rigurosa. [115]
Goldhaber y Nieto publicaron en 2010 la observación de que si se describen estructuras teóricas con “muchos temas estrechamente vecinos mediante la conexión de conceptos teóricos, entonces la estructura teórica adquiere una robustez que la hace cada vez más difícil –aunque ciertamente nunca imposible– de revocar”. [116] Cuando se construye una narrativa, sus elementos se vuelven más fáciles de creer. [117] [33]
Fleck (1979), p. 27 señala: "Las palabras y las ideas son originalmente equivalencias fonéticas y mentales de las experiencias que coinciden con ellas... Tales protoideas son al principio siempre demasiado amplias e insuficientemente especializadas... Una vez que se ha formado un sistema estructuralmente completo y cerrado de opiniones que consiste en muchos detalles y relaciones, ofrece una resistencia duradera a cualquier cosa que lo contradiga". A veces, estas relaciones tienen sus elementos asumidos a priori , o contienen algún otro defecto lógico o metodológico en el proceso que finalmente las produjo. Donald M. MacKay ha analizado estos elementos en términos de límites a la precisión de la medición y los ha relacionado con elementos instrumentales en una categoría de medición. [η]
La idea de que existen dos justificaciones opuestas para la verdad ha aparecido a lo largo de la historia del método científico como análisis versus síntesis, no amplificación/amplificación, o incluso confirmación y verificación. (Y hay otros tipos de razonamiento). Uno para usar lo observado para construir verdades fundamentales – y el otro para derivar de esas verdades fundamentales principios más específicos. [118]
El razonamiento deductivo es la construcción de conocimiento a partir de lo que se ha demostrado que es verdad con anterioridad. Requiere la suposición de hechos establecidos previamente y, dada la verdad de las suposiciones, una deducción válida garantiza la verdad de la conclusión. El razonamiento inductivo construye conocimiento no a partir de la verdad establecida, sino de un conjunto de observaciones. Requiere un escepticismo estricto respecto de los fenómenos observados, porque las suposiciones cognitivas pueden distorsionar la interpretación de las percepciones iniciales. [119]
Un ejemplo de cómo funciona el razonamiento inductivo y deductivo se puede encontrar en la historia de la teoría gravitacional . [p] Se necesitaron miles de años de mediciones, de los astrónomos caldeos , indios , persas , griegos , árabes y europeos , para registrar completamente el movimiento del planeta Tierra . [q] Kepler (y otros) pudieron luego construir sus primeras teorías generalizando los datos recopilados de manera inductiva , y Newton pudo unificar la teoría y las mediciones anteriores en las consecuencias de sus leyes del movimiento en 1727. [r]
Otro ejemplo común de razonamiento inductivo es la observación de un contraejemplo de la teoría actual que induce la necesidad de nuevas ideas. En 1859, Le Verrier señaló problemas con el perihelio de Mercurio que mostraban que la teoría de Newton era al menos incompleta. La diferencia observada en la precesión de Mercurio entre la teoría newtoniana y la observación fue una de las cosas que se le ocurrieron a Einstein como una posible prueba temprana de su teoría de la relatividad . Sus cálculos relativistas coincidían mucho más con la observación que la teoría newtoniana. [s] Aunque el Modelo Estándar de la física actual sugiere que aún no conocemos al menos algunos de los conceptos que rodean la teoría de Einstein, esta se mantiene hasta el día de hoy y se está construyendo deductivamente.
Un ejemplo común de razonamiento deductivo es el de asumir como verdadera una teoría y luego desarrollarla. La teoría que se basa en el logro de Einstein puede simplemente afirmar que "hemos demostrado que este caso cumple las condiciones bajo las cuales se aplica la relatividad general/especial, por lo tanto, sus conclusiones también se aplican". Si se demostró correctamente que "este caso" cumple las condiciones, se sigue la conclusión. Una extensión de esto es la suposición de una solución a un problema abierto. Este tipo más débil de razonamiento deductivo se utilizará en la investigación actual, cuando varios científicos o incluso equipos de investigadores están resolviendo gradualmente casos específicos en su trabajo para probar una teoría más amplia. Esto a menudo hace que las hipótesis se revisen una y otra vez a medida que surgen nuevas pruebas.
Esta forma de presentar el razonamiento inductivo y deductivo muestra en parte por qué la ciencia suele presentarse como un ciclo de iteración. Es importante tener en cuenta que los cimientos de ese ciclo residen en el razonamiento y no exclusivamente en el seguimiento de un procedimiento.
Las afirmaciones de verdad científica pueden ser rebatidas de tres maneras: refutándolas, cuestionando su certeza o afirmando que la afirmación misma es incoherente. [t] Incoherencia, aquí, significa errores internos en la lógica, como afirmar que los opuestos son verdaderos; la falsificación es lo que Popper habría llamado el trabajo honesto de conjeturar y refutar [29] —la certeza, tal vez, es donde las dificultades para distinguir verdades de no verdades surgen con mayor facilidad.
Las mediciones en el trabajo científico suelen ir acompañadas de estimaciones de su incertidumbre . [78] La incertidumbre se estima a menudo haciendo mediciones repetidas de la cantidad deseada. Las incertidumbres también pueden calcularse considerando las incertidumbres de las cantidades subyacentes individuales utilizadas. Los recuentos de cosas, como el número de personas en una nación en un momento particular, también pueden tener una incertidumbre debido a las limitaciones de la recopilación de datos . O los recuentos pueden representar una muestra de cantidades deseadas, con una incertidumbre que depende del método de muestreo utilizado y el número de muestras tomadas.
En el caso de la imprecisión de la medición, simplemente habrá una "desviación probable" que se expresará en las conclusiones de un estudio. Las estadísticas son diferentes. La generalización estadística inductiva tomará datos de muestra y extrapolará conclusiones más generales, que deben justificarse y analizarse. Incluso se puede decir que los modelos estadísticos solo son útiles, pero nunca una representación completa de las circunstancias .
En el análisis estadístico, el sesgo esperado e inesperado es un factor importante. [124] Las preguntas de investigación , la recopilación de datos o la interpretación de los resultados están sujetas a mayores cantidades de escrutinio que en entornos cómodamente lógicos. Los modelos estadísticos pasan por un proceso de validación , para el cual incluso se podría decir que la conciencia de los sesgos potenciales es más importante que la lógica dura; después de todo, los errores en la lógica son más fáciles de encontrar en la revisión por pares . [u] De manera más general, las afirmaciones de conocimiento racional, y especialmente las estadísticas, tienen que ponerse en su contexto apropiado. [119] Por lo tanto, las declaraciones simples como "9 de cada 10 médicos recomiendan" son de calidad desconocida porque no justifican su metodología.
La falta de familiaridad con las metodologías estadísticas puede dar lugar a conclusiones erróneas. Dejando de lado el ejemplo fácil, [v] la interacción de múltiples probabilidades es un tema en el que, por ejemplo, los profesionales médicos [126] han demostrado una falta de comprensión adecuada. El teorema de Bayes es el principio matemático que establece cómo se ajustan las probabilidades existentes dada nueva información. La paradoja del niño o la niña es un ejemplo común. En la representación del conocimiento, la estimación bayesiana de la información mutua entre variables aleatorias es una forma de medir la dependencia, independencia o interdependencia de la información bajo escrutinio. [127]
Más allá de la metodología de encuesta comúnmente asociada a la investigación de campo , el concepto, junto con el razonamiento probabilístico, se utiliza para hacer avanzar campos de la ciencia en los que los objetos de investigación no tienen estados de ser definidos. Por ejemplo, en la mecánica estadística .
El modelo hipotético-deductivo , o método de prueba de hipótesis, o método científico "tradicional", se basa, como su nombre lo indica, en la formulación de hipótesis y su comprobación mediante razonamiento deductivo . Una hipótesis que establece implicaciones, a menudo llamadas predicciones , que son falsables mediante experimentos es de importancia central aquí, ya que no es la hipótesis sino sus implicaciones lo que se prueba. [128] Básicamente, los científicos observarán las consecuencias hipotéticas que tiene una teoría (potencial) y probarán o refutarán esas en lugar de la teoría en sí. Si una prueba experimental de esas consecuencias hipotéticas muestra que son falsas, se deduce lógicamente que la parte de la teoría que las implicaba también era falsa. Sin embargo, si se muestran como verdaderas, no prueba la teoría definitivamente.
La lógica de esta prueba es lo que permite que este método de investigación sea razonado deductivamente. Se supone que la hipótesis formulada es "verdadera" y de esa afirmación "verdadera" se infieren las implicaciones. Si las pruebas siguientes muestran que las implicaciones son falsas, se sigue que la hipótesis también era falsa. Si la prueba muestra que las implicaciones son verdaderas, se obtendrán nuevos conocimientos. Es importante ser consciente de que una prueba positiva en este caso, en el mejor de los casos, implicará fuertemente pero no probará definitivamente la hipótesis probada, ya que la inferencia deductiva (A ⇒ B) no es equivalente de esa manera; solo (¬B ⇒ ¬A) es lógica válida. Sin embargo, sus resultados positivos, como dijo Hempel, proporcionan "al menos algún apoyo, alguna corroboración o confirmación para ella". [129] Es por eso que Popper insistió en que las hipótesis planteadas fueran falsables, ya que las pruebas exitosas implican muy poco de lo contrario. Como dijo Gillies , "las teorías exitosas son aquellas que sobreviven a la eliminación a través de la falsación". [128]
En este modo de investigación, el razonamiento deductivo a veces se sustituye por el razonamiento abductivo , es decir, la búsqueda de la explicación más plausible mediante la inferencia lógica. Por ejemplo, en biología, donde las leyes generales son escasas, [128] ya que las deducciones válidas se basan en presuposiciones sólidas. [119]
El enfoque inductivista para obtener la verdad científica cobró importancia por primera vez con Francis Bacon y, en particular, con Isaac Newton y quienes lo siguieron. [130] Sin embargo, después del establecimiento del método HD, a menudo se lo dejó de lado como una especie de "expedición de pesca". [128] Todavía es válido hasta cierto punto, pero el método inductivo actual a menudo está muy alejado del enfoque histórico: la escala de los datos recopilados le da una nueva eficacia al método. Se asocia principalmente con proyectos de minería de datos o proyectos de observación a gran escala. En ambos casos, a menudo no está del todo claro cuáles serán los resultados de los experimentos propuestos y, por lo tanto, el conocimiento surgirá después de la recopilación de datos a través del razonamiento inductivo. [r]
Mientras que el método tradicional de investigación hace ambas cosas, el enfoque inductivo generalmente formula sólo una pregunta de investigación , no una hipótesis. En cambio, a partir de la pregunta inicial, se determina un "método de alto rendimiento" adecuado para la recopilación de datos, se procesan y "depuran" los datos resultantes y luego se extraen conclusiones. "Este cambio de enfoque eleva los datos al papel supremo de revelar nuevos conocimientos por sí mismos". [128]
La ventaja que tiene el método inductivo sobre los métodos que formulan una hipótesis es que está esencialmente libre de "nociones preconcebidas de un investigador" con respecto a su tema. Por otra parte, el razonamiento inductivo siempre está ligado a una medida de certeza, como lo están todas las conclusiones razonadas inductivamente. [128] Sin embargo, esta medida de certeza puede alcanzar grados bastante altos. Por ejemplo, en la determinación de números primos grandes , que se utilizan en software de cifrado . [131]
El modelado matemático , o razonamiento alóctono, consiste típicamente en la formulación de una hipótesis seguida de la construcción de constructos matemáticos que pueden probarse en lugar de realizar experimentos físicos de laboratorio. Este enfoque tiene dos factores principales: la simplificación/abstracción y, en segundo lugar, un conjunto de reglas de correspondencia. Las reglas de correspondencia establecen cómo se relacionará el modelo construido con la realidad (cómo se deriva la verdad); y los pasos de simplificación tomados en la abstracción del sistema dado tienen como objetivo reducir los factores que no tienen relevancia y, por lo tanto, reducir los errores inesperados. [128] Estos pasos también pueden ayudar al investigador a comprender los factores importantes del sistema y hasta qué punto se puede llevar la parsimonia hasta que el sistema se vuelva cada vez más inmutable y, por lo tanto, estable. La parsimonia y los principios relacionados se exploran más a fondo a continuación.
Una vez que se ha completado esta traducción a las matemáticas, el modelo resultante, en lugar del sistema correspondiente, puede analizarse a través de medios puramente matemáticos y computacionales. Los resultados de este análisis son, por supuesto, también de naturaleza puramente matemática y se traducen de nuevo al sistema tal como existe en la realidad a través de las reglas de correspondencia previamente determinadas (iteración después de la revisión e interpretación de los hallazgos). La forma en que se razonan estos modelos a menudo será matemáticamente deductiva, pero no tiene por qué serlo. Un ejemplo de esto son las simulaciones de Montecarlo . Estas generan datos empíricos "arbitrariamente" y, si bien pueden no ser capaces de revelar principios universales, pueden ser útiles. [128]
La investigación científica generalmente tiene como objetivo obtener conocimiento en forma de explicaciones comprobables [132] [74] que los científicos puedan usar para predecir los resultados de experimentos futuros. Esto les permite obtener una mejor comprensión del tema en estudio y luego usar esa comprensión para intervenir en sus mecanismos causales (por ejemplo, para curar enfermedades). Cuanto mejor sea una explicación para hacer predicciones, más útil puede ser con frecuencia y más probable será que continúe explicando un conjunto de evidencia mejor que sus alternativas. Las explicaciones más exitosas, aquellas que explican y hacen predicciones precisas en una amplia gama de circunstancias, a menudo se denominan teorías científicas . [C]
La mayoría de los resultados experimentales no producen grandes cambios en la comprensión humana; las mejoras en la comprensión científica teórica suelen ser resultado de un proceso gradual de desarrollo a lo largo del tiempo, a veces en diferentes dominios de la ciencia. [133] Los modelos científicos varían en el grado en que han sido probados experimentalmente y durante cuánto tiempo, y en su aceptación en la comunidad científica. En general, las explicaciones se aceptan con el tiempo a medida que se acumulan evidencias sobre un tema determinado, y la explicación en cuestión demuestra ser más poderosa que sus alternativas para explicar las evidencias. A menudo, los investigadores posteriores reformulan las explicaciones con el tiempo, o combinan explicaciones para producir nuevas explicaciones.
El conocimiento científico está estrechamente ligado a los hallazgos empíricos y puede quedar sujeto a falsación si las nuevas observaciones experimentales son incompatibles con lo que se encuentra. Es decir, ninguna teoría puede considerarse definitiva, ya que pueden descubrirse nuevas evidencias problemáticas. Si se encuentran tales evidencias, puede proponerse una nueva teoría o (lo que es más común) se descubre que las modificaciones a la teoría anterior son suficientes para explicar las nuevas evidencias. La solidez de una teoría se relaciona con el tiempo que ha persistido sin alteraciones importantes de sus principios básicos.
Las teorías también pueden quedar subsumidas por otras teorías. Por ejemplo, las leyes de Newton explicaron miles de años de observaciones científicas de los planetas casi a la perfección. Sin embargo, luego se determinó que estas leyes eran casos especiales de una teoría más general ( la relatividad ), que explicaba tanto las excepciones (previamente inexplicadas) a las leyes de Newton como predecía y explicaba otras observaciones, como la desviación de la luz por la gravedad . De este modo, en ciertos casos, observaciones científicas independientes y no conectadas pueden conectarse, unificarse mediante principios de creciente poder explicativo. [134] [116]
Dado que las nuevas teorías pueden ser más completas que las que las precedieron y, por lo tanto, ser capaces de explicar más que las anteriores, las teorías sucesoras podrían cumplir con un estándar más alto al explicar un cuerpo más grande de observaciones que sus predecesoras. [134] Por ejemplo, la teoría de la evolución explica la diversidad de la vida en la Tierra , cómo las especies se adaptan a sus entornos y muchos otros patrones observados en el mundo natural; [135] [136] su modificación importante más reciente fue la unificación con la genética para formar la síntesis evolutiva moderna . En modificaciones posteriores, también ha subsumido aspectos de muchos otros campos como la bioquímica y la biología molecular .
A lo largo de la historia, una teoría ha sucedido a otra, y algunas han sugerido más trabajo mientras que otras han parecido contentarse con explicar los fenómenos. Las razones por las que una teoría ha reemplazado a otra no siempre son obvias o simples. La filosofía de la ciencia incluye la pregunta: ¿Qué criterios satisface una teoría "buena" ? Esta pregunta tiene una larga historia, y muchos científicos, así como filósofos, la han considerado. El objetivo es poder elegir una teoría como preferible a otra sin introducir sesgo cognitivo . [137] Aunque diferentes pensadores enfatizan diferentes aspectos, [ι] una buena teoría:
Al intentar buscar dichas teorías, los científicos, dada la falta de orientación por parte de la evidencia empírica, tratarán de adherirse a:
El objetivo aquí es hacer que la elección entre teorías sea menos arbitraria. No obstante, estos criterios contienen elementos subjetivos y deben considerarse heurísticos más que definitivos. [κ] Además, criterios como estos no necesariamente deciden entre teorías alternativas. Citando a Bird : [143]
"[Esos criterios] no pueden determinar la elección científica. En primer lugar, puede ser discutible qué características de una teoría satisfacen esos criterios ( por ejemplo , ¿la simplicidad concierne a los compromisos ontológicos de una teoría o a su forma matemática?). En segundo lugar, esos criterios son imprecisos, por lo que hay lugar para el desacuerdo sobre el grado en que se cumplen. En tercer lugar, puede haber desacuerdo sobre cómo se deben ponderar entre sí, especialmente cuando entran en conflicto".
También es discutible si las teorías científicas existentes satisfacen todos estos criterios, que pueden representar objetivos aún no alcanzados. Por ejemplo, ninguna teoría satisface actualmente el poder explicativo de todas las observaciones existentes. [144] [145]
Los desiderata de una "buena" teoría han sido debatidos durante siglos, quizás incluso antes de la navaja de Occam , [w] que a menudo se considera un atributo de una buena teoría. La ciencia intenta ser simple. Cuando los datos recopilados respaldan múltiples explicaciones, la explicación más simple para los fenómenos o la formulación más simple de una teoría es recomendada por el principio de parsimonia. [146] Los científicos llegan al extremo de decir que las pruebas simples de afirmaciones complejas son hermosas .
No debemos admitir más causas de las cosas naturales que aquellas que sean verdaderas y suficientes para explicar sus apariciones.
— Isaac Newton, Philosophiæ Naturalis Principia Mathematica (1723 [3.ª ed.]) [1]
El concepto de parsimonia no debe interpretarse como una frugalidad absoluta en la búsqueda de la verdad científica. El proceso general comienza en el extremo opuesto, en el que existe una gran cantidad de explicaciones potenciales y un desorden general. Un ejemplo puede verse en el proceso de Paul Krugman , quien hace explícito el "atreverse a ser tonto". Escribe que en su trabajo sobre nuevas teorías del comercio internacional revisó trabajos anteriores con una mentalidad abierta y amplió su punto de vista inicial incluso en direcciones improbables. Una vez que tenía un cuerpo suficiente de ideas, trataba de simplificar y así encontrar lo que funcionaba entre lo que no. Lo específico de Krugman aquí era "cuestionar la cuestión". Reconoció que trabajos anteriores habían aplicado modelos erróneos a evidencia ya presente, comentando que "se ignoraron los comentarios inteligentes". [147] Esto toca la necesidad de superar el sesgo común contra otros círculos de pensamiento. [148]
La navaja de Occam podría caer bajo el título de “elegancia simple”, pero se puede argumentar que la parsimonia y la elegancia van en direcciones diferentes. La introducción de elementos adicionales podría simplificar la formulación de una teoría, mientras que la simplificación de la ontología de una teoría podría conducir a una mayor complejidad sintáctica. [142]
A veces, las modificaciones ad hoc de una idea fallida también pueden ser descartadas por carecer de "elegancia formal". Esta apelación a lo que podría llamarse "estético" es difícil de caracterizar, pero esencialmente se trata de una especie de familiaridad. Sin embargo, el argumento basado en la "elegancia" es polémico y la dependencia excesiva de la familiaridad generará estancamiento. [139]
Los principios de invariancia han sido un tema en los escritos científicos, y especialmente en física, desde al menos principios del siglo XX. [θ] La idea básica aquí es que las buenas estructuras que se deben buscar son aquellas independientes de la perspectiva, una idea que ha aparecido antes, por ejemplo, en los Métodos de diferencia y acuerdo de Mill , métodos a los que se haría referencia en el contexto del contraste y la invariancia. [149] Pero, como suele ser el caso, hay una diferencia entre que algo sea una consideración básica y que algo reciba peso. Los principios de invariancia solo han recibido peso a raíz de las teorías de la relatividad de Einstein, que reducían todo a relaciones y, por lo tanto, eran fundamentalmente inmutables, incapaces de ser variados. [150] [x] Como dijo David Deutsch en 2009: "la búsqueda de explicaciones difíciles de variar es el origen de todo progreso". [141]
Un ejemplo de ello se puede encontrar en uno de los experimentos mentales de Einstein . El de un laboratorio suspendido en el espacio vacío es un ejemplo de una observación invariante útil. Imaginó la ausencia de gravedad y un experimentador flotando libremente en el laboratorio. — Si ahora una entidad tira del laboratorio hacia arriba, acelerando uniformemente, el experimentador percibiría la fuerza resultante como gravedad. Sin embargo, la entidad sentiría el trabajo necesario para acelerar el laboratorio de forma continua. [x] A través de este experimento, Einstein pudo equiparar la masa gravitacional y la inercial; algo inexplicable con las leyes de Newton, y un argumento temprano pero "poderoso para un postulado generalizado de la relatividad". [151]
La característica, que sugiere la realidad, es siempre una especie de invariancia de una estructura independiente del aspecto, la proyección.
— Max Born , 'Physical Reality' (1953), 149 — citado por Weinert (2004) [140]
El debate sobre la invariancia en física se da a menudo en el contexto más específico de la simetría . [150] El ejemplo de Einstein mencionado anteriormente, en el lenguaje de Mill, sería un acuerdo entre dos valores. En el contexto de la invariancia, es una variable que permanece inalterada a través de algún tipo de transformación o cambio de perspectiva. Y el debate centrado en la simetría consideraría las dos perspectivas como sistemas que comparten un aspecto relevante y, por lo tanto, son simétricos.
Los principios relacionados con esto son la falsabilidad y la testabilidad . Lo opuesto a algo que es difícil de variar son las teorías que se resisten a la falsación, una frustración que fue expresada de manera pintoresca por Wolfgang Pauli al decir que " ni siquiera son erróneas ". La importancia de que las teorías científicas sean falsables encuentra un énfasis especial en la filosofía de Karl Popper. La visión más amplia aquí es la testabilidad, ya que incluye la primera y permite consideraciones prácticas adicionales. [152] [153]
La filosofía de la ciencia estudia la lógica subyacente del método científico, lo que separa la ciencia de la no ciencia y la ética implícita en la ciencia. Existen supuestos básicos, derivados de la filosofía por al menos un científico destacado, [D] [154] que forman la base del método científico, a saber, que la realidad es objetiva y consistente, que los humanos tienen la capacidad de percibir la realidad con precisión y que existen explicaciones racionales para los elementos del mundo real. [154] Estos supuestos del naturalismo metodológico forman una base sobre la que se puede fundamentar la ciencia. Las teorías positivistas lógicas , empiristas , falsacionistas y otras han criticado estos supuestos y han dado explicaciones alternativas de la lógica de la ciencia, pero cada una de ellas también ha sido criticada.
Existen varios tipos de conceptualizaciones filosóficas modernas e intentos de definir el método de la ciencia. [λ] La que intentan los unificacionistas , que defienden la existencia de una definición unificada que sea útil (o al menos "funcione" en todos los contextos de la ciencia); los pluralistas , que sostienen que los grados de la ciencia están demasiado fragmentados como para que una definición universal de su método sea útil; y aquellos que sostienen que el mero intento de definir ya es perjudicial para el libre flujo de ideas.
Además, se han formulado opiniones sobre el marco social en el que se lleva a cabo la ciencia y el impacto del entorno social de las ciencias en la investigación. También existe el "método científico", popularizado por Dewey en How We Think (1910) y Karl Pearson en Grammar of Science (1892), que se utiliza de manera bastante acrítica en la educación.
El pluralismo científico es una postura dentro de la filosofía de la ciencia que rechaza diversas propuestas de unidad entre el método científico y el objeto de estudio. Los pluralistas científicos sostienen que la ciencia no está unificada en una o más de las siguientes formas: la metafísica de su objeto de estudio, la epistemología del conocimiento científico o los métodos y modelos de investigación que deberían emplearse. Algunos pluralistas creen que el pluralismo es necesario debido a la naturaleza de la ciencia. Otros dicen que, dado que las disciplinas científicas ya varían en la práctica, no hay razón para creer que esta variación sea errónea hasta que se demuestre empíricamente una unificación específica . Por último, algunos sostienen que el pluralismo debería permitirse por razones normativas , incluso si la unidad fuera posible en teoría.
El unificacionismo, en ciencia, fue un principio central del positivismo lógico . [156] [157] Diferentes positivistas lógicos interpretaron esta doctrina de varias maneras diferentes, por ejemplo, como una tesis reduccionista , de que los objetos investigados por las ciencias especiales se reducen a los objetos de un dominio común, supuestamente más básico de la ciencia, que generalmente se piensa que es la física; como la tesis de que todas las teorías y resultados de las diversas ciencias pueden o deben expresarse en un lenguaje común o "jerga universal"; o como la tesis de que todas las ciencias especiales comparten un método científico común. [y]
El desarrollo de la idea se ha visto obstaculizado por el avance acelerado de la tecnología, que ha abierto muchas formas nuevas de ver el mundo.
El hecho de que los estándares de éxito científico cambien con el tiempo no sólo dificulta la filosofía de la ciencia, sino que también plantea problemas para la comprensión pública de la ciencia. No tenemos un método científico fijo en torno al cual unirnos y defender.
—Steven Weinberg , 1995 [155]
Paul Feyerabend examinó la historia de la ciencia y llegó a negar que la ciencia sea genuinamente un proceso metodológico. En su libro Against Method (Contra el método) , argumentó que ninguna descripción del método científico podría ser lo suficientemente amplia como para incluir todos los enfoques y métodos utilizados por los científicos y que no existen reglas metodológicas útiles y libres de excepciones que rijan el progreso de la ciencia. En esencia, dijo que para cualquier método o norma científica específica, se puede encontrar un episodio histórico en el que violarlo haya contribuido al progreso de la ciencia. Sugirió en broma que, si los creyentes en el método científico desean expresar una única regla universalmente válida, debería ser "todo vale". [159] Sin embargo, como se ha argumentado antes que él, esto es antieconómico; los solucionadores de problemas y los investigadores deben ser prudentes con sus recursos durante su investigación. [E]
Se ha llegado a una conclusión más general contra el método formalizado a través de una investigación que incluye entrevistas con científicos sobre su concepción del método. Esta investigación indicó que los científicos a menudo encuentran dificultades para determinar si la evidencia disponible respalda sus hipótesis. Esto revela que no existen correspondencias directas entre los conceptos metodológicos generales y las estrategias precisas para dirigir la realización de la investigación. [161]
En la enseñanza de las ciencias , la idea de un método científico general y universal ha sido notablemente influyente, y numerosos estudios (en los EE.UU.) han demostrado que este marco de método a menudo forma parte de la concepción de la ciencia tanto de los estudiantes como de los profesores. [162] [163] Los científicos han argumentado en contra de esta convención de la educación tradicional, ya que existe un consenso en que los elementos secuenciales de la educación y la visión unificada del método científico no reflejan cómo trabajan realmente los científicos. [164] [165] [166]
Desde principios del siglo XX, la manera en que las ciencias generan conocimiento se ha enseñado en el contexto del "método" científico (singular). Diversos sistemas educativos, incluido el de los Estados Unidos, entre otros, han enseñado el método científico como un proceso o procedimiento, estructurado como una serie definida de pasos: [170] observación, hipótesis, predicción y experimentación.
Esta versión del método científico ha sido un estándar establecido desde hace mucho tiempo en la educación primaria y secundaria, así como en las ciencias biomédicas. [172] Durante mucho tiempo se ha considerado que es una idealización inexacta de cómo se estructuran algunas investigaciones científicas. [167]
La presentación enseñada de la ciencia tuvo que defender deméritos como: [173]
El método científico ya no figura en los estándares de educación de Estados Unidos de 2013 ( NGSS ) que reemplazaron a los de 1996 ( NRC ). Estos también influyeron en la educación científica internacional, [173] y los estándares medidos han cambiado desde entonces desde el método singular de prueba de hipótesis a una concepción más amplia de los métodos científicos. [175] Estos métodos científicos, que tienen sus raíces en las prácticas científicas y no en la epistemología, se describen como las 3 dimensiones de las prácticas científicas y de ingeniería, los conceptos transversales (ideas interdisciplinarias) y las ideas centrales disciplinarias. [173]
El método científico, como resultado de explicaciones simplificadas y universales, a menudo se considera que ha alcanzado una especie de estatus mitológico; como una herramienta para la comunicación o, en el mejor de los casos, una idealización. [31] [165] El enfoque de la educación estuvo fuertemente influenciado por How We Think (1910) de John Dewey . [28] Van der Ploeg (2016) indicó que las opiniones de Dewey sobre la educación se habían utilizado durante mucho tiempo para promover una idea de educación ciudadana alejada de la "educación sólida", afirmando que las referencias a Dewey en tales argumentos eran interpretaciones indebidas (de Dewey). [176]
La sociología del conocimiento es un concepto que se utiliza en el debate sobre el método científico y que sostiene que el método subyacente de la ciencia es sociológico. King explica que la sociología distingue aquí entre el sistema de ideas que gobiernan las ciencias a través de una lógica interna y el sistema social en el que surgen esas ideas. [μ] [i]
Una pista quizás accesible para entender lo que se afirma es el pensamiento de Fleck , que se refleja en el concepto de ciencia normal de Kuhn . Según Fleck, el trabajo de los científicos se basa en un estilo de pensamiento que no se puede reconstruir racionalmente. Se inculca a través de la experiencia del aprendizaje, y la ciencia avanza a partir de una tradición de supuestos compartidos mantenidos por lo que él llamó colectivos de pensamiento . Fleck también afirma que este fenómeno es en gran medida invisible para los miembros del grupo. [180]
De manera comparable, siguiendo la investigación de campo en un laboratorio científico académico de Latour y Woolgar , Karin Knorr Cetina ha llevado a cabo un estudio comparativo de dos campos científicos (a saber, la física de altas energías y la biología molecular ) para concluir que las prácticas y razonamientos epistémicos dentro de ambas comunidades científicas son lo suficientemente diferentes como para introducir el concepto de " culturas epistémicas ", en contradicción con la idea de que el llamado "método científico" es único y un concepto unificador. [181] [z]
Sobre la idea del pensamiento de Fleck los sociólogos colectivos construyeron el concepto de cognición situada : la perspectiva del investigador afecta fundamentalmente su trabajo; y, también, visiones más radicales.
Norwood Russell Hanson, alongside Thomas Kuhn and Paul Feyerabend, extensively explored the theory-laden nature of observation in science. Hanson introduced the concept in 1958, emphasizing that observation is influenced by the observer's conceptual framework. He used the concept of gestalt to show how preconceptions can affect both observation and description, and illustrated this with examples like the initial rejection of Golgi bodies as an artefact of staining technique, and the differing interpretations of the same sunrise by Tycho Brahe and Johannes Kepler. Intersubjectivity led to different conclusions.[105][d]
Kuhn and Feyerabend acknowledged Hanson's pioneering work,[185][186] although Feyerabend's views on methodological pluralism were more radical. Criticisms like those from Kuhn and Feyerabend prompted discussions leading to the development of the strong programme, a sociological approach that seeks to explain scientific knowledge without recourse to the truth or validity of scientific theories. It examines how scientific beliefs are shaped by social factors such as power, ideology, and interests.
The postmodernist critiques of science have themselves been the subject of intense controversy. This ongoing debate, known as the science wars, is the result of conflicting values and assumptions between postmodernist and realist perspectives. Postmodernists argue that scientific knowledge is merely a discourse, devoid of any claim to fundamental truth. In contrast, realists within the scientific community maintain that science uncovers real and fundamental truths about reality. Many books have been written by scientists which take on this problem and challenge the assertions of the postmodernists while defending science as a legitimate way of deriving truth.[187]
Somewhere between 33% and 50% of all scientific discoveries are estimated to have been stumbled upon, rather than sought out. This may explain why scientists so often express that they were lucky.[189] Louis Pasteur is credited with the famous saying that "Luck favours the prepared mind", but some psychologists have begun to study what it means to be 'prepared for luck' in the scientific context. Research is showing that scientists are taught various heuristics that tend to harness chance and the unexpected.[189][190] This is what Nassim Nicholas Taleb calls "Anti-fragility"; while some systems of investigation are fragile in the face of human error, human bias, and randomness, the scientific method is more than resistant or tough – it actually benefits from such randomness in many ways (it is anti-fragile). Taleb believes that the more anti-fragile the system, the more it will flourish in the real world.[191]
Psychologist Kevin Dunbar says the process of discovery often starts with researchers finding bugs in their experiments. These unexpected results lead researchers to try to fix what they think is an error in their method. Eventually, the researcher decides the error is too persistent and systematic to be a coincidence. The highly controlled, cautious, and curious aspects of the scientific method are thus what make it well suited for identifying such persistent systematic errors. At this point, the researcher will begin to think of theoretical explanations for the error, often seeking the help of colleagues across different domains of expertise.[189][190]
When the scientific method employs statistics as a key part of its arsenal, there are mathematical and practical issues that can have a deleterious effect on the reliability of the output of scientific methods. This is described in a popular 2005 scientific paper "Why Most Published Research Findings Are False" by John Ioannidis, which is considered foundational to the field of metascience.[125] Much research in metascience seeks to identify poor use of statistics and improve its use, an example being the misuse of p-values.[192]
The particular points raised are statistical ("The smaller the studies conducted in a scientific field, the less likely the research findings are to be true" and "The greater the flexibility in designs, definitions, outcomes, and analytical modes in a scientific field, the less likely the research findings are to be true.") and economical ("The greater the financial and other interests and prejudices in a scientific field, the less likely the research findings are to be true" and "The hotter a scientific field (with more scientific teams involved), the less likely the research findings are to be true.") Hence: "Most research findings are false for most research designs and for most fields" and "As shown, the majority of modern biomedical research is operating in areas with very low pre- and poststudy probability for true findings." However: "Nevertheless, most new discoveries will continue to stem from hypothesis-generating research with low or very low pre-study odds," which means that *new* discoveries will come from research that, when that research started, had low or very low odds (a low or very low chance) of succeeding. Hence, if the scientific method is used to expand the frontiers of knowledge, research into areas that are outside the mainstream will yield the newest discoveries.[125][needs copy edit]
Science applied to complex systems can involve elements such as transdisciplinarity, systems theory, control theory, and scientific modelling.
In general, the scientific method may be difficult to apply stringently to diverse, interconnected systems and large data sets. In particular, practices used within Big data, such as predictive analytics, may be considered to be at odds with the scientific method,[193] as some of the data may have been stripped of the parameters which might be material in alternative hypotheses for an explanation; thus the stripped data would only serve to support the null hypothesis in the predictive analytics application. Fleck (1979), pp. 38–50 notes "a scientific discovery remains incomplete without considerations of the social practices that condition it".[194]
Science is the process of gathering, comparing, and evaluating proposed models against observables. A model can be a simulation, mathematical or chemical formula, or set of proposed steps. Science is like mathematics in that researchers in both disciplines try to distinguish what is known from what is unknown at each stage of discovery. Models, in both science and mathematics, need to be internally consistent and also ought to be falsifiable (capable of disproof). In mathematics, a statement need not yet be proved; at such a stage, that statement would be called a conjecture.[195]
Mathematical work and scientific work can inspire each other.[37] For example, the technical concept of time arose in science, and timelessness was a hallmark of a mathematical topic. But today, the Poincaré conjecture has been proved using time as a mathematical concept in which objects can flow (see Ricci flow).[196]
Nevertheless, the connection between mathematics and reality (and so science to the extent it describes reality) remains obscure. Eugene Wigner's paper, "The Unreasonable Effectiveness of Mathematics in the Natural Sciences", is a very well-known account of the issue from a Nobel Prize-winning physicist. In fact, some observers (including some well-known mathematicians such as Gregory Chaitin, and others such as Lakoff and Núñez) have suggested that mathematics is the result of practitioner bias and human limitation (including cultural ones), somewhat like the post-modernist view of science.[197]
George Pólya's work on problem solving,[198] the construction of mathematical proofs, and heuristic[199][200] show that the mathematical method and the scientific method differ in detail, while nevertheless resembling each other in using iterative or recursive steps.
In Pólya's view, understanding involves restating unfamiliar definitions in your own words, resorting to geometrical figures, and questioning what we know and do not know already; analysis, which Pólya takes from Pappus,[201] involves free and heuristic construction of plausible arguments, working backward from the goal, and devising a plan for constructing the proof; synthesis is the strict Euclidean exposition of step-by-step details[202] of the proof; review involves reconsidering and re-examining the result and the path taken to it.
Building on Pólya's work, Imre Lakatos argued that mathematicians actually use contradiction, criticism, and revision as principles for improving their work.[203][ν] In like manner to science, where truth is sought, but certainty is not found, in Proofs and Refutations, what Lakatos tried to establish was that no theorem of informal mathematics is final or perfect. This means that, in non-axiomatic mathematics, we should not think that a theorem is ultimately true, only that no counterexample has yet been found. Once a counterexample, i.e. an entity contradicting/not explained by the theorem is found, we adjust the theorem, possibly extending the domain of its validity. This is a continuous way our knowledge accumulates, through the logic and process of proofs and refutations. (However, if axioms are given for a branch of mathematics, this creates a logical system —Wittgenstein 1921 Tractatus Logico-Philosophicus 5.13; Lakatos claimed that proofs from such a system were tautological, i.e. internally logically true, by rewriting forms, as shown by Poincaré, who demonstrated the technique of transforming tautologically true forms (viz. the Euler characteristic) into or out of forms from homology,[204] or more abstractly, from homological algebra.[205][206][ν]
Lakatos proposed an account of mathematical knowledge based on Polya's idea of heuristics. In Proofs and Refutations, Lakatos gave several basic rules for finding proofs and counterexamples to conjectures. He thought that mathematical 'thought experiments' are a valid way to discover mathematical conjectures and proofs.[208]
Gauss, when asked how he came about his theorems, once replied "durch planmässiges Tattonieren" (through systematic palpable experimentation).[209]
The fact that the standards of scientific success shift with time does not only make the philosophy of science difficult; it also raises problems for the public understanding of science. We do not have a fixed scientific method to rally around and defend.
If we have made this our task, then there is no more rational procedure than the method of trial and error--of conjecture and refutation
It's probably best to get the bad news out of the way first, the so-called scientific method is a myth. ... If typical formulations were accurate, the only location true science would be taking place in would be grade-school classrooms.
There is a large core of people who think there is such a thing as a scientific method that can be justified, although not all agree as to what this might be. But there are also a growing number of people who think that there is no method to be justified. For some, the whole idea is yesteryear's debate, the continuation of which can be summed up as yet more of the proverbial 'flogging a dead horse'. We beg to differ. ... We shall claim that Feyerabend did endorse various scientific values, did accept rules of method (on a certain understanding of what these are), and did attempt to justify them using a meta methodology somewhat akin to the principle of reflective equilibrium.
science is best understood through examples
... in order to learn, one must desire to learn ...
Invariably one came up against fundamental physical limits to the accuracy of measurement. ... The art of physical measurement seemed to be a matter of compromise, of choosing between reciprocally related uncertainties. ... Multiplying together the conjugate pairs of uncertainty limits mentioned, however, I found that they formed invariant products of not one but two distinct kinds. ... The first group of limits were calculable a priori from a specification of the instrument. The second group could be calculated only a posteriori from a specification of what was done with the instrument. ... In the first case each unit [of information] would add one additional dimension (conceptual category), whereas in the second each unit would add one additional atomic fact.
On 6 August 1753, the Swedish scientist Georg Wilhelm Richmann was electrocuted in St. Petersburg ...
It is a whole family of different theories, each of which is a good description of observations only in some range of physical situations...But just as there is no map that is a good representation of the earth's entire surface, there is no single theory that is a good representation of observations in all situations.
Whatever might be the ultimate goals of some scientists, science, as it is currently practised, depends on multiple overlapping descriptions of the world, each of which has a domain of applicability. In some cases this domain is very large, but in others quite small.
Consequently, the universal statements, which are contradicted by the basic statements, are not strictly refutable. Like singular statements and probability statements, they are empirically testable, but their tests do not have certain, definite results, do not result in strict verification or falsification but only in temporary acceptance or rejection.
In chapter six, Dewey analyzed what he called a "complete act of thought." Any such act, he wrote, consisted of the following five "logically distinct" steps: "(i) a felt difficulty; (ii) its location and definition; (iii) suggestion of possible solution; (iv) development by reasoning of the bearings of the suggestion; [and] (v) further observation and experiment leading to its acceptance or rejection."
An uncovered Petri dish sitting next to an open window became contaminated with mould spores. Fleming observed that the bacteria in proximity to the mould colonies were dying, as evidenced by the dissolving and clearing of the surrounding agar gel. He was able to isolate the mould and identified it as a member of the Penicillium genus.