La logología es el estudio de todo lo relacionado con la ciencia y sus practicantes : filosófico , biológico, psicológico , social , histórico , político , institucional , financiero . El término "logología" se forma a partir del sufijo "-logía", como en "geología", "antropología", etc., en el sentido de "estudio de la ciencia". [1] [2] La palabra "logología" proporciona variantes gramaticales que no están disponibles con los términos anteriores "ciencia de la ciencia" y "sociología de la ciencia", como "logólogo", "logologizar", "logológico" y "logológicamente". [a] El campo emergente de la metaciencia es un subcampo de la logología.
A principios del siglo XX, los sociólogos empezaron a hacer llamamientos para la creación de una nueva ciencia basada en la experiencia que estudiaría la actividad científica en sí. [5] Las primeras propuestas se presentaron con cierta vacilación y tentatividad. [6] [b] La nueva metaciencia recibiría una variedad de nombres, [8] entre ellos "ciencia del conocimiento", "ciencia de la ciencia", " sociología de la ciencia " y "logología".
Florian Znaniecki , considerado el fundador de la sociología académica polaca y que en 1954 también fue el 44º presidente de la Asociación Sociológica Americana , abrió un artículo de 1923: [9]
[A]unque la reflexión teórica sobre el conocimiento —que surgió ya en tiempos de Heráclito y los eleáticos— se extiende... ininterrumpidamente... a través de la historia del pensamiento humano hasta nuestros días... ahora estamos presenciando la creación de una nueva ciencia del conocimiento [énfasis del autor] cuya relación con las antiguas investigaciones puede compararse con la relación de la física y la química modernas con la " filosofía natural " que las precedió, o de la sociología contemporánea con la " filosofía política " de la antigüedad y el Renacimiento . [E]stá empezando a tomar forma un concepto de una teoría única y general del conocimiento... que permita el estudio empírico... Esta teoría... está empezando a distinguirse claramente de la epistemología , de la lógica normativa y de una historia estrictamente descriptiva del conocimiento ". [10]
Una docena de años después, los sociólogos polacos Stanisław Ossowski y Maria Ossowska (los Ossowscy ) retomaron el mismo tema en un artículo sobre "La ciencia de la ciencia" [11] cuya versión en inglés de 1935 introdujo por primera vez el término "ciencia de la ciencia" al mundo. [12] El artículo postulaba que la nueva disciplina subsumiría las anteriores como la epistemología , la filosofía de la ciencia , la psicología de la ciencia y la sociología de la ciencia . [13] La ciencia de la ciencia también se ocuparía de cuestiones de carácter práctico como la política social y estatal en relación con la ciencia, como la organización de instituciones de educación superior, de institutos de investigación y de expediciones científicas, y la protección de los trabajadores científicos , etc. Se ocuparía también de cuestiones históricas: la historia de la concepción de la ciencia, del científico, de las diversas disciplinas y del aprendizaje en general. [14]
En su artículo de 1935, Ossowscy mencionó al filósofo alemán Werner Schingnitz (1899-1953), quien, en unas observaciones fragmentarias de 1931, había enumerado algunos tipos posibles de investigación en la ciencia de la ciencia y había propuesto su propio nombre para la nueva disciplina: cienciología. Ossowscy discrepó con el nombre:
"Aquellos que desean reemplazar la expresión 'ciencia de la ciencia' por un término de una sola palabra que suene internacional, en la creencia de que sólo después de recibir tal nombre un grupo dado de [cuestiones] será oficialmente denominado una disciplina autónoma, [podrían] recordar el nombre 'matesiología', propuesto hace mucho tiempo para propósitos similares [por el matemático y físico francés André-Marie Ampère (1775-1836)]". [15]
Sin embargo, en Polonia, el término de tres palabras nauka o nauce , o ciencia de la ciencia, fue reemplazado por el término más versátil de una sola palabra naukoznawstwo , o logología, y sus variantes naturales: naukoznawca o logólogo, naukoznawczy o logológico, y naukoznawczo o logológicamente. Y justo después de la Segunda Guerra Mundial , solo 11 años después del artículo de referencia de Ossowscy de 1935, el año 1946 vio la fundación de la revista trimestral de la Academia Polaca de Ciencias Zagadnienia Naukoznawstwa (Logología), mucho antes de que se crearan revistas similares en muchos otros países. [16] [c]
La nueva disciplina también echó raíces en otros lugares: en países de habla inglesa, sin el beneficio de un nombre de una sola palabra.
La palabra ciencia , del latín scientia que significa conocimiento , significa cosas algo diferentes en diferentes idiomas. En inglés , ciencia cuando no está calificada, generalmente se refiere a las ciencias exactas , naturales o duras . [18] Los términos correspondientes en otros idiomas, por ejemplo francés, alemán y polaco, se refieren a un dominio más amplio que incluye no solo las ciencias exactas ( lógica y matemáticas ) y las ciencias naturales ( física , química , biología , ciencias de la Tierra , astronomía , etc.) sino también las ciencias de la ingeniería , las ciencias sociales ( geografía humana , psicología , antropología cultural , sociología , ciencia política , economía , lingüística , arqueología , etc.) y las humanidades ( filosofía , historia , clásicos , teoría literaria , etc.). [19] [d]
Rens Bod, profesor de humanidades de la Universidad de Ámsterdam, señala que la ciencia —definida como un conjunto de métodos que describen e interpretan fenómenos observados o inferidos , pasados o presentes, destinados a probar hipótesis y construir teorías— se aplica a campos de humanidades como la filología , la historia del arte , la musicología , la filosofía , los estudios religiosos , la historiografía y los estudios literarios . [19]
Bod ofrece un ejemplo histórico de análisis textual científico . En 1440, el filólogo italiano Lorenzo Valla expuso que el documento latino Donatio Constantini , o La donación de Constantino (que fue utilizado por la Iglesia católica para legitimar su reclamo sobre tierras en el Imperio romano de Occidente ), era una falsificación . Valla utilizó evidencia histórica, lingüística y filológica, incluido el razonamiento contrafáctico , para refutar el documento. Valla encontró palabras y construcciones en el documento que nadie podría haber usado en la época del emperador Constantino I , a principios del siglo IV d. C. Por ejemplo, la palabra latina tardía feudum , que significa feudo, se refería al sistema feudal , que no existiría hasta la era medieval , en el siglo VII d. C. Los métodos de Valla eran los de la ciencia e inspiraron el trabajo posterior de mentalidad científica del humanista holandés Erasmo de Róterdam (1466-1536), el profesor de la Universidad de Leiden Joseph Justus Scaliger (1540-1609) y el filósofo Baruch Spinoza (1632-1677). [19] Aquí no es el método experimental dominante en las ciencias exactas y naturales , sino el método comparativo central en las humanidades , el que reina supremo.
La búsqueda científica de la verdad sobre diversos aspectos de la realidad implica la cuestión de la cognoscibilidad misma de la realidad. El filósofo Thomas Nagel escribe: "En la búsqueda del conocimiento científico a través de la interacción entre la teoría y la observación ... ponemos a prueba las teorías en relación con sus consecuencias observacionales, pero también cuestionamos o reinterpretamos nuestras observaciones a la luz de la teoría. (La elección entre teorías geocéntricas y heliocéntricas en la época de la revolución copernicana es un claro ejemplo.) ... La apariencia de las cosas es el punto de partida de todo conocimiento, y su desarrollo a través de posteriores correcciones, extensiones y elaboraciones es inevitablemente el resultado de más apariencias: juicios meditados sobre la plausibilidad y las consecuencias de diferentes hipótesis teóricas . La única manera de buscar la verdad es considerar lo que parece cierto, después de una reflexión cuidadosa de un tipo apropiado para el tema en cuestión, a la luz de todos los datos, principios y circunstancias relevantes". [21]
El físico y astrónomo Marcelo Gleiser aborda la cuestión de la cognoscibilidad desde una perspectiva diferente : "Lo que observamos no es la naturaleza en sí, sino la naturaleza tal como se percibe a través de los datos que recogemos de las máquinas . En consecuencia, la visión científica del mundo depende de la información que podemos adquirir a través de nuestros instrumentos . Y dado que nuestras herramientas son limitadas, nuestra visión del mundo es necesariamente miope . Sólo podemos ver hasta cierto punto en la naturaleza de las cosas, y nuestra visión científica del mundo, siempre cambiante, refleja esta limitación fundamental en nuestra forma de percibir la realidad ". Gleiser cita la condición de la biología antes y después de la invención del microscopio o la secuenciación genética ; de la astronomía antes y después del telescopio ; de la física de partículas antes y después de los colisionadores o la electrónica rápida. "[L]as teorías que construimos y las visiones del mundo que construimos cambian a medida que nuestras herramientas de exploración se transforman. Esta tendencia es la marca registrada de la ciencia". [22]
Gleiser escribe: "No hay nada de derrotista en comprender las limitaciones del enfoque científico del conocimiento... Lo que debería cambiar es un sentido de triunfalismo científico: la creencia de que ninguna cuestión está fuera del alcance del discurso científico. [22] [e]
"Hay cosas que son claramente incognoscibles en la ciencia, preguntas razonables a las que no podemos encontrar respuesta a menos que se violen las leyes de la naturaleza actualmente aceptadas. Un ejemplo es el multiverso : la conjetura de que nuestro universo no es más que uno entre una multitud de otros, cada uno potencialmente con un conjunto diferente de leyes de la naturaleza . Otros universos se encuentran fuera de nuestro horizonte causal, lo que significa que no podemos recibir ni enviar señales a ellos. Cualquier evidencia de su existencia sería circunstancial: por ejemplo, cicatrices en la radiación que permea el espacio debido a una colisión pasada con un universo vecino". [24]
Gleiser da tres ejemplos más de incognoscibles, relacionados con los orígenes del universo , de la vida y de la mente : [24] [f]
"Las explicaciones científicas sobre el origen del universo son incompletas porque deben basarse en un marco conceptual para empezar a funcionar: la conservación de la energía , la relatividad , la física cuántica , por ejemplo. ¿Por qué el universo funciona según estas leyes y no otras? [24]
"De manera similar, a menos que podamos demostrar que sólo existe una o muy pocas vías bioquímicas desde la no vida a la vida , no podemos saber con seguridad cómo se originó la vida en la Tierra. [24]
“Para la conciencia , el problema es el salto de lo material a lo subjetivo , por ejemplo, de la activación de las neuronas a la experiencia del dolor o del color rojo. Tal vez podría surgir algún tipo de conciencia rudimentaria en una máquina suficientemente compleja. Pero ¿cómo podríamos saberlo? ¿Cómo podemos establecer, en lugar de conjeturar, que algo es consciente?” [24] Paradójicamente, escribe Gleiser, es a través de nuestra conciencia que le damos sentido al mundo, aunque sea de manera imperfecta. “¿Podemos comprender completamente algo de lo que somos parte?” [24]
Entre todas las ciencias (es decir, las disciplinas del saber en general) parece existir una relación inversa entre precisión e intuición . Las disciplinas más intuitivas, acertadamente llamadas " humanidades ", se relacionan con la experiencia humana común e, incluso en sus aspectos más exactos, se basan en el método comparativo ; las ciencias sociales son menos intuitivas y más precisas que las humanidades ; mientras que, en la base de la pirámide invertida de las disciplinas, la física (que se ocupa de la materia , la materia y la energía que componen el universo ) es, en su nivel más profundo, la disciplina más precisa y, al mismo tiempo, absolutamente no intuitiva. [g] [h]
El físico teórico y matemático Freeman Dyson explica que "la ciencia consiste en hechos y teorías ":
"Los hechos se supone que son verdaderos o falsos. Son descubiertos por observadores o experimentadores. Un científico que afirma haber descubierto un hecho que resulta ser erróneo es juzgado con dureza...
"Las teorías tienen un estatus completamente diferente. Son creaciones libres de la mente humana, destinadas a describir nuestra comprensión de la naturaleza. Como nuestra comprensión es incompleta, las teorías son provisionales. Las teorías son herramientas de comprensión, y una herramienta no necesita ser exactamente verdadera para ser útil. Se supone que las teorías son más o menos verdaderas... Un científico que inventa una teoría que resulta ser errónea es juzgado con indulgencia". [26]
Dyson cita la descripción que hace un psicólogo de cómo nacen las teorías: "No podemos vivir en un estado de duda perpetua, así que inventamos la mejor historia posible y vivimos como si la historia fuera verdadera". Dyson escribe: "El inventor de una idea brillante no puede decir si es correcta o incorrecta". La búsqueda apasionada de teorías erróneas es una parte normal del desarrollo de la ciencia. [27] Dyson cita, después de Mario Livio , a cinco científicos famosos que hicieron importantes contribuciones a la comprensión de la naturaleza pero que también creyeron firmemente en una teoría que resultó ser errónea. [27]
Charles Darwin explicó la evolución de la vida con su teoría de la selección natural de variaciones heredadas, pero creía en una teoría de la herencia combinada que hacía imposible la propagación de nuevas variaciones. [27] Nunca leyó los estudios de Gregor Mendel que mostraban que las leyes de la herencia se volverían simples cuando la herencia se considerara como un proceso aleatorio . Aunque Darwin en 1866 hizo el mismo experimento que Mendel, Darwin no obtuvo resultados comparables porque no apreció la importancia estadística de usar muestras experimentales muy grandes . Finalmente, la herencia mendeliana por variación aleatoria proporcionaría, no gracias a Darwin, la materia prima sobre la que trabajaría la selección darwiniana. [28]
William Thomson (Lord Kelvin) descubrió las leyes básicas de la energía y el calor , y luego utilizó estas leyes para calcular una estimación de la edad de la Tierra que era demasiado corta por un factor de cincuenta. Basó su cálculo en la creencia de que el manto de la Tierra era sólido y podía transferir calor desde el interior a la superficie solo por conducción . Ahora se sabe que el manto es parcialmente fluido y transfiere la mayor parte del calor mediante el proceso mucho más eficiente de convección , que transporta el calor mediante una circulación masiva de roca caliente que se mueve hacia arriba y roca más fría que se mueve hacia abajo. Kelvin podía ver las erupciones de los volcanes que traían líquido caliente desde las profundidades subterráneas a la superficie; pero su habilidad para el cálculo lo cegó ante procesos, como las erupciones volcánicas , que no se podían calcular. [27]
Linus Pauling descubrió la estructura química de las proteínas y propuso una estructura completamente errónea para el ADN , que lleva la información hereditaria de los padres a los hijos. Pauling supuso una estructura errónea para el ADN porque supuso que un patrón que funcionaba para las proteínas también funcionaría para el ADN. Pasó por alto las grandes diferencias químicas entre las proteínas y el ADN. Francis Crick y James Watson prestaron atención a las diferencias y encontraron la estructura correcta para el ADN que Pauling había pasado por alto un año antes. [27]
El astrónomo Fred Hoyle descubrió el proceso por el cual los elementos más pesados esenciales para la vida se crean mediante reacciones nucleares en los núcleos de estrellas masivas . Luego propuso una teoría de la historia del universo conocida como cosmología del estado estacionario , que sostiene que el universo existió para siempre sin un Big Bang inicial (como lo denominó despectivamente Hoyle). Mantuvo su creencia en el estado estacionario mucho después de que las observaciones demostraran que el Big Bang había sucedido. [27]
Albert Einstein descubrió la teoría del espacio, el tiempo y la gravitación conocida como relatividad general , y luego añadió una constante cosmológica , más tarde conocida como energía oscura . Posteriormente, Einstein retiró su propuesta de energía oscura, creyéndola innecesaria. Mucho después de su muerte, las observaciones sugirieron que la energía oscura realmente existe, por lo que la adición de Einstein a la teoría puede haber sido correcta; y su retirada, incorrecta. [27]
A los cinco ejemplos de científicos que cometieron errores de Mario Livio, Dyson añade un sexto: él mismo. Dyson había llegado a la conclusión, basándose en principios teóricos, de que lo que se conocería más tarde como la partícula W , un bosón débil cargado , no podía existir. Un experimento realizado en el CERN , en Ginebra , demostró más tarde que estaba equivocado. "En retrospectiva, pude ver varias razones por las que mi argumento de estabilidad no se aplicaría a las partículas W. [Son] demasiado masivas y de vida demasiado corta para ser un componente de algo que se parezca a la materia ordinaria". [29]
La historiadora de la ciencia de la Universidad de Harvard Naomi Oreskes señala que nunca se puede asumir que la verdad de los hallazgos científicos esté definitiva y absolutamente resuelta. [30] La historia de la ciencia ofrece muchos ejemplos de asuntos que los científicos alguna vez creyeron resueltos y que han demostrado no estarlo, como los conceptos de que la Tierra es el centro del universo , la naturaleza absoluta del tiempo y el espacio , la estabilidad de los continentes y la causa de las enfermedades infecciosas . [30]
La ciencia, escribe Oreskes, no es un conjunto fijo e inmutable de descubrimientos sino «un proceso de aprendizaje y descubrimiento [...]. La ciencia también puede entenderse como una institución (o mejor, un conjunto de instituciones) que facilita este trabajo». [30]
Se afirma a menudo que los hallazgos científicos son verdaderos porque los científicos utilizan "el método científico ". Pero, escribe Oreskes, "nunca podemos ponernos de acuerdo sobre cuál es ese método. Algunos dirán que es el empirismo : la observación y descripción del mundo. Otros dirán que es el método experimental : el uso de la experiencia y la experimentación para comprobar hipótesis . (Esto se presenta a veces como el método hipotético-deductivo , en el que el experimento debe enmarcarse como una deducción de la teoría, y a veces como la falsación , donde el objetivo de la observación y la experimentación es refutar teorías, no confirmarlas). Recientemente, un científico destacado afirmó que el método científico era evitar engañarse a uno mismo pensando que algo que no lo es es verdad, y viceversa". [30]
De hecho, escribe Oreskes, los métodos científicos han variado entre disciplinas y a lo largo del tiempo. “Muchas prácticas científicas, en particular las pruebas estadísticas de significación , se han desarrollado con la idea de evitar las ilusiones y el autoengaño, pero eso difícilmente constituye el ‘método científico’”. [30]
La ciencia, escribe Oreskes, " no es sencilla, y el mundo natural tampoco lo es ; en eso reside el desafío de la comunicación científica. [...] Nuestros esfuerzos por comprender y caracterizar el mundo natural son sólo eso: esfuerzos. Como somos humanos, a menudo fracasamos". [30]
"Las teorías científicas", según Oreskes, "no son réplicas perfectas de la realidad , pero tenemos buenas razones para creer que capturan elementos significativos de ella". [30]
Steven Weinberg , premio Nobel de Física en 1979 e historiador de la ciencia , escribe que el objetivo central de la ciencia siempre ha sido el mismo: "explicar el mundo"; y al revisar períodos anteriores del pensamiento científico, concluye que solo desde Isaac Newton se ha perseguido ese objetivo de manera más o menos correcta. Condena el "esnobismo intelectual" que mostraron Platón y Aristóteles en su desdén por las aplicaciones prácticas de la ciencia, y sostiene que Francis Bacon y René Descartes fueron los "más sobrevalorados" entre los precursores de la ciencia moderna (intentaron prescribir reglas para realizar la ciencia, lo que "nunca funciona"). [31]
Weinberg traza paralelismos entre la ciencia pasada y la presente, como cuando una teoría científica se "afina" (se ajusta) para hacer que ciertas cantidades sean iguales, sin ninguna comprensión de por qué deberían ser iguales. Este ajuste vició los modelos celestiales de los seguidores de Platón, en los que se suponía, sin ninguna buena razón, que diferentes esferas que transportaban los planetas y las estrellas giraban al unísono exacto. Pero, escribe Weinberg, un ajuste fino similar también acosa los esfuerzos actuales por comprender la " energía oscura " que está acelerando la expansión del universo . [32]
Se ha dicho que la ciencia antigua tuvo un buen comienzo y luego flaqueó. La doctrina del atomismo , propuesta por los filósofos presocráticos Leucipo y Demócrito , era naturalista y explicaba el funcionamiento del mundo mediante procesos impersonales, no mediante voliciones divinas. Sin embargo, estos presocráticos no están a la altura de Weinberg como protocientíficos, ya que aparentemente nunca intentaron justificar sus especulaciones ni ponerlas a prueba con la evidencia. [32]
Weinberg cree que la ciencia falló en sus comienzos debido a la sugerencia de Platón de que la verdad científica podía alcanzarse únicamente mediante la razón, sin tener en cuenta la observación empírica , y debido al intento de Aristóteles de explicar la naturaleza teleológicamente , en términos de fines y propósitos. El ideal de Platón de alcanzar el conocimiento del mundo mediante el intelecto sin ayuda era "una meta falsa inspirada por las matemáticas", que durante siglos "obstaculizó el progreso que sólo podía basarse en el análisis cuidadoso de una observación cuidadosa". Y "nunca fue fructífero" preguntar, como lo hizo Aristóteles, "cuál es el propósito de este o aquel fenómeno físico". [32]
Un campo científico en el que el mundo griego y helenístico sí hizo progresos fue la astronomía. Esto se debió en parte a razones prácticas: el cielo había servido durante mucho tiempo como brújula, reloj y calendario. Además, la regularidad de los movimientos de los cuerpos celestes los hacía más fáciles de describir que los fenómenos terrestres. Pero no demasiado simples: aunque el sol, la luna y las "estrellas fijas" parecían regulares en sus circuitos celestes, las "estrellas errantes" -los planetas- resultaban desconcertantes; parecían moverse a velocidades variables e incluso invertir su dirección. Escribe Weinberg: "Gran parte de la historia del surgimiento de la ciencia moderna trata del esfuerzo, que se extendió a lo largo de dos milenios, por explicar los movimientos peculiares de los planetas". [33]
El desafío era dar sentido a los vagabundeos aparentemente irregulares de los planetas partiendo de la base de que todo movimiento celestial es en realidad circular y de velocidad uniforme. Circular, porque Platón sostenía que el círculo era la forma más perfecta y simétrica; y por lo tanto, el movimiento circular, a velocidad uniforme, era el más adecuado para los cuerpos celestes. Aristóteles estaba de acuerdo con Platón. En el cosmos de Aristóteles , todo tenía una tendencia "natural" al movimiento que cumplía su potencial interno. Para la parte sublunar del cosmos (la región debajo de la Luna), la tendencia natural era moverse en línea recta: hacia abajo, para las cosas terrenales (como las rocas) y el agua; hacia arriba, para el aire y las cosas ardientes (como las chispas). Pero en el reino celestial las cosas no estaban compuestas de tierra, agua, aire o fuego, sino de un "quinto elemento", o " quintaesencia ", que era perfecto y eterno. Y su movimiento natural era uniformemente circular. Las estrellas, el Sol, la Luna y los planetas eran transportados en sus órbitas por una complicada disposición de esferas cristalinas, todas centradas alrededor de una Tierra inmóvil. [34]
La convicción platónico-aristotélica de que los movimientos celestes deben ser circulares persistió obstinadamente. Fue fundamental para el sistema del astrónomo Ptolomeo , que mejoró el de Aristóteles al ajustarse a los datos astronómicos al permitir que los planetas se movieran en combinaciones de círculos llamados " epiciclos ". [34]
Incluso sobrevivió a la revolución copernicana . Copérnico era conservador en su reverencia platónica por el círculo como el patrón celestial. Según Weinberg, Copérnico estaba motivado a destronar a la Tierra en favor del Sol como el centro inmóvil del cosmos en gran parte por consideraciones estéticas: se oponía al hecho de que Ptolomeo, aunque fiel al requisito de Platón de que el movimiento celestial fuera circular, se había apartado del otro requisito de Platón de que fuera de velocidad uniforme. Al poner el Sol en el centro -en realidad, algo descentrado- Copérnico buscaba honrar la circularidad al tiempo que restauraba la uniformidad. Pero para que su sistema se ajustara a las observaciones tan bien como el sistema de Ptolomeo, Copérnico tuvo que introducir aún más epiciclos. Ese fue un error que, escribe Weinberg, ilustra un tema recurrente en la historia de la ciencia: "Una teoría simple y hermosa que concuerda bastante bien con la observación a menudo está más cerca de la verdad que una teoría complicada y fea que concuerda mejor con la observación". [34]
Sin embargo, los planetas no se mueven en círculos perfectos, sino en elipses . Fue Johannes Kepler , aproximadamente un siglo después de Copérnico, quien, a regañadientes (pues él también tenía afinidades platónicas), se dio cuenta de esto. Gracias a su examen de las meticulosas observaciones recopiladas por el astrónomo Tycho Brahe , Kepler "fue el primero en comprender la naturaleza de las desviaciones del movimiento circular uniforme que habían desconcertado a los astrónomos desde la época de Platón". [34]
La sustitución de los círculos por elipses supuestamente feas derribó la noción de perfección de Platón como principio explicativo celestial. También destruyó el modelo de Aristóteles de los planetas transportados en sus órbitas por esferas cristalinas; escribe Weinberg, "no hay ningún cuerpo sólido cuya rotación pueda producir una elipse". Incluso si un planeta estuviera unido a un cristal elipsoide, la rotación de ese cristal seguiría trazando un círculo. Y si los planetas seguían su movimiento elíptico a través del espacio vacío, entonces ¿qué los mantenía en sus órbitas? [34]
La ciencia había llegado al umbral de la explicación del mundo no geométricamente , según la forma, sino dinámicamente, según la fuerza . Fue Isaac Newton quien finalmente cruzó ese umbral. Fue el primero en formular, en sus " leyes del movimiento ", el concepto de fuerza. Demostró que las elipses de Kepler eran las órbitas que seguirían los planetas si fueran atraídos hacia el Sol por una fuerza que decreciera con el cuadrado de la distancia del planeta al Sol. Y al comparar el movimiento de la Luna en su órbita alrededor de la Tierra con el movimiento de, tal vez, una manzana al caer al suelo, Newton dedujo que las fuerzas que los gobiernan eran cuantitativamente las mismas. "Éste", escribe Weinberg, "fue el paso culminante en la unificación de lo celestial y lo terrestre en la ciencia". [34]
Al formular una explicación unificada del comportamiento de los planetas, los cometas, las lunas, las mareas y las manzanas, escribe Weinberg, Newton "proporcionó un modelo irresistible de lo que debería ser una teoría física ", un modelo que no se ajustaba a ningún criterio metafísico preexistente . A diferencia de Aristóteles, que afirmaba explicar la caída de una roca apelando a su esfuerzo interior, Newton no se preocupaba por encontrar una causa más profunda para la gravedad . [34] Declaró en una posdata a la segunda edición de 1713 de su Philosophiæ Naturalis Principia Mathematica : "Todavía no he podido deducir de los fenómenos la razón de estas propiedades de la gravedad, y no finjo hipótesis. Es suficiente con que la gravedad realmente exista y actúe de acuerdo con las leyes que hemos establecido". [35] Lo que importaba eran sus principios matemáticos que describían esta fuerza, y su capacidad para explicar una amplia gama de fenómenos. [34]
Unos dos siglos después, en 1915, se encontró una explicación más profunda de la ley de la gravitación de Newton en la teoría general de la relatividad de Albert Einstein : la gravedad podía explicarse como una manifestación de la curvatura del espacio-tiempo resultante de la presencia de materia y energía . Teorías exitosas como la de Newton, escribe Weinberg, pueden funcionar por razones que sus creadores no entienden, razones que teorías más profundas revelarán más tarde. El progreso científico no es una cuestión de construir teorías sobre una base de razón , sino de unificar una gama más amplia de fenómenos bajo principios más simples y generales. [34]
Naomi Oreskes advierte contra el “error clásico de confundir la ausencia de pruebas con la evidencia de la ausencia ” (énfasis añadido). Cita dos ejemplos de este error que se cometieron en 2016 y 2023. [36]
En 2016, la Biblioteca Cochrane , una colección de bases de datos de medicina y otras especialidades de la atención médica, publicó un informe que, según se entendió ampliamente, indicaba que el uso del hilo dental no confiere ninguna ventaja a la salud dental . Sin embargo, la Academia Estadounidense de Periodontología , profesores de odontología, decanos de facultades de odontología y dentistas clínicos sostuvieron que la práctica clínica muestra diferencias en la salud de los dientes y las encías entre quienes usan hilo dental y quienes no lo hacen. [37]
Oreskes explica que " las revisiones Cochrane basan sus hallazgos en ensayos controlados aleatorios (ECA), a menudo llamados el 'patrón oro' de la evidencia científica". Pero muchas preguntas no se pueden responder bien utilizando este método , y algunas ni siquiera se pueden responder. " La nutrición es un buen ejemplo. No se puede controlar lo que come la gente, y cuando se pregunta... qué han comido, muchas personas mienten. El uso del hilo dental es similar. Una encuesta concluyó que uno de cada cuatro estadounidenses que afirmaba utilizar el hilo dental regularmente estaba mintiendo". [38]
En 2023, Cochrane publicó un informe en el que se determinaba que el uso de mascarillas quirúrgicas "probablemente hace poca o ninguna diferencia" a la hora de frenar la propagación de enfermedades respiratorias como la COVID-19 . Los medios de comunicación redujeron esto a la afirmación de que las mascarillas no funcionaban. La editora en jefe de la Biblioteca Cochrane se opuso a esas caracterizaciones de la revisión; dijo que el informe no había concluido que "las mascarillas no funcionan", sino que los "resultados no eran concluyentes". El informe había dejado claro que sus conclusiones se referían a la calidad y la capacidad de la evidencia disponible, que los autores consideraban insuficiente para demostrar que el uso de mascarillas era eficaz. Los autores del informe "no estaban seguros de si el uso de mascarillas [quirúrgicas] o respiradores N95/P2 ayuda a frenar la propagación de virus respiratorios". Aun así, también tenían dudas sobre esa incertidumbre [énfasis añadido], y afirmaron que su confianza en su conclusión era "baja a moderada". [39]
Posteriormente, el autor principal del informe confundió al público al afirmar que el uso de mascarillas “no hace ninguna diferencia, ninguna de ellas”, y que las políticas de Covid estaban “libres de evidencias”: de esta manera, perpetró lo que Oreskes llama “el [...] error de confundir la ausencia de evidencia con la evidencia de la ausencia”. De hecho, los estudios han demostrado que los estados de EE. UU. con mandatos de uso de mascarillas vieron una disminución sustancial en la propagación de Covid a los pocos días de que se firmaran las órdenes de mandato; en el período del 31 de marzo al 22 de mayo de 2020, se evitaron más de 200.000 casos. [40]
Oreskes llama al descuido del informe Cochrane respecto de la evidencia epidemiológica –porque no cumplió con el estándar rígido de Cochrane– “fetichismo metodológico”, cuando los científicos “se obsesionan con una metodología preferida y descartan estudios que no la siguen”. [41]
El término " inteligencia artificial " (IA) fue acuñado en 1955 por John McCarthy cuando él y otros científicos informáticos estaban planeando un taller y no querían invitar a Norbert Wiener , el brillante, combativo y cada vez más filosófico (en lugar de práctico) autor sobre mecanismos de retroalimentación que había acuñado el término " cibernética ". El nuevo término "inteligencia artificial " , escribe Kenneth Cukier , "desencadenó décadas de disputas semánticas ('¿Pueden pensar las máquinas?') y alimentó las ansiedades sobre los robots maliciosos... Si McCarthy... hubiera elegido una frase más suave -por ejemplo, 'estudios de automatización'- el concepto podría no haber atraído tanto a los productores [de películas] de Hollywood y [a los] periodistas..." [42] De manera similar, Naomi Oreskes ha comentado: "La 'inteligencia' de las máquinas... no es inteligencia en absoluto, sino algo más parecido a 'capacidad de las máquinas'". [43]
A medida que las máquinas se han vuelto cada vez más capaces, las tareas específicas que se consideraban que requerían "inteligencia", como el reconocimiento óptico de caracteres , a menudo se han eliminado de la definición de IA, un fenómeno conocido como el " efecto IA ". Se ha bromeado diciendo que "la IA es todo lo que aún no se ha hecho". [44]
Desde 1950, cuando Alan Turing propuso lo que se ha dado en llamar la " prueba de Turing ", se ha especulado sobre si las máquinas como los ordenadores pueden poseer inteligencia y, de ser así, si las máquinas inteligentes podrían convertirse en una amenaza para el ascenso intelectual y científico humano , o incluso una amenaza existencial para la humanidad. [45] John Searle señala una confusión común sobre la interpretación correcta de la computación y la tecnología de la información. "Por ejemplo, uno lee rutinariamente que exactamente en el mismo sentido en que Garry Kasparov ... venció a Anatoly Karpov en ajedrez , la computadora llamada Deep Blue jugó y venció a Kasparov... [E]sta afirmación es [obviamente] sospechosa. Para que Kasparov juegue y gane, tiene que ser consciente de que está jugando al ajedrez, y consciente de mil cosas más... Deep Blue no es consciente de ninguna de estas cosas porque no es consciente de nada en absoluto. ¿Por qué es tan importante la conciencia ? No se puede jugar literalmente al ajedrez ni hacer gran parte de cualquier otra cosa cognitiva si uno está totalmente disociado de la conciencia". [45]
Searle explica que, "en el sentido literal, real e independiente del observador en el que los humanos calculan, las computadoras mecánicas no calculan. Pasan por una serie de transiciones en estados electrónicos que podemos interpretar computacionalmente. Las transiciones en esos estados electrónicos son absolutas o independientes del observador, pero el cálculo es relativo al observador . Las transiciones en estados físicos son simplemente secuencias eléctricas a menos que algún agente consciente pueda darles una interpretación computacional... No hay realidad psicológica en absoluto en lo que está sucediendo en la [computadora]". [46]
"Un ordenador digital", escribe Searle, "es una máquina sintáctica. Manipula símbolos y no hace nada más. Por esta razón, el proyecto de crear inteligencia humana mediante el diseño de un programa informático que supere el test de Turing ... está condenado al fracaso desde el principio. El ordenador adecuadamente programado tiene una sintaxis [reglas para construir o transformar los símbolos y las palabras de un lenguaje] pero no tiene semántica [comprensión del significado]... Las mentes, por otra parte, tienen contenido mental o semántico". [47]
Al igual que Searle, Christof Koch , científico jefe y presidente del Instituto Allen de Ciencias del Cerebro , en Seattle , duda de la posibilidad de que máquinas "inteligentes" alcancen la conciencia , porque "incluso las simulaciones cerebrales más sofisticadas tienen pocas probabilidades de producir sentimientos conscientes ". Según Koch, "es importante que las máquinas se vuelvan sensibles por razones éticas . Si las computadoras experimentan la vida a través de sus propios sentidos, dejan de ser simplemente un medio para un fin determinado por su utilidad para... los humanos. Según la GNW [ teoría del espacio de trabajo neuronal global ], pasan de ser meros objetos a sujetos... con un punto de vista ... Una vez que las capacidades cognitivas de las computadoras rivalicen con las de la humanidad, su impulso de luchar por derechos legales y políticos se volverá irresistible: el derecho a no ser borrados, a no tener sus recuerdos borrados, a no sufrir dolor y degradación. La alternativa, encarnada por la IIT [Teoría de la Información Integrada], es que las computadoras seguirán siendo solo maquinaria supersofisticada, cáscaras vacías fantasmales, desprovistas de lo que más valoramos: la sensación de vida misma". [48]
El profesor de psicología y neurociencia Gary Marcus señala un obstáculo hasta ahora insuperable para la inteligencia artificial: su incapacidad para desambiguar de manera fiable . "Prácticamente todas las frases [que genera la gente] son ambiguas , a menudo de múltiples maneras. Nuestro cerebro es tan bueno en la comprensión del lenguaje que normalmente no nos damos cuenta". [49] Un ejemplo destacado es el conocido como "problema de desambiguación de pronombres" ("PDP"): una máquina no tiene forma de determinar a quién o a qué se refiere un pronombre en una frase (como "él", "ella" o "eso"). [50]
Marcus ha descrito los grandes modelos lingüísticos actuales como "aproximaciones al [...] uso del lenguaje más que a la comprensión del lenguaje". [51]
El informático Pedro Domingos escribe: "Las IA son como sabios autistas y seguirán siendo así en el futuro previsible... Las IA carecen de sentido común y pueden cometer fácilmente errores que un humano nunca cometería... También son propensas a tomar nuestras instrucciones demasiado literalmente, dándonos exactamente lo que pedimos en lugar de lo que realmente queríamos. [52]
Kai-Fu Lee , un capitalista de riesgo con sede en Beijing , experto en inteligencia artificial (IA) con un doctorado en ciencias de la computación de la Universidad Carnegie Mellon y autor del libro de 2018, AI Superpowers: China, Silicon Valley, and the New World Order , [53] enfatizó en una entrevista de 2018 de PBS Amanpour con Hari Sreenivasan que la IA , con todas sus capacidades, nunca será capaz de creatividad o empatía . [54] Paul Scharre escribe en Foreign Affairs que "las tecnologías de IA actuales son poderosas pero poco confiables". [55] [i] George Dyson , historiador de la informática, escribe (en lo que podría llamarse la "Ley de Dyson") que "Cualquier sistema lo suficientemente simple como para ser comprensible no será lo suficientemente complicado como para comportarse de manera inteligente, mientras que cualquier sistema lo suficientemente complicado como para comportarse de manera inteligente será demasiado complicado para entenderlo". [57] El científico informático Alex Pentland escribe: " Los algoritmos actuales de aprendizaje automático de la IA son, en esencia, completamente estúpidos. Funcionan, pero lo hacen por fuerza bruta". [58]
«Inteligencia artificial» es sinónimo de « inteligencia de máquina ». Cuanto más perfectamente adaptado esté un programa de IA a una tarea determinada, menos aplicable será a otras tareas específicas. Una inteligencia artificial general abstracta es una perspectiva remota, si es que es factible. Melanie Mitchell señala que un programa de IA llamado AlphaGo superó a uno de los mejores jugadores de Go del mundo , pero que su «inteligencia» es intransferible: no puede «pensar» en nada más que en Go. Mitchell escribe: «Los humanos tendemos a sobrestimar los avances de la IA y subestimar la complejidad de nuestra propia inteligencia». [59] Paul Taylor escribe: «Tal vez haya un límite a lo que una computadora puede hacer sin saber que está manipulando representaciones imperfectas de una realidad externa». [60]
La humanidad quizá no pueda delegar en máquinas sus esfuerzos creativos en las ciencias, la tecnología y la cultura.
Gary Marcus advierte contra el riesgo de dejarse engañar por afirmaciones engañosas sobre las capacidades de la inteligencia artificial general que se publican en comunicados de prensa por empresas con intereses propios que dicen a la prensa y al público "sólo lo que las empresas quieren que sepamos". [61] Marcus escribe:
Aunque el aprendizaje profundo ha mejorado la capacidad de las máquinas para reconocer patrones en los datos , tiene tres defectos importantes. Los patrones que aprende son, irónicamente, superficiales, no conceptuales ; los resultados que crea son difíciles de interpretar ; y los resultados son difíciles de usar en el contexto de otros procesos, como la memoria y el razonamiento . Como señaló el científico informático de la Universidad de Harvard Les Valiant , "el desafío central [de cara al futuro] es unificar la formulación del... aprendizaje y el razonamiento". [62]
James Gleick escribe: “ La capacidad de acción es lo que nos distingue de las máquinas. Para las criaturas biológicas, la razón y el propósito surgen de actuar en el mundo y experimentar las consecuencias. Las inteligencias artificiales –incorpóreas, ajenas a la sangre, el sudor y las lágrimas– no tienen necesidad de eso”. [63]
Una preocupación central para la ciencia y la erudición es la fiabilidad y reproducibilidad de sus hallazgos. De todos los campos de estudio, ninguno es capaz de tanta precisión como la física . Pero incluso allí los resultados de estudios, observaciones y experimentos no pueden considerarse absolutamente ciertos y deben tratarse de manera probabilística ; es decir, estadística . [64]
En 1925, el genetista y estadístico británico Ronald Fisher publicó Métodos estadísticos para investigadores , que lo estableció como el padre de la estadística moderna. Propuso una prueba estadística que resumía la compatibilidad de los datos con un modelo propuesto dado y producía un « valor p ». Aconsejó buscar resultados con valores p inferiores a 0,05 y no perder el tiempo con resultados superiores. Así surgió la idea de que un valor p inferior a 0,05 constituye una « significación estadística », una definición matemática de resultados «significativos». [65]
Desde entonces, el uso de valores p para determinar la significancia estadística de resultados experimentales ha contribuido a una ilusión de certeza y a crisis de reproducibilidad en muchos campos científicos , [66] especialmente en economía experimental , investigación biomédica y psicología . [67]
Todo modelo estadístico se basa en un conjunto de supuestos sobre cómo se recogen y analizan los datos y sobre cómo los investigadores deciden presentar sus resultados. Estos resultados casi siempre se centran en pruebas de significación de hipótesis nula , que producen un valor p . Estas pruebas no abordan la verdad de frente, sino de manera oblicua: las pruebas de significación tienen por objeto indicar únicamente si vale la pena seguir investigando una determinada línea de investigación. No indican la probabilidad de que la hipótesis sea verdadera, sino que abordan una pregunta alternativa: si la hipótesis fuera falsa, ¿qué tan improbables serían los datos? La importancia de la "significación estadística", reflejada en el valor p , puede exagerarse o sobreenfatizarse, algo que ocurre fácilmente con muestras pequeñas. Eso ha provocado crisis de replicación . [64]
Algunos científicos han abogado por "redefinir la significación estadística", desplazando su umbral de 0,05 a 0,005 para afirmaciones de nuevos descubrimientos. Otros dicen que esa redefinición no sirve de nada porque el verdadero problema es la existencia misma de un umbral. [68]
Algunos científicos prefieren utilizar métodos bayesianos , un enfoque estadístico más directo que toma las creencias iniciales, añade nuevas evidencias y actualiza las creencias. Otro procedimiento alternativo es utilizar la sorpresa , una cantidad matemática que ajusta los valores p para producir bits (como en los bits de una computadora) de información; desde esa perspectiva, 0,05 es un estándar débil. [68]
Cuando Ronald Fisher adoptó el concepto de “significación” a principios del siglo XX, quería decir “significativo” pero no “importante”. Desde entonces, la “significación” estadística ha adquirido una connotación excesiva de confianza en la validez de los resultados experimentales. El estadístico Andrew Gelman dice: “El pecado original es que la gente quiera certezas cuando no son apropiadas”. “En última instancia”, escribe Lydia Denworth, “una teoría exitosa es aquella que resiste repetidamente décadas de escrutinio”. [68]
Cada vez se presta más atención a los principios de la ciencia abierta , como la publicación de protocolos de investigación más detallados y la exigencia de que los autores sigan planes de análisis preestablecidos e informen cuando se desvíen de ellos. [68]
Cincuenta años antes de que Florian Znaniecki publicara su artículo de 1923 en el que proponía la creación de un campo de estudio empírico para estudiar el campo de la ciencia , Aleksander Głowacki (más conocido por su seudónimo, Bolesław Prus ) había hecho la misma propuesta. En una conferencia pública de 1873 "Sobre descubrimientos e invenciones", [69] Prus dijo:
Hasta ahora no ha habido ninguna ciencia que describa los medios para hacer descubrimientos e inventos, y la mayoría de la gente, así como muchos hombres de ciencia, creen que nunca la habrá. Esto es un error. Algún día existirá una ciencia de hacer descubrimientos e inventos y prestará servicios. No surgirá de repente; primero aparecerá sólo su esquema general, que investigadores posteriores corregirán y elaborarán, y que investigadores aún más tarde aplicarán a ramas individuales del conocimiento. [70]
Prus define " descubrimiento " como "el hallazgo de una cosa que ha existido y existe en la naturaleza, pero que antes era desconocida para la gente"; [71] y " invención " como "la fabricación de una cosa que no ha existido previamente, y que la naturaleza misma no puede fabricar". [72]
Ilustra el concepto de "descubrimiento":
Hasta hace 400 años se creía que la Tierra estaba formada por tres partes: Europa, Asia y África; pero en 1492 el genovés Cristóbal Colón zarpó desde Europa rumbo al océano Atlántico y, siguiendo siempre hacia el oeste, después de [10 semanas] llegó a una parte del mundo que los europeos nunca habían conocido. En esa nueva tierra encontró gente de color cobre que andaba desnuda, y encontró plantas y animales diferentes a los de Europa; en resumen, había descubierto una nueva parte del mundo que otros llamarían más tarde "América". Decimos que Colón había descubierto América porque América ya existía desde hacía mucho tiempo en la Tierra. [73]
Prus ilustra el concepto de "invención":
Hace cincuenta años, las locomotoras eran desconocidas y nadie sabía cómo construirlas; recién en 1828, el ingeniero inglés Stephenson construyó la primera locomotora y la puso en movimiento. Por eso decimos que Stephenson inventó la locomotora, porque esta máquina no existía antes y no podía haber surgido por sí sola en la naturaleza; sólo podía haber sido hecha por el hombre. [72]
Según Prus, «las invenciones y los descubrimientos son fenómenos naturales y, como tales, están sujetos a ciertas leyes», que son las leyes de «gradualidad», «dependencia» y «combinación». [74]
1. La ley de la gradualidad. Ningún descubrimiento o invención surge de una vez perfeccionado, sino que se perfecciona gradualmente; de la misma manera, ningún invento o descubrimiento es obra de un solo individuo, sino de muchos individuos, cada uno de los cuales aporta su pequeña contribución. [75]
2. La ley de la dependencia. Una invención o descubrimiento está condicionado a la existencia previa de ciertos descubrimientos e invenciones conocidos. ...Si los anillos de Saturno [sólo] pueden verse a través de telescopios, entonces el telescopio tuvo que haber sido inventado antes de que pudieran verse los anillos. [...] [76]
3. La ley de la combinación. Todo nuevo descubrimiento o invención es una combinación de descubrimientos e invenciones anteriores, o se apoya en ellos. Cuando estudio un nuevo mineral, lo inspecciono, lo huelo, lo saboreo... Combino el mineral con una balanza y con el fuego... de esta manera aprendo cada vez más sobre sus propiedades. [77] [j]
Cada una de las tres "leyes" de Prus conlleva importantes corolarios. La ley de la gradualidad implica lo siguiente: [79]
a) Puesto que todo descubrimiento e invención exige perfeccionamiento, no nos enorgullezcamos sólo de descubrir o inventar algo completamente nuevo , sino que trabajemos también por mejorar o conocer con más exactitud lo que ya se sabe y ya existe. [...] [79] b) La misma ley de gradualidad demuestra la necesidad de una formación experta . ¿Quién puede perfeccionar un reloj, sino un relojero con un buen conocimiento completo de su oficio? ¿Quién puede descubrir nuevas características de un animal, sino un naturalista? [79]
De la ley de dependencia se derivan los siguientes corolarios: [79]
a) No se debe descartar ningún invento o descubrimiento, aunque parezca carente de valor, porque esa nimiedad particular pueda resultar muy útil más adelante. Parecería que no hay invento más simple que la aguja, pero la ropa de millones de personas y el sustento de millones de costureras dependen de la existencia de la aguja. Incluso la hermosa máquina de coser de hoy no existiría si la aguja se hubiera inventado hace poco. [80] b) La ley de la dependencia nos enseña que lo que no se puede hacer hoy, se puede hacer más tarde. La gente piensa mucho en la construcción de una máquina voladora que pudiera transportar muchas personas y paquetes. La invención de una máquina así dependerá, entre otras cosas, de la invención de un material que sea, digamos, tan ligero como el papel y tan resistente y resistente al fuego como el acero. [81]
Finalmente, los corolarios de Prus a su ley de combinación: [81]
a) Quien quiera ser un inventor de éxito necesita saber muchísimas cosas, en los campos más diversos. Porque si un nuevo invento es una combinación de inventos anteriores, entonces la mente del inventor es el terreno sobre el que, por primera vez, se combinan varias cosas aparentemente no relacionadas. Ejemplo: la máquina de vapor combina la tetera para cocinar la sopa de Rumford , la bomba y la rueca. [81]
[...] ¿Qué relación hay entre el zinc, el cobre, el ácido sulfúrico, un imán, un mecanismo de relojería y un mensaje urgente? Todo esto tenía que confluir en la mente del inventor del telégrafo... [...] [82]
Cuanto mayor sea el número de inventos que surgen, más cosas debe saber un nuevo inventor; los primeros, los más tempranos y simples inventos fueron hechos por personas completamente analfabetas, pero los inventos de hoy, particularmente los científicos, son productos de las mentes más educadas. [...] [83]
b) Un segundo corolario se refiere a las sociedades que quieren tener inventores. He dicho que un nuevo invento se crea combinando los objetos más diversos; veamos a dónde nos lleva esto. [83]
Supongamos que quiero hacer un invento y alguien me dice: toma 100 objetos diferentes y ponlos en contacto unos con otros, primero de dos en dos, luego de tres en tres, finalmente de cuatro en cuatro, y llegarás a un nuevo invento. Imagina que tomo una vela encendida, carbón, agua, papel, zinc, azúcar, ácido sulfúrico, etc., 100 objetos en total, y los combino entre sí, es decir, pongo en contacto primero de dos en dos: carbón con llama, agua con llama, azúcar con llama, zinc con llama, azúcar con agua, etc. Cada vez, veré un fenómeno: así, en el fuego, el azúcar se derretirá, el carbón se quemará, el zinc se calentará, y así sucesivamente. Ahora pondré en contacto tres objetos a la vez, por ejemplo, azúcar, zinc y llama; carbón, azúcar y llama; ácido sulfúrico, zinc y agua; etc., y nuevamente experimentaré fenómenos. Finalmente, pongo en contacto cuatro objetos a la vez, por ejemplo, azúcar, zinc, carbón y ácido sulfúrico. En apariencia, se trata de un método muy sencillo, ya que de esta manera podría realizar no sólo uno, sino una docena de inventos. Pero, ¿no superará este esfuerzo mi capacidad? Sin duda que sí. Cien objetos, combinados de dos en dos, de tres en tres o de cuatro en cuatro, formarán más de cuatro millones de combinaciones; de modo que, si hiciera cien combinaciones al día, ¡me llevaría más de ciento diez años agotarlas todas! [84]
Pero si yo solo no soy capaz de hacer la tarea, un grupo considerable de personas sí lo será. Si 1.000 de nosotros nos uniéramos para producir las combinaciones que he descrito, cada persona sólo tendría que realizar algo más de 4.000 combinaciones. Si cada uno de nosotros hiciera sólo 10 combinaciones al día, juntos las terminaríamos todas en menos de un año y medio: 1.000 personas harían un invento que a un solo hombre le llevaría más de 110 años hacer… [85] [k]
La conclusión es bastante clara: una sociedad que quiere ganar renombre con sus descubrimientos e invenciones tiene que tener un gran número de personas trabajando en todas las ramas del conocimiento. Uno o unos pocos hombres sabios y geniales no significan nada hoy, o casi nada, porque ahora todo se hace en grandes cantidades. Me gustaría ofrecer el siguiente símil: las invenciones y los descubrimientos son como una lotería: no todos los jugadores ganan, pero de entre los muchos jugadores deben ganar algunos. La cuestión no es que Juan o Pablo, porque quieren hacer un invento y porque trabajan para ello, hagan un invento; sino que donde miles quieren un invento y trabajan para él, el invento debe aparecer, tan seguramente como una piedra sin apoyo debe caer al suelo. [85] [l]
Pero, pregunta Prus, "¿qué fuerza impulsa los esfuerzos arduos y a menudo frustrados de los investigadores? ¿Qué hilo conducirá a estas personas a través de campos de estudio hasta ahora inexplorados?" [86] [m]
[L]a respuesta es muy sencilla: el hombre se ve impulsado a realizar esfuerzos, incluso los de descubrimientos e invenciones, por las necesidades ; y el hilo que lo guía es la observación : la observación de las obras de la naturaleza y del hombre. [86]
He dicho que el motor de todos los descubrimientos e invenciones son las necesidades. En efecto, ¿existe alguna obra del hombre que no satisfaga alguna necesidad? Construimos ferrocarriles porque necesitamos un transporte rápido; construimos relojes porque necesitamos medir el tiempo; construimos máquinas de coser porque la velocidad de las manos humanas [sin ayuda] es insuficiente. Abandonamos el hogar y la familia y partimos hacia tierras lejanas porque nos atrae la curiosidad de ver lo que hay en otro lugar. Abandonamos la sociedad de las personas y pasamos largas horas en agotadoras contemplaciones porque nos mueve el hambre de conocimiento, el deseo de resolver los desafíos que constantemente nos plantean el mundo y la vida. [86]
Las necesidades no cesan nunca; por el contrario, siempre están creciendo. Mientras el pobre piensa en un trozo de pan para el almuerzo, el rico piensa en el vino después del almuerzo. El viajero a pie sueña con un vagón rudimentario; el pasajero del ferrocarril pide una estufa. El niño está apretado en su cuna; el hombre adulto está apretado en el mundo. En una palabra, cada uno tiene sus necesidades y cada uno desea satisfacerlas, y ese deseo es una fuente inagotable de nuevos descubrimientos, de nuevas invenciones, en una palabra, de todo progreso. [87]
Pero las necesidades son generales , como la necesidad de comida, sueño y vestido; y especiales , como la necesidad de una nueva máquina de vapor, un nuevo telescopio, un nuevo martillo, una nueva llave inglesa. Para entender las primeras, basta ser un ser humano; para entender las segundas, uno debe ser un especialista , un trabajador experto . ¿Quién sabe mejor que un sastre qué es lo que necesitan los sastres, y quién mejor que un sastre sabe cómo encontrar la manera correcta de satisfacer la necesidad? [88]
Consideremos ahora cómo la observación puede llevar al hombre a nuevas ideas; y para ello, a modo de ejemplo, imaginemos cómo, más o menos, llegaron a inventarse los productos de arcilla. [88]
Supongamos que en algún lugar viviera sobre un suelo arcilloso un pueblo primitivo que ya conocía el fuego. Cuando caía lluvia sobre el suelo, la arcilla se volvía pastosa; y si, poco después de la lluvia, se encendía un fuego sobre la arcilla, ésta se cocía y se endurecía. Si tal suceso se repitiera varias veces, la gente podría observar y recordar después que la arcilla cocida se vuelve dura como una piedra y no se ablanda en el agua. Uno de los primitivos también podría haber dejado huellas profundas al caminar sobre arcilla húmeda; después de que el sol hubiera secado el suelo y llovido de nuevo, los primitivos podrían haber observado que el agua permanece en esos huecos más tiempo que en la superficie. Al inspeccionar la arcilla húmeda, la gente podría haber observado que este material se puede amasar fácilmente con los dedos y acepta diversas formas. [89]
Algunas personas ingeniosas podrían haber comenzado a moldear arcilla en diversas formas de animales [...] etc., incluyendo algo con forma de caparazón de tortuga, que se usaba en ese momento. Otros, recordando que la arcilla se endurece con el fuego, podrían haber cocido la masa ahuecada, creando así el primer cuenco [de arcilla]. [90]
Después de eso, fue relativamente fácil perfeccionar el nuevo invento; alguien más podría descubrir arcilla más apropiada para tales manufacturas; alguien más podría inventar un esmalte, y así sucesivamente, con la naturaleza y la observación a cada paso señalando al hombre el camino hacia la invención. [...] [90]
[Este ejemplo] ilustra cómo las personas llegan a diversas ideas: observando atentamente todas las cosas y preguntándose sobre todas las cosas . [90]
Tomemos otro ejemplo. A veces, en un cristal encontramos discos y burbujas, a través de los cuales vemos los objetos con más claridad que a simple vista. Supongamos que una persona atenta, al ver una burbuja de este tipo en un cristal, saca un trozo de cristal y se lo muestra a otros como si fuera un juguete. Es posible que entre ellos hubiera un hombre con visión débil que descubrió que, a través de la burbuja del cristal, veía mejor que a simple vista. Una investigación más detallada demostró que el vidrio convexo bilateralmente fortalece la visión débil, y de esta manera se inventaron las gafas. Es posible que la gente primero haya cortado el vidrio para las gafas a partir de los cristales, pero con el tiempo otros comenzaron a moler trozos lisos de vidrio para convertirlos en lentes convexas y a producir gafas adecuadas. [91]
El arte de pulir lentes era conocido hace casi 600 años. Un par de cientos de años después, los hijos de un pulidor de lentes, mientras jugaban con lentes, colocaron una frente a otra y descubrieron que podían ver mejor con dos lentes que con una. Informaron a su padre sobre este curioso suceso, y él comenzó a producir tubos con dos lentes de aumento y a venderlos como juguete. Galileo, el gran científico italiano, al enterarse de la existencia de este juguete, lo utilizó para un propósito diferente y construyó el primer telescopio. [92]
Este ejemplo nos muestra también que la observación lleva al hombre de la mano a la invención. Este ejemplo demuestra una vez más la verdad de la gradualidad en el desarrollo de las invenciones, pero sobre todo también el hecho de que la educación amplifica la inventiva del hombre. Un simple pulidor de lentes convirtió dos lupas en un juguete, mientras que Galileo, uno de los hombres más sabios de su tiempo, fabricó un telescopio. Así como la mente de Galileo era superior a la mente del artesano, así también la invención del telescopio fue superior a la invención de un juguete. [92 ]
Las tres leyes [que hemos discutido aquí] son inmensamente importantes y no se aplican sólo a los descubrimientos e invenciones, sino que impregnan toda la naturaleza. Un roble no se convierte inmediatamente en roble, sino que comienza siendo una bellota, luego se convierte en una plántula, más tarde en un arbolito y finalmente en un poderoso roble: vemos aquí la ley de la gradualidad. Una semilla que ha sido sembrada no germinará hasta que encuentre suficiente calor, agua, tierra y aire: aquí vemos aquí la ley de la dependencia. Finalmente, ningún animal o planta, o incluso piedra, es algo homogéneo y simple, sino que está compuesto de varios órganos: aquí vemos aquí la ley de la combinación. [93]
Prus sostiene que, con el tiempo, la multiplicación de descubrimientos e invenciones ha mejorado la calidad de vida de las personas y ha ampliado sus conocimientos. “Este avance gradual de las sociedades civilizadas, este crecimiento constante del conocimiento de los objetos que existen en la naturaleza, este aumento constante del número de herramientas y materiales útiles, se denomina progreso , o crecimiento de la civilización ” . [94] Por el contrario, advierte Prus, “las sociedades y las personas que no hacen inventos o no saben cómo utilizarlos, llevan vidas miserables y, en última instancia, perecen”. [95 ]
Una característica fundamental de la actividad científica es la reproducibilidad de los resultados. "Durante décadas", escribe Shannon Palus, "ha sido un secreto a voces que una [parte considerable] de la literatura en algunos campos es simplemente errónea". Esto sabotea efectivamente la actividad científica y le cuesta al mundo muchos miles de millones de dólares anuales en recursos desperdiciados. En contra de la reproducibilidad está la renuencia de los científicos a compartir técnicas, por miedo a perder la ventaja que tienen en beneficio de otros científicos. Además, las revistas científicas y los comités de titularidad tienden a premiar los resultados nuevos impresionantes en lugar de los avances graduales que se basan sistemáticamente en la literatura existente. Los científicos que verifican discretamente el trabajo de otros o dedican tiempo extra a garantizar que sus propios protocolos sean fáciles de entender para otros investigadores, obtienen poco provecho. [96]
Con el objetivo de mejorar la reproducibilidad de los resultados científicos, se ha sugerido que las agencias de financiación de la investigación financien solo proyectos que incluyan un plan para hacer transparente su trabajo . En 2016, los Institutos Nacionales de Salud de Estados Unidos introdujeron nuevas instrucciones de solicitud y preguntas de revisión para alentar a los científicos a mejorar la reproducibilidad. El NIH solicita más información sobre cómo el estudio se basa en trabajos anteriores y una lista de variables que podrían afectar el estudio, como el sexo de los sujetos animales, un factor previamente pasado por alto que llevó a muchos estudios a describir los fenómenos encontrados en animales machos como universales. [97]
De la misma manera, las preguntas que un financiador puede hacer por adelantado podrían ser formuladas por las revistas y los revisores. Una solución son los "informes registrados", un registro previo de estudios mediante el cual un científico presenta, para su publicación, análisis de investigación y planes de diseño antes de realizar realmente el estudio. Los revisores pares evalúan luego la metodología y la revista promete publicar los resultados, sin importar cuáles sean. Para evitar una dependencia excesiva de los estudios registrados previamente (que podría alentar una investigación más segura y menos arriesgada, corrigiendo así en exceso el problema), el modelo de estudios registrados previamente podría funcionar en tándem con el modelo tradicional centrado en los resultados, que a veces puede ser más favorable a los descubrimientos fortuitos . [97]
La "crisis de replicabilidad" se ve agravada por un hallazgo, publicado en un estudio resumido en 2021 por la historiadora de la ciencia Naomi Oreskes , de que los estudios no replicables se citan con más frecuencia que los replicables: en otras palabras, que la mala ciencia parece recibir más atención que la buena ciencia. Si una proporción sustancial de la ciencia es irreproducible, no proporcionará una base válida para la toma de decisiones y puede retrasar el uso de la ciencia para desarrollar nuevos medicamentos y tecnologías. También puede socavar la confianza del público, dificultando la vacunación de las personas o la acción contra el cambio climático . [98]
El estudio hizo un seguimiento de artículos (publicados en revistas de psicología, revistas de economía y en Science y Nature ) en los que se había documentado que no se podían reproducir. Los artículos que no se podían reproducir recibieron más citas que el promedio, incluso después de que se hubiera publicado la noticia de que no se podían reproducir. [98]
“Estos resultados”, escribe Oreskes, “son paralelos a los de un estudio de 2018. Un análisis de 126.000 rumores en Twitter mostró que las noticias falsas se propagaban más rápido y llegaban a más gente que las afirmaciones verdaderas verificadas. [E]s la gente, no los robots, los responsables de la propagación desproporcionada de falsedades en línea”. [98]
Un informe de Scientific American de 2016 destaca el papel del redescubrimiento en la ciencia. Los investigadores de la Universidad de Indiana en Bloomington examinaron 22 millones de artículos científicos publicados durante el siglo anterior y encontraron docenas de "bellas durmientes", estudios que permanecieron inactivos durante años antes de ser notados. [99] Los hallazgos principales, que languidecieron durante más tiempo y luego recibieron la atención más intensa de los científicos, vinieron de los campos de la química, la física y la estadística. Los hallazgos latentes fueron despertados por científicos de otras disciplinas, como la medicina , en busca de nuevos conocimientos y por la capacidad de probar postulados que alguna vez fueron teóricos. [99] Es probable que las bellas durmientes se vuelvan aún más comunes en el futuro debido a la creciente accesibilidad de la literatura científica. [99] El informe de Scientific American enumera las 15 bellas durmientes principales: 7 en química , 5 en física , 2 en estadística y 1 en metalurgia . [99] Los ejemplos incluyen:
"Sobre la adsorción en soluciones" (1906) de Herbert Freundlich , el primer modelo matemático de adsorción , cuando los átomos o moléculas se adhieren a una superficie. Hoy en día, tanto la remediación ambiental como la descontaminación en entornos industriales dependen en gran medida de la adsorción. [99]
A. Einstein , B. Podolsky y N. Rosen , "¿Puede considerarse completa la descripción mecánico-cuántica de la realidad física?" , Physical Review , vol. 47 (15 de mayo de 1935), pp. 777–780. Este famoso experimento mental de la física cuántica —ahora conocido como la paradoja EPR , por las iniciales del apellido de los autores— fue discutido teóricamente cuando apareció por primera vez. No fue hasta la década de 1970 que la física tuvo los medios experimentales para probar el entrelazamiento cuántico . [99]
J[ohn] Turkevich, PC Stevenson, J. Hillier, "Un estudio de los procesos de nucleación y crecimiento en la síntesis de oro coloidal", Discuss. Faraday. Soc. , 1951, 11, págs. 55-75, explica cómo suspender nanopartículas de oro en líquido. Debe su descubrimiento a la medicina , que ahora emplea nanopartículas de oro para detectar tumores y administrar fármacos. [99]
William S. Hummers y Richard E Offeman, "Preparation of Graphitic Oxide", Journal of the American Chemical Society , vol. 80, no. 6 (20 de marzo de 1958), p. 1339, presentaron el método de Hummers , una técnica para fabricar óxido de grafito . El interés reciente en el potencial del grafeno ha llamado la atención sobre el artículo de 1958. El óxido de grafito podría servir como un intermediario confiable para el material 2-D. [99]
Los historiadores y sociólogos han señalado la ocurrencia, en la ciencia , de " descubrimientos múltiples independientes ". El sociólogo Robert K. Merton definió tales "múltiples" como instancias en las que descubrimientos similares son hechos por científicos trabajando independientemente unos de otros. [100] "A veces los descubrimientos son simultáneos o casi simultáneos; a veces un científico hará un nuevo descubrimiento que, sin que él lo sepa, alguien más ha hecho años antes". [101] [102] Ejemplos comúnmente citados de descubrimientos múltiples independientes son la formulación independiente del cálculo del siglo XVII por Isaac Newton , Gottfried Wilhelm Leibniz y otros; [103] el descubrimiento independiente del oxígeno del siglo XVIII por Carl Wilhelm Scheele , Joseph Priestley , Antoine Lavoisier y otros; y la formulación independiente del siglo XIX de la teoría de la evolución de las especies por Charles Darwin y Alfred Russel Wallace . [104]
Merton contrastó un descubrimiento "múltiple" con un descubrimiento "singleton", es decir, un descubrimiento que ha sido realizado únicamente por un solo científico o un grupo de científicos trabajando juntos. [105] Él creía que son los descubrimientos múltiples, más que los únicos, los que representan el patrón común en la ciencia. [106]
Múltiples descubrimientos en la historia de la ciencia proporcionan evidencia de modelos evolutivos de la ciencia y la tecnología, como la memética (el estudio de unidades autorreplicantes de la cultura), la epistemología evolutiva (que aplica los conceptos de la evolución biológica al estudio del crecimiento del conocimiento humano) y la teoría de la selección cultural (que estudia la evolución sociológica y cultural de una manera darwiniana). Un " paradigma de paradigmas" inspirado en el ADN recombinante , que describe un mecanismo de "conceptualización recombinante", predica que un nuevo concepto surge a través del cruce de conceptos y hechos preexistentes . Esto es lo que se quiere decir cuando uno dice que un científico, erudito o artista ha sido "influenciado por" otro - etimológicamente , que un concepto de este último ha "fluido dentro" de la mente del primero. [107]
El fenómeno de los descubrimientos e invenciones múltiples e independientes puede considerarse una consecuencia de las tres leyes de Bolesław Prus : gradualidad, dependencia y combinación (véase " Descubrimientos e invenciones ", más arriba). Las dos primeras leyes pueden, a su vez, considerarse corolarios de la tercera ley, ya que las leyes de gradualidad y dependencia implican la imposibilidad de ciertos avances científicos o tecnológicos mientras no se disponga de ciertas teorías, hechos o tecnologías que deben combinarse para producir un avance científico o tecnológico determinado.
La tecnología –la aplicación de los descubrimientos a cuestiones prácticas– mostró una notable aceleración en lo que el economista Robert J. Gordon ha identificado como “el siglo especial”, que abarcó el período hasta 1970. Para entonces, escribe, todas las tecnologías clave de la vida moderna ya estaban en su lugar: saneamiento , electricidad , agricultura mecanizada , carreteras , viajes aéreos , telecomunicaciones y similares. La tecnología distintiva del siglo XXI ha sido el iPhone . Mientras tanto, una larga lista de tecnologías potenciales muy publicitadas siguen en la fase de prototipo , incluidos los automóviles autónomos , los automóviles voladores , las gafas de realidad aumentada , la terapia genética y la fusión nuclear . Un objetivo urgente para el siglo XXI, escribe Gordon, es deshacer algunas de las consecuencias del último gran auge tecnológico mediante el desarrollo de tecnologías asequibles de emisiones cero y negativas . [108]
La tecnología es la suma de técnicas , habilidades , métodos y procesos utilizados en la producción de bienes o servicios o en el logro de objetivos, como la investigación científica . Paradójicamente, a veces se ha observado que la tecnología, así concebida, prima sobre los fines mismos, incluso en detrimento de estos. Laura Grego y David Wright, escribiendo en 2019 en Scientific American , observan que "los actuales planes de defensa antimisiles de Estados Unidos están siendo impulsados en gran medida por la tecnología , la política y el miedo . Las defensas antimisiles no nos permitirán escapar de nuestra vulnerabilidad a las armas nucleares . En cambio, los desarrollos a gran escala crearán barreras para tomar medidas reales hacia la reducción de los riesgos nucleares , al bloquear nuevos recortes en los arsenales nucleares y potencialmente estimular nuevos despliegues". [109]
El físico y astrónomo de la Universidad de Yale, Priyamvada Natarajan , al escribir sobre el descubrimiento prácticamente simultáneo del planeta Neptuno en 1846 por Urbain Le Verrier y John Couch Adams (después de que otros astrónomos, tan temprano como Galileo Galilei en 1612, habían observado el planeta sin saberlo), comenta:
El episodio es sólo uno de los muchos que demuestran que la ciencia no es una tarea desapasionada, neutral y objetiva, sino una en la que el choque violento de ideas y ambiciones personales a menudo se combina con la serendipia para impulsar nuevos descubrimientos. [110]
Una cuestión práctica se refiere a los rasgos que permiten a algunas personas lograr resultados extraordinarios en sus campos de trabajo y cómo se puede fomentar esa creatividad . Melissa Schilling , una estudiosa de la estrategia de innovación , ha identificado algunos rasgos compartidos por ocho grandes innovadores en ciencias naturales o tecnología : Benjamin Franklin (1706-1790), Thomas Edison (1847-1931), Nikola Tesla (1856-1943), Maria Skłodowska Curie (1867-1934), Dean Kamen (nacido en 1951), Steve Jobs (1955-2011), Albert Einstein (1879-1955) y Elon Musk (nacido en 1971). [111]
Schilling eligió a los innovadores en las ciencias naturales y la tecnología en lugar de en otros campos porque encontró mucho más consenso acerca de las contribuciones importantes a las ciencias naturales y la tecnología que, por ejemplo, al arte o la música. [112] Además, limitó el conjunto a individuos asociados con múltiples innovaciones. "Cuando un individuo está asociado con una sola invención importante, es mucho más difícil saber si la invención fue causada por las características personales del inventor o simplemente por estar en el lugar correcto en el momento correcto". [113]
Los ocho individuos eran extremadamente inteligentes, pero "eso no es suficiente para convertir a alguien en un innovador revolucionario en serie". [111] Casi todos estos innovadores mostraron niveles muy altos de desapego social o separación (una notable excepción fue Benjamin Franklin). [114] "Su aislamiento significaba que estaban menos expuestos a las ideas y normas dominantes, y su sensación de no pertenencia significaba que incluso cuando estaban expuestos a las ideas y normas dominantes, a menudo estaban menos inclinados a adoptarlas". [115] Desde una edad temprana, todos habían demostrado una fe extrema en su capacidad para superar obstáculos, lo que la psicología llama " autoeficacia ". [115]
"La mayoría [de ellos, escribe Schilling] estaban impulsados por el idealismo , un objetivo superordinado que era más importante que su propia comodidad, reputación o familias. Nikola Tesla quería liberar a la humanidad del trabajo a través de energía libre ilimitada y lograr la paz internacional a través de la comunicación global . Elon Musk quiere resolver los problemas energéticos del mundo y colonizar Marte . Benjamin Franklin buscaba una mayor armonía social y productividad a través de los ideales del igualitarismo , la tolerancia , la laboriosidad, la templanza y la caridad. Marie Curie se había inspirado en el argumento del positivismo polaco de que Polonia , que estaba bajo el dominio ruso zarista, solo podía preservarse mediante la búsqueda de la educación y el avance tecnológico por parte de todos los polacos, incluidas las mujeres ". [116]
La mayoría de los innovadores también trabajaban duro e incansablemente porque consideraban que su trabajo era sumamente gratificante. Algunos tenían una necesidad extremadamente alta de logros. Muchos también parecían considerar que el trabajo era autotélico , es decir, gratificante por sí mismo. [117] Una proporción sorprendentemente grande de los innovadores revolucionarios han sido autodidactas, es decir, personas autodidactas, y se destacaron mucho más fuera del aula que dentro de ella. [118]
"Casi todas las innovaciones revolucionarias", escribe Schilling, "comienzan con una idea inusual o con creencias que rompen con la sabiduría convencional ... Sin embargo, las ideas creativas por sí solas casi nunca son suficientes. Muchas personas tienen ideas creativas, incluso brillantes, pero normalmente carecemos del tiempo, los conocimientos, el dinero o la motivación para ponerlas en práctica". Por lo general, es difícil conseguir la ayuda de otros para implementar ideas originales porque, al principio, a los demás les resulta difícil comprenderlas y valorarlas. Por eso, cada uno de los innovadores revolucionarios de Schilling demostró un esfuerzo y una persistencia extraordinarios . [119] Aun así, escribe Schilling, "estar en el lugar adecuado en el momento adecuado seguía siendo importante". [120]
Cuando el botánico suizo Simon Schwendener descubrió en la década de 1860 que los líquenes eran una asociación simbiótica entre un hongo y un alga , su hallazgo se topó inicialmente con la resistencia de la comunidad científica. Después de su descubrimiento de que el hongo, que no puede producir su propio alimento, proporciona la estructura del liquen, mientras que la contribución del alga es su producción fotosintética de alimento, se descubrió que en algunos líquenes una cianobacteria proporciona el alimento, y un puñado de especies de líquenes contienen tanto un alga como una cianobacteria, junto con el hongo. [121]
Trevor Goward , un naturalista autodidacta , ha contribuido a crear un cambio de paradigma en el estudio de los líquenes y quizás de todas las formas de vida al hacer algo que la gente hacía en tiempos precientíficos: salir a la naturaleza y observar de cerca. Sus ensayos sobre los líquenes fueron en gran medida ignorados por la mayoría de los investigadores porque Goward no tiene títulos científicos y porque algunas de sus ideas radicales no están respaldadas por datos rigurosos. [122]
Cuando Goward le contó a Toby Spribille , que en ese momento no tenía educación secundaria, algunas de sus ideas liquenológicas, Goward recuerda: "Dijo que estaba delirando". Finalmente, Spribille aprobó un examen de equivalencia de escuela secundaria, obtuvo un doctorado en liquenología en la Universidad de Graz en Austria y se convirtió en profesor asistente de ecología y evolución de la simbiosis en la Universidad de Alberta . En julio de 2016, Spribille y sus coautores publicaron un artículo innovador en Science que revelaba que muchos líquenes contienen un segundo hongo.
Spribille reconoce que Goward ha tenido "una enorme influencia en mi pensamiento. [Sus ensayos] me dieron licencia para pensar sobre los líquenes de una manera [poco ortodoxa] y me liberaron para ver los patrones que elaboré en Bryoria con mis coautores". Aun así, "una de las cosas más difíciles fue permitirme tener una mente abierta a la idea de que 150 años de literatura pueden haber pasado por alto por completo la posibilidad teórica de que hubiera más de un socio fúngico en la simbiosis del liquen". Spribille dice que el énfasis de la academia en el canon de lo que otros han establecido como importante es inherentemente limitante. [123]
En contra de estudios previos que indicaban que una mayor inteligencia hace que los líderes sean mejores en diversos campos de actividad, investigaciones posteriores sugieren que, en un momento determinado, un coeficiente intelectual más alto puede considerarse perjudicial. [124] Hace décadas, el psicólogo Dean Simonton sugirió que las palabras de los líderes brillantes pueden pasar desapercibidas para la gente, sus soluciones pueden ser más complicadas de implementar y a los seguidores les puede resultar más difícil identificarse con ellas. Por último, en la edición de julio de 2017 del Journal of Applied Psychology , él y dos colegas publicaron los resultados de pruebas reales de la hipótesis. [124] [125]
Se estudiaron 379 hombres y mujeres líderes empresariales en 30 países, incluidos los campos de la banca, el comercio minorista y la tecnología. Los gerentes tomaron pruebas de CI (un predictor imperfecto pero sólido del desempeño en muchas áreas) y cada uno fue calificado en estilo de liderazgo y efectividad por un promedio de 8 compañeros de trabajo. El CI se correlacionó positivamente con las calificaciones de efectividad de liderazgo, formulación de estrategias , visión y varias otras características, hasta cierto punto. Las calificaciones alcanzaron un máximo de alrededor de 120, que es más alto que el 80% de los trabajadores de oficina. Más allá de eso, las calificaciones disminuyeron. Los investigadores sugirieron que el CI ideal podría ser mayor o menor en varios campos, dependiendo de si las habilidades técnicas o sociales son más valoradas en una cultura laboral determinada. [124]
El psicólogo Paul Sackett, que no participó en la investigación, comenta: "Para mí, la interpretación correcta del trabajo sería que destaca la necesidad de comprender qué hacen los líderes con un coeficiente intelectual alto que conduce a una percepción inferior por parte de los seguidores. La interpretación incorrecta sería: 'No contraten líderes con un coeficiente intelectual alto'". [124] El autor principal del estudio , el psicólogo John Antonakis , sugiere que los líderes deberían usar su inteligencia para generar metáforas creativas que persuadan e inspiren a los demás. "Creo que la única forma en que una persona inteligente puede mostrar su inteligencia de manera apropiada y aún así conectar con la gente", dice Antonakis, "es hablar de manera carismática ". [124]
La especialización académica produce grandes beneficios para la ciencia y la tecnología al concentrar los esfuerzos en disciplinas específicas, pero una especialización excesivamente limitada puede actuar como un obstáculo para la colaboración productiva entre disciplinas tradicionales.
En 2017, en Manhattan , James Harris Simons , un destacado matemático y fundador retirado de uno de los fondos de cobertura más grandes del mundo , inauguró el Flatiron Institute , una empresa sin fines de lucro cuyo objetivo es aplicar las estrategias analíticas de su fondo de cobertura a proyectos dedicados a expandir el conocimiento y ayudar a la humanidad. [126] Ha establecido divisiones computacionales para la investigación en astrofísica, biología y física cuántica, [127] y una división interdisciplinaria para el modelado climático que interactúa con la geología, la oceanografía, la ciencia atmosférica, la biología y la climatología. [128]
La cuarta división del Flatiron Institute se inspiró en una presentación que John Grotzinger , un "biogeocientífico" del Instituto de Tecnología de California , hizo en 2017 a la dirección del instituto y que explicó los desafíos del modelado climático. Grotzinger era un especialista en el cambio climático histórico, específicamente, en lo que había causado la gran extinción del Pérmico , durante la cual murieron prácticamente todas las especies. Para evaluar adecuadamente este cataclismo, uno tenía que entender tanto el registro de rocas como la composición del océano, pero los geólogos no interactuaban mucho con los oceanógrafos físicos . La mejor colaboración del propio Grotzinger había sido el resultado de un almuerzo fortuito con un oceanógrafo. El modelado climático era un problema intrínsecamente difícil que empeoraba debido a las divisiones estructurales de la academia . "Si lo tuvieras todo bajo un mismo paraguas... podría resultar [mucho antes] en un gran avance". Simons y su equipo encontraron convincente la presentación de Grotzinger, y el Flatiron Institute decidió establecer su cuarta y última división computacional. [128]
La socióloga Harriet Zuckerman , en su estudio de 1977 sobre los premios Nobel de ciencias naturales en los Estados Unidos, quedó sorprendida por el hecho de que más de la mitad (48) de los 92 galardonados que realizaron sus investigaciones premiadas en los Estados Unidos en 1972 habían trabajado como estudiantes, posdoctorados o colaboradores junior con premios Nobel anteriores. Además, esos 48 futuros galardonados habían trabajado con un total de 71 maestros galardonados. [129] [o]
La viscosidad social garantiza que no todos los científicos noveles cualificados consigan acceder a los centros más productivos del pensamiento científico. Sin embargo, escribe Zuckerman: "Hasta cierto punto, los estudiantes prometedores pueden elegir a los maestros con los que trabajar y los maestros pueden elegir entre las cohortes de estudiantes que se presentan para estudiar. Este proceso de selección selectiva bilateral está en funcionamiento de forma notoria entre la ultra-élite de la ciencia. Los miembros actuales y potenciales de esa élite seleccionan a sus padres científicos y, con ellos, a sus antepasados científicos, del mismo modo que más tarde seleccionan a su progenie científica y, con ella, a sus descendientes científicos". [131]
Zuckerman escribe: "[L]as líneas de aprendices de élite a maestros de élite que habían sido ellos mismos aprendices de élite, y así indefinidamente, a menudo se remontan muy atrás en la historia de la ciencia , mucho antes de 1900, cuando el testamento de [Alfred] Nobel inauguró lo que ahora equivale a la Academia Internacional de Ciencias. Como ejemplo de las muchas y largas cadenas históricas de maestros y aprendices de élite, considere al laureado inglés nacido en Alemania Hans Krebs (1953), quien rastrea su linaje científico [...] a través de su maestro, el laureado en 1931 Otto Warburg . Warburg había estudiado con Emil Fis[c]her [1852-1919], ganador de un premio en 1902 a la edad de 50 años, tres años antes de que se lo otorgara [en 1905] a su maestro, Adolf von Baeyer [1835-1917], a la edad de 70 años. Este linaje de cuatro Los maestros y aprendices del Nobel tienen sus propios antecedentes pre-Nobel. Von Baeyer había sido aprendiz de F[riedrich] A[ugust] Kekulé [1829-1896], cuyas ideas sobre fórmulas estructurales revolucionaron la química orgánica y que es quizás más conocido por la historia, a menudo repetida, de que había descubierto la estructura de anillo del benceno en un sueño (1865). El propio Kekulé había sido entrenado por el gran químico orgánico Justus von Liebig (1803-1873), que había estudiado en la Sorbona con el maestro J[oseph] L[ouis] Gay-Lussac (1778-1850), que una vez fue aprendiz de Claude Louis Berthollet (1748-1822). Entre sus muchos logros institucionales y cognitivos, Berthollet ayudó a fundar la École Polytechnique , sirvió como asesor científico de Napoleón en Egipto y, más significativo para nuestros propósitos aquí, trabajó con [Antoine] Lavoisier [1743-1794] para revisar el sistema estándar de nomenclatura química . [132]
El sociólogo Michael P. Farrell ha estudiado grupos creativos cerrados y escribe: "La mayoría de las ideas frágiles que sentaron las bases de una nueva visión surgieron no cuando todo el grupo estaba junto, ni cuando los miembros trabajaban solos, sino cuando colaboraban y se respondían entre sí en parejas". [133] François Jacob , quien, junto con Jacques Monod , fue pionero en el estudio de la regulación genética , señala que a mediados del siglo XX, la mayor parte de la investigación en biología molecular se realizaba en parejas. "Dos son mejores que uno para soñar con teorías y construir modelos", escribe Jacob. "Pues cuando dos mentes trabajan en un problema, las ideas vuelan más y más rápido. Rebotan de un compañero a otro... Y en el proceso, las ilusiones se cortan de raíz más pronto". En 2018, en los 35 años anteriores, aproximadamente la mitad de los premios Nobel de Fisiología o Medicina habían ido a parar a asociaciones científicas. [134] James Somers describe una notable asociación entre los mejores ingenieros de software de Google , Jeff Dean y Sanjay Ghemawat . [135]
Las colaboraciones entre dos artistas también han sido prominentes en proyectos creativos fuera de las ciencias naturales y la tecnología ; ejemplos de ello son la creación conjunta del impresionismo de Claude Monet y Pierre-Auguste Renoir en 1869 , la creación conjunta del cubismo de Pablo Picasso y Georges Braque durante seis años , y las colaboraciones de John Lennon y Paul McCartney en canciones de los Beatles . "Todo el mundo", escribe James Somers, "cae en rutinas creativas, pero dos personas rara vez lo hacen al mismo tiempo". [136]
El mismo argumento lo planteó Francis Crick , miembro de un famoso dúo científico, Francis Crick y James Watson , quienes juntos descubrieron la estructura del material genético , el ADN . Al final de un documental de televisión de PBS sobre James Watson, en un fragmento de vídeo Crick le explica a Watson que su colaboración había sido crucial para su descubrimiento porque, cuando uno de ellos se equivocaba, el otro lo enmendaba. [137]
Lo que se ha denominado " Gran Ciencia " surgió del Proyecto Manhattan de los Estados Unidos durante la Segunda Guerra Mundial , que produjo las primeras armas nucleares del mundo ; y desde entonces la Gran Ciencia se ha asociado con la física , que requiere aceleradores de partículas masivos . En biología , la Gran Ciencia debutó en 1990 con el Proyecto Genoma Humano para secuenciar el ADN humano . En 2013, la neurociencia se convirtió en un dominio de la Gran Ciencia cuando Estados Unidos anunció una Iniciativa BRAIN y la Unión Europea anunció un Proyecto Cerebro Humano . Israel, Canadá, Australia, Nueva Zelanda, Japón y China también anunciaron nuevas e importantes iniciativas de investigación del cerebro. [138]
Los proyectos exitosos anteriores de Gran Ciencia habían acostumbrado a los políticos, los medios de comunicación y el público a ver los programas de Gran Ciencia con un favor a veces acrítico. [139]
La Iniciativa BRAIN de los Estados Unidos surgió de la preocupación por la propagación y el costo de los trastornos mentales y del entusiasmo por las nuevas tecnologías de manipulación cerebral, como la optogenética . [140] Después de algunos comienzos fallidos, el Instituto Nacional de Salud Mental de los Estados Unidos dejó que los científicos del cerebro del país definieran la Iniciativa BRAIN, y esto condujo a un ambicioso programa interdisciplinario para desarrollar nuevas herramientas tecnológicas para monitorear, medir y simular mejor el cerebro. La competencia en la investigación fue asegurada por el proceso de revisión por pares del Instituto Nacional de Salud Mental . [139]
En la Unión Europea, el Proyecto Cerebro Humano de la Comisión Europea tuvo un comienzo más complicado porque las consideraciones políticas y económicas oscurecieron las preguntas sobre la viabilidad del programa científico inicial del Proyecto, basado principalmente en el modelado informático de circuitos neuronales . Cuatro años antes, en 2009, temiendo que la Unión Europea se quedara aún más atrás de los EE. UU. en informática y otras tecnologías, la Unión Europea había comenzado a crear un concurso para proyectos de Big Science, y el programa inicial para el Proyecto Cerebro Humano parecía adecuado para un programa europeo que pudiera tomar la delantera en tecnologías avanzadas y emergentes. [140] Solo en 2015, después de que más de 800 neurocientíficos europeos amenazaran con boicotear la colaboración a nivel europeo, se introdujeron cambios en el Proyecto Cerebro Humano, reemplazando muchas de las consideraciones políticas y económicas originales por otras científicas. [141]
En 2019, el Proyecto Cerebro Humano de la Unión Europea no había cumplido su extravagante promesa. [142]
Nathan Myhrvold , ex director de tecnología de Microsoft y fundador de Microsoft Research , sostiene que la financiación de la ciencia básica no puede dejarse en manos del sector privado : "sin recursos gubernamentales, la ciencia básica se paralizará". [143] Señala que la teoría general de la relatividad de Albert Einstein , publicada en 1915, no surgió de su cerebro en un momento de inspiración; trabajó en ella durante años, finalmente impulsado a completarla por una rivalidad con el matemático David Hilbert . [143] La historia de casi cualquier descubrimiento científico o invención tecnológica emblemática (la bombilla , el transistor , el ADN , incluso Internet ) muestra que los nombres famosos a los que se atribuye el avance "sólo estaban unos pasos por delante de un grupo de competidores". Algunos escritores y funcionarios electos han utilizado este fenómeno de " innovación paralela " para argumentar en contra de la financiación pública de la investigación básica: el gobierno, afirman, debería dejar que las empresas financien la investigación que necesitan. [143]
Myhrvold escribe que estos argumentos son peligrosamente erróneos: sin el apoyo del gobierno, la mayor parte de la investigación científica básica nunca se realizará. "Esto es más claramente cierto en el caso del tipo de investigación pura que ha producido... grandes beneficios intelectuales pero ninguna ganancia, como el trabajo que nos trajo el bosón de Higgs , o la comprensión de que un agujero negro supermasivo se encuentra en el centro de la Vía Láctea , o el descubrimiento de mares de metano en la superficie de la luna Titán de Saturno . Los laboratorios de investigación de las empresas solían hacer este tipo de trabajo: se descubrió evidencia experimental del Big Bang en los Laboratorios Bell de AT&T , lo que resultó en un Premio Nobel . Ahora esos días han pasado". [143]
Incluso en campos aplicados como la ciencia de los materiales y la informática , escribe Myhrvold, "las empresas ahora entienden que la investigación básica es una forma de caridad , por lo que la evitan". Los científicos de Bell Labs crearon el transistor , pero esa invención le reportó miles de millones a Intel y Microsoft . Los ingenieros de Xerox PARC inventaron la interfaz gráfica de usuario moderna , pero Apple y Microsoft fueron los que más se beneficiaron. Los investigadores de IBM fueron pioneros en el uso de magnetorresistencia gigante para aumentar la capacidad del disco duro , pero pronto perdieron el negocio de las unidades de disco a manos de Seagate y Western Digital . [143]
Los investigadores de las empresas ahora tienen que centrarse estrictamente en innovaciones que puedan generar ingresos rápidamente; de lo contrario, el presupuesto de investigación no podría justificarse ante los inversores de la empresa. "Quienes creen que las empresas con ánimo de lucro pagarán de manera altruista por ciencia básica que tiene beneficios de amplio alcance -pero principalmente para otros y no para una generación- son ingenuos... Si el gobierno dejara que el sector privado pagara por la investigación básica , la mayor parte de la ciencia se detendría de golpe. La investigación que sobreviviera se haría en gran parte en secreto, por miedo a entregar la próxima gran novedad a un rival". [143]
La inversión gubernamental es igualmente vital en el campo de la investigación biológica. Según William A. Haseltine , ex profesor de la Facultad de Medicina de Harvard y fundador de los departamentos de investigación sobre el cáncer y el VIH/SIDA de esa universidad, los primeros esfuerzos para controlar la pandemia de COVID-19 se vieron obstaculizados por los gobiernos y la industria de todo el mundo que "interrumpieron la financiación de la investigación sobre el coronavirus en 2006 después de que la primera pandemia de SARS [...] se desvaneciera y nuevamente en los años inmediatamente posteriores al MERS [brote, también causado por un coronavirus] cuando parecía ser controlable. [144] [...] El desarrollo de prometedores medicamentos contra el SARS y el MERS, que también podrían haber sido activos contra el SARS-CoV-2 [en la pandemia de Covid-19], quedó inacabado por falta de dinero". [145] Haseltine continúa:
La crisis del VIH nos enseñó que era importante contar con líneas de investigación ya establecidas. [Fue] la investigación sobre el cáncer en los años 1950, 1960 y 1970 [la que] sentó las bases para los estudios sobre el VIH/SIDA. [Durante esas décadas] el gobierno [había] respondido a las preocupaciones públicas, aumentando drásticamente la financiación federal de la investigación sobre el cáncer [...]. Estos esfuerzos [habían] culminado en la aprobación por parte del Congreso de la Ley Nacional del Cáncer del presidente Richard Nixon en 1971. Esto [había] sentado las bases científicas que necesitábamos para identificar y comprender el VIH en los años 1980, aunque, por supuesto, nadie sabía que los resultados estaban por llegar. [145]
En la década de 1980, la administración Reagan no quería hablar sobre el SIDA ni destinar muchos fondos a la investigación del VIH. [Pero] cuando se conoció la noticia de que el actor Rock Hudson estaba gravemente enfermo de SIDA, [...] se añadieron 320 millones de dólares al presupuesto fiscal de 1986 para la investigación del SIDA. [...] Ayudé [...] a diseñar este primer programa de investigación del SIDA financiado por el Congreso con Anthony Fauci , el médico que ahora lidera la lucha [de EE. UU.] contra el COVID-19. [145] [...]
[El] conjunto de herramientas para la investigación de virus y fármacos ha mejorado enormemente en los últimos 36 años desde que se descubrió el VIH. Lo que solía llevar cinco o diez años en los años 1980 y 1990 en muchos casos ahora se puede hacer en cinco o diez meses. Podemos identificar y sintetizar rápidamente sustancias químicas para predecir qué medicamentos serán eficaces. Podemos hacer criomicroscopía electrónica para sondear las estructuras de los virus y simular interacciones molécula por molécula en cuestión de semanas, algo que solía llevar años. La lección es que nunca hay que bajar la guardia cuando se trata de financiar la investigación antiviral. No tendríamos ninguna esperanza de vencer a COVID-19 si no fuera por los avances en biología molecular que logramos durante las batallas anteriores contra los virus. Lo que aprendamos esta vez nos ayudará [...] durante la próxima pandemia, pero debemos seguir recibiendo dinero. [145]
DT Max ofrece una perspectiva complementaria sobre la financiación de la investigación científica al escribir sobre el Flatiron Institute , un centro computacional creado en 2017 en Manhattan para brindar asistencia matemática a los científicos. El Flatiron Institute fue establecido por James Harris Simons , un matemático que había utilizado algoritmos matemáticos para convertirse en un multimillonario de Wall Street . El instituto tiene tres divisiones computacionales dedicadas respectivamente a la astrofísica , la biología y la física cuántica , y está trabajando en una cuarta división para el modelado climático que involucrará interfaces de geología , oceanografía , ciencia atmosférica , biología y climatología . [128]
El Instituto Flatiron es parte de una tendencia en las ciencias hacia la investigación financiada con fondos privados. En los Estados Unidos, la ciencia básica ha sido tradicionalmente financiada por universidades o el gobierno, pero los institutos privados suelen ser más rápidos y más centrados. Desde la década de 1990, cuando Silicon Valley comenzó a producir multimillonarios, los institutos privados han surgido en todo Estados Unidos. En 1997, Larry Ellison lanzó la Fundación Médica Ellison para estudiar la biología del envejecimiento . En 2003, Paul Allen fundó el Instituto Allen para la Ciencia del Cerebro . En 2010, Eric Schmidt fundó el Instituto Oceánico Schmidt . [146]
Estas instituciones han hecho mucho bien, en parte al ofrecer alternativas a sistemas más rígidos, pero las fundaciones privadas también tienen sus desventajas. Los benefactores ricos tienden a destinar su financiación a sus intereses personales y las fundaciones no pagan impuestos; de lo contrario, gran parte del dinero que las sustenta habría ido a parar al gobierno. [146]
John PA Ioannidis , de la Facultad de Medicina de la Universidad de Stanford , escribe que "cada vez hay más pruebas de que algunas de las formas en que llevamos a cabo, evaluamos, informamos y difundimos las investigaciones son miserablemente ineficaces. Una serie de artículos publicados en 2014 en The Lancet ... estimaba que el 85 por ciento de la inversión en investigación biomédica se desperdicia. Muchas otras disciplinas tienen problemas similares". [147] Ioannidis identifica algunos sesgos en la financiación de la ciencia que socavan la eficiencia de la empresa científica y propone soluciones:
Financiación de muy pocos científicos: "El éxito importante [en la investigación científica] es en gran medida el resultado de la suerte, así como del trabajo duro. Los investigadores que actualmente disfrutan de una enorme financiación no son necesariamente auténticas superestrellas; puede que simplemente sean los que tienen mejores contactos". Soluciones: "Utilizar una lotería para decidir qué solicitudes de subvención financiar (quizás después de que pasen una revisión básica)... Desviar... los fondos de las personas de mayor experiencia a los investigadores más jóvenes..." [147]
No hay recompensa por la transparencia : “Muchos protocolos científicos, métodos de análisis, procesos computacionales y datos son opacos. Muchos de los hallazgos más importantes no pueden reproducirse . Ese es el caso de dos de cada tres artículos de psicología más importantes, uno de cada tres artículos de economía experimental más importantes y más del 75 por ciento de los artículos más importantes que identifican nuevos objetivos farmacológicos contra el cáncer. Los científicos no reciben recompensa por compartir sus técnicas”. Soluciones: “Crear una mejor infraestructura que permita la transparencia, la apertura y el intercambio. Hacer de la transparencia un requisito previo para la financiación. Contratar, promover o dar prioridad a la permanencia en el cargo... a defensores de la transparencia”. [147]
No se fomenta la replicación : la replicación es indispensable para el método científico . Sin embargo, bajo la presión de producir nuevos descubrimientos , los investigadores tienden a tener pocos incentivos, y muchos contraincentivos, para intentar replicar los resultados de estudios anteriores. Soluciones: "Las agencias de financiación deben pagar por los estudios de replicación. El progreso de los científicos debe basarse no sólo en sus descubrimientos sino también en su historial de replicación". [147]
No hay financiación para los científicos jóvenes: " Werner Heisenberg , Albert Einstein , Paul Dirac y Wolfgang Pauli hicieron sus mayores contribuciones a mediados de sus 20 años." Pero la edad media de los científicos biomédicos que reciben su primera subvención importante es de 46 años. La edad media de un catedrático en los EE.UU. es de 55 años. Soluciones: "Una mayor proporción de la financiación debería destinarse a los investigadores jóvenes. Las universidades deberían tratar de cambiar la distribución del envejecimiento de su facultad contratando a más investigadores jóvenes." [147]
Fuentes de financiación sesgadas: “La mayor parte de la financiación para la investigación y el desarrollo en los EE.UU. no proviene del gobierno, sino de fuentes privadas con ánimo de lucro, lo que genera inevitables conflictos de intereses y presión para entregar resultados favorables al patrocinador”. Soluciones: “Restringir o incluso prohibir la financiación que presente conflictos de intereses manifiestos. Las revistas no deberían aceptar investigaciones con tales conflictos. En el caso de conflictos menos evidentes, garantizar como mínimo una divulgación transparente y exhaustiva”. [148] [p]
Financiación de los campos equivocados: “Los campos bien financiados atraen a más científicos que trabajan en ellos, lo que aumenta su alcance de presión, alimentando un círculo vicioso . Algunos campos arraigados absorben una enorme financiación a pesar de que han demostrado claramente un rendimiento limitado o defectos incorregibles”. Soluciones: “Es necesaria una evaluación independiente e imparcial de los resultados de los campos financiados generosamente. Se deberían destinar más fondos a los nuevos campos y a los campos que entrañan un alto riesgo. Se debería alentar a los investigadores a cambiar de campo, mientras que actualmente se les incentiva a centrarse en un área”. [148]
No gastar lo suficiente: el presupuesto militar de Estados Unidos (886.000 millones de dólares) es 24 veces el presupuesto de los Institutos Nacionales de Salud (37.000 millones de dólares). “La inversión en ciencia beneficia a la sociedad en general, pero los intentos de convencer al público a menudo empeoran las cosas cuando líderes científicos bien intencionados prometen lo imposible, como eliminar rápidamente todo el cáncer o la enfermedad de Alzheimer ”. Soluciones: “Necesitamos comunicar cómo se utiliza la financiación de la ciencia haciendo que el proceso científico sea más claro, incluido el número de científicos necesarios para alcanzar logros importantes... También presentaríamos argumentos más convincentes a favor de la ciencia si pudiéramos demostrar que trabajamos duro para mejorar la forma en que la llevamos a cabo”. [148]
Recompensar a los grandes gastadores: "Las decisiones de contratación, promoción y permanencia en el cargo dependen principalmente de la capacidad del investigador para conseguir altos niveles de financiación, pero el coste de un proyecto no se correlaciona necesariamente con su importancia. Estas estructuras de recompensa seleccionan sobre todo a gestores políticamente astutos que saben cómo absorber el dinero". Soluciones: "Deberíamos recompensar a los científicos por su trabajo de alta calidad, su reproducibilidad y su valor social, en lugar de por conseguir financiación. Se puede hacer una investigación excelente con poca o ninguna financiación, salvo el tiempo protegido. Las instituciones deberían proporcionar este tiempo y respetar a los científicos que pueden hacer un gran trabajo sin malgastar toneladas de dinero". [148]
No financiar ideas de alto riesgo: "La presión para que el dinero de los contribuyentes se "gaste bien" lleva a los financiadores gubernamentales a respaldar proyectos con más probabilidades de rendir frutos con un resultado positivo, incluso si los proyectos más arriesgados pueden conducir a avances más importantes, pero menos seguros. La industria también evita invertir en proyectos de alto riesgo... La innovación es extremadamente difícil, si no imposible, de predecir..." Soluciones: "Financiar a científicos excelentes en lugar de proyectos y darles libertad para que busquen las vías de investigación que consideren adecuadas. Algunas instituciones como el Instituto Médico Howard Hughes ya utilizan este modelo con éxito". Es necesario comunicar al público y a los responsables de las políticas que la ciencia es una inversión acumulativa, que nadie puede saber de antemano qué proyectos tendrán éxito y que el éxito debe juzgarse en función de la agenda total, no de un solo experimento o resultado. [148]
Falta de datos fiables: “Hay evidencia relativamente limitada sobre qué prácticas científicas funcionan mejor. Necesitamos más investigación sobre la investigación (“ metainvestigación ”) para entender cómo realizar, evaluar, revisar, difundir y recompensar mejor la ciencia”. Soluciones: “Deberíamos invertir en estudiar cómo obtener la mejor ciencia y cómo elegir y recompensar a los mejores científicos”. [148]
Naomi Oreskes , profesora de historia de la ciencia en la Universidad de Harvard , escribe sobre la conveniencia de que haya diversidad en los antecedentes de los científicos.
La historia de la ciencia está plagada de [...] casos de misoginia , prejuicio y parcialidad . Durante siglos, los biólogos promovieron falsas teorías sobre la inferioridad femenina, y las instituciones científicas normalmente prohibieron la participación de las mujeres. La historiadora de la ciencia [...] Margaret Rossiter ha documentado cómo, a mediados del siglo XIX, las científicas crearon sus propias sociedades científicas para compensar la negativa de sus colegas masculinos a reconocer su trabajo. Sharon Bertsch McGrayne llenó un volumen entero con las historias de mujeres que deberían haber recibido el Premio Nobel por un trabajo que hicieron en colaboración con colegas masculinos -o, peor aún, que les habían robado. [...] El sesgo racial ha sido al menos tan pernicioso como el sesgo de género ; después de todo, fueron los científicos quienes codificaron el concepto de raza como una categoría biológica que no era simplemente descriptiva sino también jerárquica. [150]
[...] [L]a ciencia cognitiva demuestra que los seres humanos somos propensos a los sesgos, las percepciones erróneas, el razonamiento motivado y otros errores intelectuales. Como el razonamiento es lento y difícil, recurrimos a la heurística , atajos intelectuales que a menudo funcionan pero que a veces fracasan estrepitosamente. (Creer que los hombres son, en general, mejores que las mujeres en matemáticas es un ejemplo agotador.) [...] [150]
[...] La ciencia es un esfuerzo colectivo y funciona mejor cuando las comunidades científicas son diversas. Las comunidades heterogéneas tienen más probabilidades que las homogéneas de identificar puntos ciegos y corregirlos. La ciencia no se corrige a sí misma; los científicos se corrigen entre sí mediante un cuestionamiento crítico. Y eso significa estar dispuesto a cuestionar no sólo las afirmaciones sobre el mundo externo, sino también las afirmaciones sobre las propias prácticas y procesos [de los científicos]. [150]
Claire Pomeroy, presidenta de la Fundación Lasker , dedicada a promover la investigación médica , señala que las mujeres científicas siguen siendo objeto de discriminación en el avance profesional. [151]
Aunque el porcentaje de doctorados otorgados a mujeres en ciencias biológicas en Estados Unidos aumentó del 15 al 52 por ciento entre 1969 y 2009, en 2009 sólo un tercio de los profesores adjuntos y menos de un quinto de los profesores titulares en campos relacionados con la biología eran mujeres. Las mujeres representan sólo el 15 por ciento de los jefes de departamento permanentes en las facultades de medicina y apenas el 16 por ciento de los decanos de las facultades de medicina. [151]
El problema es una cultura de prejuicios inconscientes que hace que muchas mujeres se sientan desmoralizadas y marginadas. En un estudio, se les entregó a profesores de ciencias currículos idénticos en los que se intercambiaban los nombres y géneros de dos postulantes; tanto los profesores hombres como las profesoras juzgaron que el postulante hombre era más competente y le ofrecieron un salario más alto. [151]
Los prejuicios inconscientes también aparecen como “microataques” contra las mujeres científicas : chistes e insultos sexistas supuestamente insignificantes que se acumulan a lo largo de los años y minan la confianza y la ambición. Claire Pomeroy escribe: “Cada vez que se supone que la única mujer en el grupo de laboratorio desempeñará el papel de secretaria de actas, cada vez que se ultima un plan de investigación en el baño de hombres entre sesiones de conferencias, cada vez que no se invita a una mujer a salir a tomar una cerveza después de la conferencia plenaria para hablar de negocios, el daño se refuerza”. [151]
"Cuando hablo con grupos de mujeres científicas", escribe Pomeroy, "a menudo les pregunto si alguna vez han estado en una reunión en la que hicieron una recomendación, la ignoraron y luego escucharon a un hombre recibir elogios y apoyo por hacer la misma observación unos minutos después. Cada vez, la mayoría de las mujeres del público levantan la mano. Los microataques son especialmente dañinos cuando provienen de un profesor de ciencias de secundaria , un mentor universitario , un decano universitario o un miembro de la élite científica que ha recibido un prestigioso premio: las mismas personas que deberían inspirar y apoyar a la próxima generación de científicos". [151]
El acoso sexual es más frecuente en el mundo académico que en cualquier otro sector social, con excepción del militar . Un informe de junio de 2018 de las Academias Nacionales de Ciencias, Ingeniería y Medicina afirma que el acoso sexual perjudica a las personas, disminuye el acervo de talento científico y, en última instancia, daña la integridad de la ciencia. [152]
Paula Johnson , copresidenta del comité que redactó el informe, describe algunas medidas para prevenir el acoso sexual en la ciencia. Una de ellas sería sustituir la tutoría individual de los estudiantes por una tutoría en grupo y desvincular la relación de tutoría de la dependencia financiera del estudiante respecto del mentor. Otra forma sería prohibir el uso de acuerdos de confidencialidad en relación con los casos de acoso. [152]
Un nuevo método para denunciar el acoso sexual, denominado Callisto , que ha sido adoptado por algunas instituciones de educación superior, permite a las personas afectadas registrar experiencias de acoso sexual, con sello de fecha, sin tener que denunciarlas formalmente. Este programa permite a las personas ver si otras han registrado experiencias de acoso por parte de la misma persona y compartir información de forma anónima. [152]
El psicólogo Andrei Cimpian y la profesora de filosofía Sarah-Jane Leslie han propuesto una teoría para explicar por qué las mujeres estadounidenses y los afroamericanos a menudo se ven sutilmente disuadidos de intentar entrar en ciertos campos académicos por un énfasis equivocado en el genio . [153] Cimpian y Leslie habían notado que sus respectivos campos son similares en su sustancia, pero tienen diferentes puntos de vista sobre lo que es importante para el éxito. Mucho más que los psicólogos, los filósofos valoran a un cierto tipo de persona : la "superestrella brillante" con una mente excepcional. Los psicólogos son más propensos a creer que las principales figuras de la psicología crecieron para alcanzar sus posiciones a través del trabajo duro y la experiencia. [154] En 2015, las mujeres representaron menos del 30% de los doctorados otorgados en filosofía; los afroamericanos representaron solo el 1% de los doctorados en filosofía. La psicología, por otro lado, ha tenido éxito en atraer a mujeres (72% de los doctorados en psicología de 2015) y afroamericanos (6% de los doctorados en psicología). [155]
Cimpian y Leslie tuvieron una idea temprana de estas disparidades gracias al trabajo de la psicóloga Carol Dweck . Ella y sus colegas habían demostrado que las creencias de una persona sobre la capacidad son muy importantes para el éxito final de esa persona. Una persona que ve el talento como un rasgo estable está motivada a "mostrar esta aptitud" y evitar cometer errores . Por el contrario, una persona que adopta una " mentalidad de crecimiento " ve su capacidad actual como un trabajo en progreso: para esa persona, los errores no son una acusación sino una señal valiosa que destaca cuáles de sus habilidades necesitan trabajo. [156] Cimpian, Leslie y sus colaboradores probaron la hipótesis de que las actitudes sobre el "genio" y sobre la inaceptabilidad de cometer errores, dentro de varios campos académicos pueden explicar el atractivo relativo de esos campos para las mujeres estadounidenses y los afroamericanos. Lo hicieron contactando a profesionales académicos de una amplia gama de disciplinas y preguntándoles si pensaban que se requería alguna forma de talento intelectual excepcional para el éxito en su campo. Las respuestas recibidas de casi 2.000 académicos en 30 campos coincidieron con la distribución de doctorados en la forma que Cimpian y Leslie habían esperado: los campos que otorgaban más valor a la brillantez también otorgaban menos doctorados a mujeres y afroamericanos. La proporción de doctorados de mujeres y afroamericanos en psicología, por ejemplo, fue mayor que las proporciones paralelas en filosofía, matemáticas o física. [157]
Una investigación posterior mostró que los no académicos comparten ideas similares sobre qué campos requieren brillantez. La exposición a estas ideas en el hogar o la escuela podría disuadir a los jóvenes miembros de grupos estereotipados de seguir ciertas carreras, como las de ciencias naturales o ingeniería. Para explorar esto, Cimpian y Leslie hicieron preguntas a cientos de niños y niñas de cinco, seis y siete años que medían si asociaban ser "muy, muy inteligentes" (es decir, "brillantes") con su sexo. Los resultados, publicados en enero de 2017 en Science , fueron consistentes con la literatura científica sobre la adquisición temprana de estereotipos sexuales. Los niños y niñas de cinco años no mostraron diferencias en su autoevaluación; pero a los seis años, las niñas tenían menos probabilidades de pensar que las niñas son "muy, muy inteligentes". A continuación, los autores presentaron a otro grupo de niños de cinco, seis y siete años actividades desconocidas similares a juegos que los autores describieron como "para niños que son muy, muy inteligentes". La comparación del interés de niños y niñas en estas actividades en cada edad no mostró diferencias de sexo a los cinco años, pero sí un interés significativamente mayor por parte de los niños a los seis y siete años, exactamente las edades en las que surgen los estereotipos. [158]
Cimpian y Leslie concluyen que, "dados los estereotipos sociales actuales, los mensajes que presentan [el genio o la brillantez] como singularmente necesarios [para el éxito académico] pueden desanimar innecesariamente a los miembros talentosos de grupos estereotipados". [158]
En gran medida como resultado de su creciente popularidad, el astrónomo y divulgador científico Carl Sagan , creador de la serie de televisión Cosmos de PBS de 1980 , llegó a ser ridiculizado por sus colegas científicos y no recibió la titularidad en la Universidad de Harvard en la década de 1960 ni la membresía en la Academia Nacional de Ciencias en la década de 1990. El epónimo "efecto Sagan" persiste: como grupo, los científicos todavía desalientan a los investigadores individuales de interactuar con el público a menos que ya sean investigadores senior bien establecidos. [159] [160]
El efecto Sagan priva a la sociedad de toda la gama de conocimientos necesarios para tomar decisiones informadas sobre cuestiones complejas, como la ingeniería genética , el cambio climático y las alternativas energéticas . Menos voces científicas significan menos argumentos para contrarrestar el debate anticientífico o pseudocientífico . El efecto Sagan también crea la falsa impresión de que la ciencia es el dominio de los hombres blancos mayores (que dominan los puestos superiores), lo que tiende a desalentar a las mujeres y las minorías a considerar carreras científicas. [159]
Hay varios factores que contribuyen a la perdurabilidad del efecto Sagan. En el apogeo de la revolución científica en el siglo XVII, muchos investigadores emularon el ejemplo de Isaac Newton , que se dedicó a la física y las matemáticas y nunca se casó. Estos científicos eran vistos como puros buscadores de la verdad que no se distraían con preocupaciones más mundanas. De manera similar, hoy en día cualquier cosa que aleje a los científicos de su investigación, como tener un pasatiempo o participar en debates públicos, puede socavar su credibilidad como investigadores. [161]
Otro factor, más prosaico, en la persistencia del efecto Sagan puede ser los celos profesionales . [161]
Sin embargo, parece haber algunas señales de que relacionarse con el resto de la sociedad se está volviendo menos peligroso para una carrera científica. Hoy en día, tanta gente tiene cuentas en las redes sociales que convertirse en una figura pública ya no es tan inusual para los científicos como antes. Además, como las fuentes de financiación tradicionales se estancan, salir a bolsa a veces conduce a nuevas fuentes de financiación no convencionales. Unas pocas instituciones, como la Universidad Emory y el Instituto Tecnológico de Massachusetts, pueden haber comenzado a apreciar la divulgación como un área de actividad académica, además de las funciones tradicionales de investigación, enseñanza y administración. La Fundación Nacional de la Ciencia , una excepción entre las agencias de financiación federales, ahora favorece oficialmente la divulgación. [162] [160]
Al igual que las enfermedades infecciosas , las ideas en el ámbito académico son contagiosas. Pero no estaba claro por qué algunas ideas ganan gran aceptación mientras que otras igualmente buenas permanecen en una relativa oscuridad. Un equipo de científicos informáticos ha utilizado un modelo epidemiológico para simular cómo las ideas se trasladan de una institución académica a otra. Los hallazgos basados en el modelo, publicados en octubre de 2018, muestran que las ideas que se originan en instituciones prestigiosas causan "epidemias" más grandes que las ideas igualmente buenas provenientes de lugares menos prominentes. El hallazgo revela una gran debilidad en la forma en que se hace ciencia. Muchas personas altamente capacitadas con buenas ideas no obtienen puestos en las instituciones más prestigiosas; muchos buenos trabajos publicados por trabajadores de lugares menos prestigiosos son pasados por alto por otros científicos y académicos porque no están prestando atención. [163]
Naomi Oreskes señala otro inconveniente de la desvalorización de las universidades públicas en favor de las escuelas de la Ivy League : "En 1970, la mayoría de los empleos no requerían un título universitario. Hoy, casi todos los que pagan bien lo requieren. Con el auge de la inteligencia artificial y la continua subcontratación de empleos poco cualificados y no cualificados en el extranjero, es muy probable que esa tendencia se acelere. Aquellos a quienes les importa la igualdad de oportunidades deberían prestar menos atención a los pocos afortunados que ingresan en Harvard o en otras escuelas privadas altamente selectivas y más a la educación pública, porque para la mayoría de los estadounidenses, el camino hacia las oportunidades pasa por las escuelas públicas". [164]
La resistencia de una parte del público a aceptar la vacunación y la realidad del cambio climático puede deberse en parte a varias décadas de ataques partidistas al gobierno, que llevaron a la desconfianza en la ciencia gubernamental y luego en la ciencia en general. [165]
Muchos científicos se han mostrado reacios a involucrarse en debates de políticas públicas por temor a perder credibilidad: les preocupa que si participan en un debate público sobre una cuestión controvertida, se los considere parciales y se los descarte por partidistas. Sin embargo, los estudios muestran que la mayoría de las personas quieren escuchar a los científicos sobre cuestiones que pertenecen a sus áreas de especialización. Las investigaciones también sugieren que los científicos pueden sentirse cómodos ofreciendo asesoramiento sobre políticas dentro de sus campos. "La historia del ozono ", escribe Naomi Oreskes , "es un buen ejemplo: nadie sabía mejor que los científicos del ozono sobre la causa del peligroso agujero y, por lo tanto, lo que se debía hacer para solucionarlo". [166]
Oreskes, sin embargo, identifica un factor que sí “desacoge” al público: el uso frecuente por parte de los científicos de jerga , expresiones que tienden a ser malinterpretadas o incomprensibles para los legos. [165]
En el lenguaje climatológico , la " retroalimentación positiva " se refiere a la amplificación de los bucles de retroalimentación , como la retroalimentación entre el hielo y el albedo ("Albedo", otra jerga, simplemente significa " reflectividad "). El bucle positivo en cuestión se desarrolla cuando el calentamiento global hace que el hielo del Ártico se derrita, exponiendo agua que es más oscura y refleja menos los rayos de calor del sol, lo que lleva a un mayor calentamiento, que a su vez conduce a un mayor derretimiento... y así sucesivamente. En climatología, esa retroalimentación positiva es algo malo; pero para la mayoría de los profanos, "evoca imágenes tranquilizadoras, como recibir elogios de tu jefe". [165]
Cuando los astrónomos dicen " metales ", se refieren a cualquier elemento más pesado que el helio , que incluye el oxígeno y el nitrógeno , un uso que es enormemente confuso no solo para los profanos sino también para los químicos . [Para los astrónomos] [l]a Osa Mayor no es una constelación [...] es un " asterismo " [...] En IA , existe la " inteligencia " de las máquinas, que no es inteligencia en absoluto sino algo más parecido a "capacidad de las máquinas". En ecología , existen los " servicios ecosistémicos ", que se podría pensar razonablemente que se refieren a las empresas que limpian los derrames de petróleo , pero es [en realidad] jerga ecológica para todas las cosas buenas que el mundo natural hace por nosotros. [L]a teoría de la " adaptación de la comunicación ", que significa hablar de manera que el oyente pueda entender. [165]
"Los investigadores", escribe Naomi Oreskes , "a menudo son juzgados más por la cantidad de su producción que por su calidad. Las universidades [hacen hincapié] en parámetros como la cantidad de artículos publicados y citas cuando toman decisiones sobre contratación, titularidad y promoción". [167]
Cuando, por diversas razones, no es posible publicar en revistas legítimas arbitradas , se crea a menudo un incentivo perverso para publicar en " revistas depredadoras ", que no respetan los estándares científicos. Unas 8.000 de esas revistas publican 420.000 artículos al año, casi una quinta parte de la producción anual de la comunidad científica, que asciende a 2,5 millones de artículos. Los artículos publicados en una revista depredadora aparecen en bases de datos científicas junto con los de las revistas legítimas, lo que hace difícil discernir la diferencia. [168]
Una de las razones por las que algunos científicos publican en revistas depredadoras es que las revistas científicas prestigiosas pueden cobrarles miles de dólares por publicar, mientras que una revista depredadora normalmente cobra menos de 200 dólares (por lo tanto, los autores de artículos en las revistas depredadoras están ubicados desproporcionadamente en países e instituciones menos ricos). [169]
Publicar en revistas depredadoras puede ser una amenaza para la vida cuando los médicos y los pacientes aceptan afirmaciones falsas sobre tratamientos médicos; y los estudios no válidos pueden influir erróneamente en las políticas públicas. Cada año aparecen más revistas depredadoras de este tipo. En 2008, Jeffrey Beall , un bibliotecario de la Universidad de Colorado , elaboró una lista de revistas depredadoras que fue actualizando durante varios años. [170]
Naomi Oreskes sostiene que, "para poner fin a las prácticas depredadoras, las universidades y otras instituciones de investigación necesitan encontrar formas de corregir los incentivos que llevan a los académicos a priorizar la cantidad de publicaciones... Establecer un límite máximo en la cantidad de artículos que los comités de contratación o financiación pueden considerar podría ayudar... como también podría ayudar dar menos importancia a la cantidad de citas que recibe un autor. Después de todo, el propósito de la ciencia no es simplemente producir artículos. Es producir artículos que nos digan algo veraz y significativo sobre el mundo". [171]
El incentivo perverso de “publicar o morir” se ve a menudo facilitado por la invención de datos . Un ejemplo clásico son los resultados de los estudios con gemelos idénticos de Cyril Burt , que –poco después de su muerte– se descubrió que se basaban en datos inventados.
Escribe Gideon Lewish-Kraus:
"Una de las cosas que confunden a las ciencias sociales es que la evidencia observacional sólo puede producir correlaciones . [Por ejemplo, ¿hasta qué punto la deshonestidad [que es el tema de varios estudios de las ciencias sociales] es una cuestión de carácter , y hasta qué punto una cuestión de situación? La mala conducta en la investigación a veces se justifica con incentivos : los requisitos de publicación para el mercado laboral , o el reconocimiento que puede llevar a honorarios por consultoría y apariciones en Davos . [...] Las diferencias entre el p-hacking y el fraude son de grado. Y una vez que se vuelve habitual dentro de un campo inflar los resultados, el campo selecciona a los investigadores inclinados a hacerlo". [172]
Joe Simmons, profesor de ciencias del comportamiento , escribe:
“Un campo no puede recompensar la verdad si no la descifra o no puede descifrarla, por lo que recompensa otras cosas en su lugar: interés, novedad , velocidad, impacto y fantasía. Y castiga eficazmente lo opuesto: hallazgos intuitivos , progreso incremental, interés, curiosidad y realidad ”. [173]
Naomi Oreskes, historiadora de la ciencia de la Universidad de Harvard, escribe que un tema del Foro Económico Mundial de 2024 en Davos, Suiza , fue la "necesidad percibida de 'acelerar los avances en investigación y tecnología'". [174]
“En los últimos años”, escribe Oreskes, “se han retractado artículos importantes, escritos por científicos destacados y publicados en revistas prestigiosas, debido a datos o métodos cuestionables”. Por ejemplo, la reunión de Davos tuvo lugar después de las renuncias (debido a artículos académicos cuestionables) en 2023 del presidente de la Universidad de Stanford, Marc Tessier-Lavigne, y, en 2024, de la presidenta de la Universidad de Harvard, Claudine Gay . “En un caso interesante, Frances H. Arnold , del Instituto Tecnológico de California , que compartió el Premio Nobel de Química de 2018 , se retractó voluntariamente de un artículo cuando su laboratorio no pudo replicar sus resultados, pero después de que el artículo ya se había publicado”. Es probable que este tipo de incidentes, sugiere Oreskes, erosionen la confianza pública en la ciencia y en los expertos en general. [175]
Los académicos de las principales universidades de Estados Unidos y Europa están sujetos a incentivos perversos para producir resultados –y muchos de ellos– rápidamente . Un estudio ha calculado que el número de artículos publicados por científicos y otros académicos alrededor de 2023 será de más de siete millones al año, en comparación con menos de un millón en 1980. Otro estudio encontró que 265 autores –dos tercios en las ciencias médicas y de la vida– publicaron en promedio un artículo cada cinco días . [176]
"La buena ciencia [y la erudición requieren] tiempo", escribe Oreskes. "Pasaron más de 50 años entre la publicación en 1543 de la obra magna de Copérnico ... y la amplia aceptación científica del modelo heliocéntrico ... Pasó casi un siglo entre la identificación de la molécula de ADN por parte del bioquímico Friedrich Miescher y la sugerencia de que podría estar involucrada en la herencia y la elucidación de su estructura de doble hélice en la década de 1950. Y se necesitó casi medio siglo para que los geólogos y geofísicos aceptaran la idea de la deriva continental del geofísico Alfred Wegener ". [177]