stringtranslate.com

Crisis de replicación

primera página del trabajo de investigación
Ioannidis (2005): " Por qué la mayoría de los resultados de las investigaciones publicadas son falsos ". [1]

La crisis de replicación (también llamada crisis de replicabilidad y crisis de reproducibilidad ) es una crisis metodológica continua en la que los resultados de muchos estudios científicos son difíciles o imposibles de reproducir . Debido a que la reproducibilidad de los resultados empíricos es una parte esencial del método científico , [2] tales fallas socavan la credibilidad de las teorías que se basan en ellos y potencialmente ponen en duda partes sustanciales del conocimiento científico.

La crisis de replicación se discute con frecuencia en relación con la psicología y la medicina , donde se han realizado esfuerzos considerables para volver a investigar los resultados clásicos, para determinar si son confiables y, si no lo son, las razones del fracaso. [3] [4] Los datos indican claramente que otras ciencias naturales y sociales también se ven afectadas. [5]

La frase crisis de replicación se acuñó a principios de la década de 2010 [6] como parte de una creciente conciencia del problema. Las consideraciones sobre causas y remedios han dado lugar a una nueva disciplina científica, la metaciencia , [7] que utiliza métodos de investigación empírica para examinar la práctica de la investigación empírica.

Las consideraciones sobre la reproducibilidad se dividen en dos categorías. La reproducibilidad en sentido estricto se refiere a reexaminar y validar el análisis de un conjunto determinado de datos. La replicación se refiere a repetir el experimento o estudio para obtener datos nuevos e independientes con el objetivo de llegar a conclusiones iguales o similares.

Fondo

La replicación ha sido llamada "la piedra angular de la ciencia". [8] [9] El científico de salud ambiental Stefan Schmidt comenzó una revisión de 2009 con esta descripción de la replicación:

La replicación es una de las cuestiones centrales en cualquier ciencia empírica. Confirmar resultados o hipótesis mediante un procedimiento de repetición está en la base de cualquier concepción científica. Un experimento de replicación para demostrar que cualquier otro investigador puede obtener los mismos hallazgos en cualquier otro lugar se concibe como una operacionalización de la objetividad. Es la prueba de que el experimento refleja un conocimiento que puede separarse de las circunstancias específicas (como el tiempo, el lugar o las personas) bajo las cuales se obtuvo. [10]

Pero existe un consenso limitado sobre cómo definir la replicación y los conceptos potencialmente relacionados. [11] [12] [10] Se han identificado varios tipos de replicación:

  1. Replicación directa o exacta , donde se repite un procedimiento experimental lo más fielmente posible. [10] [13]
  2. Replicación sistemática , donde un procedimiento experimental se repite en gran medida, con algunos cambios intencionales. [13]
  3. Replicación conceptual , donde un hallazgo o hipótesis se prueba mediante un procedimiento diferente. [10] [13] La replicación conceptual permite probar la generalización y veracidad de un resultado o hipótesis. [13]

La reproducibilidad también se puede distinguir de la replicación , en cuanto se refiere a reproducir los mismos resultados utilizando el mismo conjunto de datos. La reproducibilidad de este tipo es la razón por la que muchos investigadores ponen sus datos a disposición de otros para que los prueben. [14]

La crisis de replicación no significa necesariamente que estos campos no sean científicos. [15] [16] [17] Más bien, este proceso es parte del proceso científico en el que se podan ideas antiguas o aquellas que no pueden resistir un escrutinio cuidadoso, [18] [19] aunque este proceso de poda no siempre es efectivo. [20] [21]

Generalmente se considera que una hipótesis está respaldada cuando los resultados coinciden con el patrón previsto y se determina que ese patrón de resultados es estadísticamente significativo . Los resultados se consideran significativos siempre que la frecuencia relativa del patrón observado cae por debajo de un valor elegido arbitrariamente (es decir, el nivel de significancia ) al asumir que la hipótesis nula es verdadera. Esto generalmente responde a la pregunta de qué tan improbables serían los resultados si no existiera ninguna diferencia a nivel de la población estadística . Si la probabilidad asociada con la estadística de prueba excede el valor crítico elegido , los resultados se consideran estadísticamente significativos. [22] La probabilidad correspondiente de exceder el valor crítico se representa como p  < 0,05, donde p (normalmente denominado " valor p ") es el nivel de probabilidad. Esto debería dar como resultado que el 5% de las hipótesis respaldadas sean falsos positivos (una hipótesis incorrecta se considera correcta por error), suponiendo que los estudios cumplan con todos los supuestos estadísticos. Algunos campos utilizan valores p más pequeños, como p  < 0,01 (1 % de probabilidad de un falso positivo) o p  < 0,001 (0,1 % de probabilidad de un falso positivo). Pero una menor probabilidad de un falso positivo a menudo requiere tamaños de muestra mayores o una mayor probabilidad de un falso negativo (una hipótesis correcta se considera erróneamente incorrecta) . Aunque la prueba del valor p es el método más utilizado, no es el único.

Historia

El comienzo de la crisis de replicación se remonta a una serie de acontecimientos ocurridos a principios de la década de 2010. El filósofo de la ciencia y epistemólogo social Felipe Romero identificó cuatro eventos que pueden considerarse precursores de la crisis actual: [23]

Esta serie de eventos generó un gran escepticismo sobre la validez de la investigación existente a la luz de fallas metodológicas generalizadas y fallas para replicar los hallazgos. Esto llevó a destacados académicos a declarar una "crisis de confianza" en la psicología y otros campos, [39] y la situación resultante llegó a conocerse como la "crisis de replicación".

Aunque el comienzo de la crisis de replicación se remonta a principios de la década de 2010, algunos autores señalan que las preocupaciones sobre la replicabilidad y las prácticas de investigación en las ciencias sociales se habían expresado mucho antes. Romero señala que los autores expresaron su preocupación por la falta de replicaciones directas en la investigación psicológica a finales de los años 1960 y principios de los 1970. [40] [41] También escribe que ciertos estudios en la década de 1990 ya informaban que los editores y revisores de revistas generalmente están predispuestos a no publicar estudios de replicación. [42] [43]

En las ciencias sociales, al blog Data Colada (cuyos tres autores acuñaron el término " p-hacking " en un artículo de 2014) se le atribuye haber contribuido al inicio de la crisis de replicación. [44] [45] [46]

Barbara A. Spellman , profesora y psicóloga cognitiva de la Universidad de Virginia, ha escrito que muchas críticas a las prácticas de investigación y las preocupaciones sobre la replicabilidad de la investigación no son nuevas. [47] Ella informa que entre finales de la década de 1950 y la década de 1990, los académicos ya expresaban preocupaciones sobre una posible crisis de replicación, [48] una tasa sospechosamente alta de hallazgos positivos, [49] prácticas de investigación cuestionables (QRP), [50] los efectos del sesgo de publicación, [51] problemas con el poder estadístico, [52] [53] y los malos estándares de presentación de informes. [48]

Spellman también identifica razones por las que la reiteración de estas críticas y preocupaciones en los últimos años condujo a una crisis en toda regla y a desafíos al status quo. En primer lugar, las mejoras tecnológicas facilitaron la realización y difusión de estudios de replicación y el análisis de grandes cantidades de literatura en busca de problemas sistémicos. En segundo lugar, el tamaño y la diversidad cada vez mayores de la comunidad de investigación hicieron que el trabajo de los miembros establecidos fuera más fácilmente examinado por otros miembros de la comunidad que no estaban familiarizados con ellos. Según Spellman, estos factores, junto con recursos cada vez más limitados e incentivos desalineados para realizar trabajo científico, llevaron a una crisis en la psicología y otros campos. [47]

Predominio

en psicología

Varios factores se han combinado para poner la psicología en el centro de la conversación. [54] [55] Algunas áreas de la psicología que alguna vez se consideraron sólidas, como la preparación social , han sido objeto de un mayor escrutinio debido a replicaciones fallidas. [56] Gran parte de la atención se ha centrado en el área de la psicología social , [57] aunque otras áreas de la psicología como la psicología clínica , [58] [59] [60] la psicología del desarrollo , [61] [62] [63] y la investigación educativa también han estado implicadas. [64] [65] [66] [67] [68]

En agosto de 2015 se publicó el primer estudio empírico abierto sobre reproducibilidad en psicología, denominado The Reproducibility Project: Psychology . Coordinados por el psicólogo Brian Nosek , los investigadores rehicieron 100 estudios en ciencia psicológica de tres revistas de psicología de alto rango ( Journal of Personality and Social Psychology , Journal of Experimental Psychology: Learning, Memory, and Cognition , y Psychoological Science ). 97 de los estudios originales tuvieron efectos significativos, pero de esos 97, sólo el 36% de las replicaciones arrojaron resultados significativos ( valor de p inferior a 0,05). [11] El tamaño medio del efecto en las replicaciones fue aproximadamente la mitad de la magnitud de los efectos informados en los estudios originales. El mismo artículo examinó las tasas de reproducibilidad y los tamaños del efecto por revista y disciplina. Las tasas de replicación del estudio fueron del 23 % para el Journal of Personality and Social Psychology , del 48 % para el Journal of Experimental Psychology: Learning, Memory, and Cognition y del 38 % para Psychological Science . Los estudios en el campo de la psicología cognitiva tuvieron una tasa de replicación más alta (50%) que los estudios en el campo de la psicología social (25%). [69]

Un estudio publicado en 2018 en Nature Human Behavior replicó 21 artículos de ciencias sociales y del comportamiento de Nature and Science y descubrió que solo alrededor del 62 % podía reproducir con éxito los resultados originales. [70] [71]

De manera similar, en un estudio realizado bajo los auspicios del Centro de Ciencia Abierta , un equipo de 186 investigadores de 60 laboratorios diferentes (que representan 36 nacionalidades diferentes de seis continentes diferentes) realizaron replicaciones de 28 hallazgos clásicos y contemporáneos en psicología. [72] [73] El enfoque del estudio no fue solo si los hallazgos de los artículos originales se replicaban, sino también el grado en que los hallazgos variaban en función de las variaciones en las muestras y los contextos. En general, el 50% de los 28 hallazgos no lograron replicarse a pesar del tamaño masivo de las muestras. Pero si un hallazgo se replicó, entonces se replicó en la mayoría de las muestras. Si un hallazgo no se replicó, entonces no se pudo replicar con poca variación entre muestras y contextos. Esta evidencia es inconsistente con una explicación propuesta de que las fallas en la replicación en psicología probablemente se deben a cambios en la muestra entre el estudio original y el de replicación. [73]

Los resultados de un estudio de 2022 sugieren que muchos estudios anteriores de fenotipo cerebral ("estudios de asociación de todo el cerebro" (BWAS)) produjeron conclusiones no válidas, ya que la replicación de dichos estudios requiere muestras de miles de individuos debido a los tamaños de efecto pequeños . [74] [75]

En medicina

Gráfico de resultados y barreras. Se diseñaron 193 experimentos, se iniciaron 87 y se completaron 50.
Los resultados del Proyecto de Reproducibilidad: Biología del Cáncer sugieren que la mayoría de los estudios del sector de investigación del cáncer pueden no ser replicables.

De 49 estudios médicos realizados entre 1990 y 2003 con más de 1.000 citas, el 92% encontró que las terapias estudiadas eran efectivas. De estos estudios, el 16% fueron contradichos por estudios posteriores, el 16% había encontrado efectos más fuertes que los estudios posteriores, el 44% fueron replicados y el 24% permaneció en gran medida sin cuestionamientos. [76] Un análisis realizado en 2011 por investigadores de la compañía farmacéutica Bayer encontró que, como máximo, una cuarta parte de los hallazgos internos de Bayer replicaban los resultados originales. [77] Pero el análisis de los resultados de Bayer encontró que los resultados que se replicaban a menudo podían usarse con éxito para aplicaciones clínicas. [78]

En un artículo de 2012, C. Glenn Begley , consultor de biotecnología que trabaja en Amgen , y Lee Ellis, investigador médico de la Universidad de Texas, descubrieron que solo el 11 % de 53 estudios preclínicos sobre el cáncer tenían réplicas que pudieran confirmar las conclusiones del estudio. estudios originales. [79] A finales de 2021, The Reproducibility Project: Cancer Biology examinó 53 artículos importantes sobre el cáncer publicados entre 2010 y 2012 y demostró que entre los estudios que proporcionaron información suficiente para rehacerse, los tamaños del efecto fueron un 85% más pequeños en promedio que los hallazgos originales. . [80] [81] Una encuesta realizada a investigadores del cáncer encontró que la mitad de ellos no habían podido reproducir un resultado publicado. [82] Otro informe estimó que casi la mitad de los ensayos controlados aleatorios contenían datos erróneos (según el análisis de datos anonimizados de participantes individuales (IPD) de más de 150 ensayos). [83]

En otras disciplinas

En economía

La economía se ha quedado atrás de otras ciencias sociales y de la psicología en sus intentos de evaluar las tasas de replicación y aumentar el número de estudios que intentan replicar. [12] Un estudio de 2016 en la revista Science replicó 18 estudios experimentales publicados en dos revistas económicas líderes, The American Economic Review y Quarterly Journal of Economics , entre 2011 y 2014. Encontró que alrededor del 39% no logró reproducir los resultados originales. [84] [85] [86] Alrededor del 20% de los estudios publicados en The American Economic Review se contradicen con otros estudios a pesar de basarse en conjuntos de datos iguales o similares. [87] Un estudio de hallazgos empíricos en el Strategic Management Journal encontró que alrededor del 30% de 27 artículos reevaluados mostraron resultados estadísticamente insignificantes para hallazgos previamente significativos, mientras que alrededor del 4% mostró resultados estadísticamente significativos para hallazgos previamente insignificantes. [88]

En la gestión de recursos hídricos

Un estudio de 2019 en Scientific Data estimó con un 95% de confianza que de 1.989 artículos sobre recursos y gestión del agua publicados en 2017, los resultados del estudio podrían reproducirse solo entre un 0,6% y un 6,8%, incluso si cada uno de estos artículos proporcionara información suficiente que permitiera para replicación. [89]

A través de campos

Una encuesta realizada en 2016 por Nature a 1.576 investigadores que respondieron un breve cuestionario en línea sobre reproducibilidad encontró que más del 70% de los investigadores han intentado y no han logrado reproducir los resultados del experimento de otro científico (incluido el 87% de los químicos , el 77% de los biólogos , el 69% de los físicos) . e ingenieros , 67% de los investigadores médicos , 64% de los científicos terrestres y ambientales , y 62% de todos los demás), y más de la mitad no han logrado reproducir sus propios experimentos. Pero menos del 20% había sido contactado por otro investigador incapaz de reproducir su trabajo. La encuesta encontró que menos del 31% de los investigadores cree que no reproducir los resultados significa que el resultado original probablemente sea incorrecto, aunque el 52% está de acuerdo en que existe una crisis de replicación significativa. La mayoría de los investigadores dijeron que todavía confían en la literatura publicada. [5] [90] En 2010, Fanelli (2010) [91] encontró que el 91,5% de los estudios de psiquiatría/psicología confirmaron los efectos que estaban buscando, y concluyó que las probabilidades de que esto sucediera (un resultado positivo) eran alrededor de cinco veces más altos que en campos como la astronomía o las geociencias . Fanelli argumentó que esto se debe a que los investigadores de ciencias "más blandas" tienen menos limitaciones a sus sesgos conscientes e inconscientes.

Un análisis inicial de la revisión por pares ciega a los resultados , que se ve menos afectada por el sesgo de publicación, ha estimado que el 61% de los estudios ciegos a los resultados en biomedicina y psicología han dado resultados nulos , en contraste con un estimado del 5% al ​​20% en investigaciones anteriores. . [92]

Causas

La crisis de replicación puede ser desencadenada por la "generación de nuevos datos y publicaciones científicas a un ritmo sin precedentes" que conduce a la "desesperación por publicar o perecer" y al incumplimiento de las buenas prácticas científicas. [93]

Raíces históricas y sociológicas

Las predicciones de una crisis inminente en el mecanismo de control de calidad de la ciencia se remontan a varias décadas atrás. Derek de Solla Price —considerado el padre de la cienciometría , el estudio cuantitativo de la ciencia— predijo en 1963 que la ciencia podría alcanzar la "senilidad" como resultado de su propio crecimiento exponencial. [94] Parte de la literatura actual parece reivindicar esta profecía de "desbordamiento", lamentando la decadencia tanto de la atención como de la calidad. [95] [96]

El historiador Philip Mirowski sostiene que la disminución de la calidad científica puede estar relacionada con su mercantilización, especialmente impulsada por la decisión, impulsada por las ganancias, de las grandes corporaciones de subcontratar su investigación a universidades y organizaciones de investigación por contrato . [97]

La teoría de los sistemas sociales , tal como la expone el sociólogo alemán Niklas Luhmann , inspira un diagnóstico similar. Esta teoría sostiene que cada sistema, como la economía, la ciencia, la religión o los medios, se comunica utilizando su propio código: verdadero y falso para la ciencia, ganancias y pérdidas para la economía, noticias y no noticias para los medios, etc. [98] [99] Según algunos sociólogos, la mediatización de la ciencia , [100] su mercantilización [97] y su politización, [100] [101] como resultado del acoplamiento estructural entre sistemas, han llevado a una confusión del concepto original. códigos del sistema.

Problemas con el sistema de publicación en ciencia.

El sesgo de publicación

Una de las principales causas de la baja reproducibilidad es el sesgo de publicación que surge del hecho de que rara vez se publican resultados estadísticamente no significativos y réplicas aparentemente no originales. Sólo una proporción muy pequeña de revistas académicas de psicología y neurociencias acogió explícitamente la presentación de estudios de replicación en su objetivo y alcance o instrucciones a los autores. [102] [103] Esto no fomenta la presentación de informes sobre estudios de replicación, ni siquiera los intentos de realizarlos. Entre los 1.576 investigadores que Nature encuestó en 2016, solo una minoría había intentado alguna vez publicar una réplica, y varios encuestados que habían publicado réplicas fallidas señalaron que los editores y revisores exigieron que restaran importancia a las comparaciones con los estudios originales. [5] [90] Un análisis de 4.270 estudios empíricos en 18 revistas de negocios entre 1970 y 1991 informó que menos del 10% de los artículos de contabilidad, economía y finanzas y el 5% de los artículos de gestión y marketing eran estudios de replicación. [84] [104] El sesgo de publicación se ve aumentado por la presión para publicar y el sesgo de confirmación del propio autor , [a] y es un peligro inherente en el campo, que requiere un cierto grado de escepticismo por parte de los lectores. [38]

El sesgo de publicación conduce a lo que el psicólogo Robert Rosenthal llama el " efecto archivador ". El efecto cajón de archivos es la idea de que, como consecuencia del sesgo de publicación, un número importante de resultados negativos [b] no se publican. Según el filósofo de la ciencia Felipe Romero, esto tiende a producir "literatura engañosa y estudios metaanalíticos sesgados", [23] y cuando se considera el sesgo de publicación junto con el hecho de que la mayoría de las hipótesis probadas podrían ser falsas a priori , es Es posible que una proporción considerable de los resultados de la investigación sean falsos positivos, como lo demuestra el metacientífico John Ioannidis. [1] A su vez, una alta proporción de falsos positivos en la literatura publicada puede explicar por qué muchos hallazgos no son reproducibles. [23]

Cultura de "publicar o perecer"

Las consecuencias para la replicabilidad del sesgo de publicación se ven exacerbadas por la cultura académica de "publicar o perecer". Como explica el metacientífico Daniele Fanelli, la cultura de "publicar o perecer" es un aspecto sociológico de la academia en el que los científicos trabajan en un entorno con una presión muy alta para que sus trabajos se publiquen en revistas reconocidas. Esto es consecuencia de que el ambiente de trabajo académico es hipercompetitivo y de que los parámetros bibliométricos (por ejemplo, número de publicaciones) se utilizan cada vez más para evaluar las carreras científicas. [106] Según Fanelli, esto empuja a los científicos a emplear una serie de estrategias destinadas a hacer que los resultados sean "publicables". En el contexto del sesgo de publicación, esto puede significar adoptar comportamientos destinados a hacer que los resultados sean positivos o estadísticamente significativos, a menudo a expensas de su validez (ver QRP, sección 4.3). [106]

Según Brian Nosek, fundador del Centro para la Ciencia Abierta, y sus colegas, la cultura de "publicar o perecer" creó una situación en la que los objetivos y valores de los científicos individuales (por ejemplo, la publicabilidad) no están alineados con los objetivos generales de la ciencia (por ejemplo, la búsqueda de la verdad científica). ). Esto va en detrimento de la validez de los hallazgos publicados. [107]

El filósofo Brian D. Earp y el psicólogo Jim AC Everett sostienen que, aunque la replicación beneficia a los académicos e investigadores como grupo, las características de la cultura psicológica académica desalientan la replicación por parte de investigadores individuales. Argumentan que realizar replicaciones puede llevar mucho tiempo y restar recursos a proyectos que reflejan el pensamiento original del investigador. Son más difíciles de publicar, en gran parte porque no son originales, e incluso cuando pueden publicarse es poco probable que sean vistos como contribuciones importantes al campo. Las réplicas "traen menos reconocimiento y recompensa, incluido el dinero en forma de subvenciones, a sus autores". [108]

En su libro de 1971 El conocimiento científico y sus problemas sociales , el filósofo e historiador de la ciencia Jerome R. Ravetz predijo que la ciencia—en su progresión desde la "pequeña" ciencia compuesta por comunidades aisladas de investigadores a la "gran" ciencia o "tecnociencia"— sufriría importantes problemas en su sistema interno de control de calidad. Reconoció que la estructura de incentivos para los científicos modernos podría volverse disfuncional, creando incentivos perversos para publicar cualquier hallazgo, por dudoso que fuera. Según Ravetz, la calidad en la ciencia se mantiene sólo cuando existe una comunidad de académicos, unidos por un conjunto de normas y estándares compartidos, que estén dispuestos y sean capaces de responsabilizarse mutuamente.

Estándares de presentación de informes

Ciertas prácticas editoriales también dificultan la realización de replicaciones y el seguimiento de la gravedad de la crisis de reproducibilidad, ya que los artículos a menudo vienen con descripciones insuficientes para que otros académicos reproduzcan el estudio. El Proyecto de Reproducibilidad: Biología del Cáncer mostró que de 193 experimentos de 53 artículos destacados sobre el cáncer publicados entre 2010 y 2012, solo 50 experimentos de 23 artículos tienen autores que proporcionaron suficiente información para que los investigadores rehicieran los estudios, a veces con modificaciones. Ninguno de los 193 artículos examinados tenía sus protocolos experimentales completamente descritos y para replicar el 70% de los experimentos fue necesario solicitar reactivos clave. [80] [81] El estudio antes mencionado de hallazgos empíricos en el Strategic Management Journal encontró que el 70% de 88 artículos no pudieron replicarse debido a la falta de información suficiente para los datos o procedimientos. [84] [88] En recursos hídricos y gestión , la mayoría de los 1987 artículos publicados en 2017 no fueron replicables debido a la falta de información disponible compartida en línea. [89]

Prácticas de investigación cuestionables y fraude

Las prácticas de investigación cuestionables (QRP) son comportamientos intencionales que aprovechan el área gris del comportamiento científico aceptable o explotan los grados de libertad del investigador (DF del investigador), lo que puede contribuir a la irreproducibilidad de los resultados al aumentar la probabilidad de resultados falsos positivos. [109] [110] [38] Los investigadores DF se ven en la formulación de hipótesis , el diseño de experimentos , la recopilación y análisis de datos y la presentación de informes de investigaciones . [110] Algunos ejemplos de QRP son el dragado de datos , [110] [111] [37] [c] informes selectivos , [109] [110] [111] [37] [d] y HARKing (formular hipótesis después de que se conocen los resultados) . [110] [111] [37] [e] En medicina, los estudios irreproducibles tienen seis características en común. Estos incluyen que los investigadores no estén cegados a los brazos experimentales versus los de control, no repetir los experimentos, falta de controles positivos y negativos , no informar todos los datos, uso inadecuado de pruebas estadísticas y uso de reactivos que no fueron validados adecuadamente. . [113]

Los QRP no incluyen violaciones más explícitas de la integridad científica, como la falsificación de datos. [109] [110] Se producen investigaciones fraudulentas, como en el caso del fraude científico realizado por el psicólogo social Diederik Stapel , [114] [13] el psicólogo cognitivo Marc Hauser y el psicólogo social Lawrence Sanna, [13] pero parece ser poco común. [13]

Predominio

Según el profesor de IU Ernest O'Boyle y el psicólogo Martin Götz, alrededor del 50% de los investigadores encuestados en varios estudios admitieron haber realizado HARKing. [115] En una encuesta de 2.000 psicólogos realizada por el científico del comportamiento Leslie K. John y sus colegas, alrededor del 94% de los psicólogos admitieron haber empleado al menos un QRP. Más específicamente, el 63% admitió no haber informado todas las medidas dependientes de un estudio, el 28% haber informado todas las condiciones de un estudio y el 46% haber informado selectivamente los estudios que produjeron el patrón de resultados deseado. Además, el 56% admitió haber recopilado más datos después de haber inspeccionado los datos ya recopilados, y el 16% haber detenido la recopilación de datos porque el resultado deseado ya era visible. [37] Según la estimación del investigador de biotecnología J. Leslie Glick en 1992, entre el 10% y el 20% de los estudios de investigación y desarrollo involucraban QRP o fraude directo. [116] La metodología utilizada para estimar los QRP ha sido cuestionada y estudios más recientes sugirieron tasas de prevalencia más bajas en promedio. [117]

Un metaanálisis de 2009 encontró que el 2% de los científicos de todos los campos admitieron haber falsificado estudios al menos una vez y el 14% admitió conocer a alguien que lo hizo. Según un estudio, los investigadores médicos denunciaron con mayor frecuencia que otros investigadores médicos estas conductas indebidas. [118]

Cuestiones estadísticas

Bajo poder estadístico

Según el profesor de la Universidad Deakin, Tom Stanley, y sus colegas, una razón plausible por la que los estudios no logran replicarse es el bajo poder estadístico . Esto sucede por tres razones. En primer lugar, es poco probable que un estudio de replicación con bajo poder estadístico tenga éxito ya que, por definición, tiene una baja probabilidad de detectar un efecto verdadero. En segundo lugar, si el estudio original tiene un poder estadístico bajo, producirá estimaciones sesgadas del tamaño del efecto . Al realizar un análisis de potencia a priori para el estudio de replicación, esto dará como resultado una subestimación del tamaño de muestra requerido. En tercer lugar, si el estudio original tiene un poder estadístico bajo, las probabilidades posteriores al estudio de que un hallazgo estadísticamente significativo refleje un efecto real son bastante bajas. Por lo tanto, es probable que un intento de replicar el estudio original fracase. [14]

Stanley y sus colegas estimaron el poder estadístico promedio de la literatura psicológica analizando datos de 200 metanálisis . Descubrieron que, en promedio, los estudios de psicología tienen entre 33,1% y 36,4% de poder estadístico. Estos valores son bastante bajos en comparación con el 80% que se considera poder estadístico adecuado para un experimento. En los 200 metanálisis, la mediana de los estudios con poder estadístico adecuado estuvo entre el 7,7% y el 9,1%. [14]

En un estudio publicado en Nature , la psicóloga Katherine Button y sus colegas realizaron un estudio similar con 49 metanálisis en neurociencia, estimando un poder estadístico medio del 21%. [119] El metacientífico John Ioannidis y sus colegas calcularon una estimación del poder promedio para la investigación económica empírica, encontrando un poder medio del 18% basándose en la literatura basada en 6.700 estudios. [120] A la luz de estos resultados, es posible que una de las principales razones de los fracasos generalizados en la replicación en varios campos científicos pueda ser un poder estadístico muy bajo en promedio.

Heterogeneidad estadística

Como también informaron Stanley y sus colegas, otra razón por la que los estudios podrían no replicarse es la alta heterogeneidad de los efectos que se van a replicar. En el metanálisis, la "heterogeneidad" se refiere a la variación en los resultados de la investigación que resulta de que no existe un tamaño de efecto único y verdadero. En cambio, es mejor considerar los hallazgos en tales casos como una distribución de efectos verdaderos. [14] La heterogeneidad estadística se calcula utilizando la estadística I-cuadrado, [121] definida como "la proporción (o porcentaje) de variación observada entre los tamaños del efecto informados que no puede explicarse por los errores estándar calculados asociados con estos tamaños del efecto informados". [14] Esta variación puede deberse a diferencias en los métodos experimentales, poblaciones, cohortes y métodos estadísticos entre los estudios de replicación. La heterogeneidad plantea un desafío para los estudios que intentan replicar los tamaños del efecto encontrados anteriormente . Cuando la heterogeneidad es alta, las replicaciones posteriores tienen una alta probabilidad de encontrar un tamaño del efecto radicalmente diferente al del estudio original. [F]

Es importante destacar que también se encuentran niveles significativos de heterogeneidad en las replicaciones directas/exactas de un estudio. Stanley y sus colegas discuten esto mientras informan sobre un estudio realizado por el científico cuantitativo del comportamiento Richard Klein y sus colegas, donde los autores intentaron replicar 15 efectos psicológicos en 36 sitios diferentes en Europa y los EE. UU. En el estudio, Klein y sus colegas encontraron cantidades significativas de heterogeneidad en 8 de 16 efectos (I-cuadrado = 23% a 91%). Es importante destacar que, si bien los sitios de replicación diferían intencionalmente en una variedad de características, tales diferencias podrían explicar muy poca heterogeneidad. Según Stanley y sus colegas, esto sugería que la heterogeneidad podría haber sido una característica genuina de los fenómenos investigados. Por ejemplo, los fenómenos podrían verse influenciados por los llamados "moderadores ocultos", factores relevantes que antes no se consideraban importantes en la producción de un determinado efecto.

En su análisis de 200 metanálisis de efectos psicológicos, Stanley y sus colegas encontraron un porcentaje medio de heterogeneidad de I-cuadrado = 74%. Según los autores, este nivel de heterogeneidad puede considerarse "enorme". Es tres veces mayor que la varianza del muestreo aleatorio de los tamaños del efecto medidos en su estudio. Si se considera junto con el error de muestreo , la heterogeneidad produce una desviación estándar de un estudio al siguiente incluso mayor que el tamaño del efecto mediano de los 200 metanálisis que investigaron. [g] Los autores concluyen que si la replicación se define mediante un estudio posterior que encuentra un tamaño del efecto suficientemente similar al original, el éxito de la replicación no es probable incluso si las replicaciones tienen tamaños de muestra muy grandes. Es importante destacar que esto ocurre incluso si las replicaciones son directas o exactas, ya que, no obstante, la heterogeneidad sigue siendo relativamente alta en estos casos.

Otros

En economía, la crisis de replicación también puede verse exacerbada porque los resultados econométricos son frágiles: [122] el uso de procedimientos de estimación o técnicas de preprocesamiento de datos diferentes pero plausibles puede conducir a resultados contradictorios. [123] [124] [125]

Sensibilidad al contexto

El profesor Jay Van Bavel de la Universidad de Nueva York y sus colegas sostienen que otra razón por la que los hallazgos son difíciles de replicar es la sensibilidad al contexto de ciertos efectos psicológicos. Desde este punto de vista, las fallas en la replicación podrían explicarse por diferencias contextuales entre el experimento original y la replicación, a menudo llamadas " moderadores ocultos ". [126] Van Bavel y sus colegas probaron la influencia de la sensibilidad al contexto volviendo a analizar los datos del ampliamente citado Proyecto de Reproducibilidad llevado a cabo por Open Science Collaboration. [11] Recodificaron los efectos según su sensibilidad a los factores contextuales y luego probaron la relación entre la sensibilidad al contexto y el éxito de la replicación en varios modelos de regresión .

Se encontró que la sensibilidad al contexto se correlacionaba negativamente con el éxito de la replicación, de modo que las calificaciones más altas de sensibilidad al contexto se asociaban con menores probabilidades de replicar un efecto. [h] Es importante destacar que la sensibilidad al contexto se correlacionó significativamente con el éxito de la replicación incluso al ajustar por otros factores considerados importantes para reproducir los resultados (por ejemplo, tamaño del efecto y tamaño de la muestra del original, poder estadístico de la replicación, similitud metodológica entre el original y la replicación). [i] A la luz de los resultados, los autores concluyeron que intentar una replicación en un tiempo, lugar diferente o con una muestra diferente puede alterar significativamente los resultados de un experimento. Por tanto, la sensibilidad al contexto puede ser una razón por la que ciertos efectos no logran replicarse en psicología. [126]

Tasa base de precisión de la hipótesis

Según el filósofo Alexander Bird, una posible razón de las bajas tasas de replicabilidad en ciertos campos científicos es que la mayoría de las hipótesis probadas son falsas a priori . [127] Desde este punto de vista, las bajas tasas de replicabilidad podrían ser consistentes con una ciencia de calidad. De manera relacionada, la expectativa de que la mayoría de los hallazgos deberían replicarse sería errónea y, según Bird, una forma de falacia de la tasa base. El argumento de Bird funciona de la siguiente manera. Suponiendo una situación ideal de una prueba de significancia, donde la probabilidad de rechazar incorrectamente la hipótesis nula es del 5% (es decir, error tipo I ) y la probabilidad de rechazar correctamente la hipótesis nula es del 80% (es decir, potencia ), en un contexto donde una Si una alta proporción de hipótesis probadas son falsas, es concebible que el número de falsos positivos sea alto en comparación con el de verdaderos positivos. [127] Por ejemplo, en una situación en la que sólo el 10% de las hipótesis probadas son realmente verdaderas, se puede calcular que hasta el 36% de los resultados serán falsos positivos. [j]

La afirmación de que la falsedad de la mayoría de las hipótesis probadas puede explicar las bajas tasas de replicabilidad es aún más relevante si se considera que el poder promedio de las pruebas estadísticas en ciertos campos podría ser mucho menor que el 80%. Por ejemplo, la proporción de falsos positivos aumenta a un valor entre 55,2% y 57,6% cuando se calcula con las estimaciones de una potencia promedio entre 34,1% y 36,4% para estudios de psicología, según lo proporcionado por Stanley y sus colegas en su análisis de 200 meta- análisis en el campo. [14] Una alta proporción de falsos positivos daría como resultado que muchos hallazgos de la investigación no fueran replicables.

Bird señala que la afirmación de que la mayoría de las hipótesis probadas son falsas a priori en ciertos campos científicos podría ser plausible dados factores como la complejidad de los fenómenos investigados, el hecho de que las teorías rara vez son indiscutibles, la "distancia inferencial" entre teorías y hipótesis y la facilidad con la que se pueden generar hipótesis. En este sentido, los campos que Bird toma como ejemplo son la medicina clínica, la epidemiología genética y molecular y la psicología social. Esta situación es radicalmente diferente en campos donde las teorías tienen una base empírica sobresaliente y las hipótesis pueden derivarse fácilmente de las teorías (por ejemplo, la física experimental). [127]

Consecuencias

Cuando los efectos se declaran erróneamente como relevantes en la literatura, no detectarlos mediante replicación conducirá a la canonización de dichos hechos falsos. [128]

Un estudio de 2021 encontró que los artículos de las principales revistas de interés general, psicología y economía con hallazgos que no se pudieron replicar tienden a citarse más con el tiempo que los artículos de investigación reproducibles, probablemente porque estos resultados son sorprendentes o interesantes. La tendencia no se ve afectada por la publicación de reproducciones fallidas, después de lo cual sólo el 12% de los artículos que citan la investigación original mencionarán la replicación fallida. [129] [130] Además, los expertos pueden predecir qué estudios serán replicables, lo que lleva a los autores del estudio de 2021, Marta Serra-García y Uri Gneezy , a concluir que los expertos aplican estándares más bajos a resultados interesantes al decidir si publicarlos. a ellos. [130]

Conciencia y percepciones públicas

Dentro de la comunidad científica se ha expresado preocupación de que el público en general pueda considerar la ciencia menos creíble debido a replicaciones fallidas. [131] La investigación que respalda esta preocupación es escasa, pero una encuesta representativa a nivel nacional en Alemania mostró que más del 75% de los alemanes no han oído hablar de fallas de replicación en la ciencia. [132] El estudio también encontró que la mayoría de los alemanes tienen percepciones positivas de los esfuerzos de replicación: solo el 18% piensa que la no replicabilidad muestra que no se puede confiar en la ciencia, mientras que el 65% piensa que la investigación de replicación muestra que la ciencia aplica control de calidad, y el 80% está de acuerdo que los errores y las correcciones son parte de la ciencia. [132]

Respuesta en el mundo académico

Mientras la crisis de replicación de la psicología ganaba atención, la psicóloga de la Universidad de Princeton Susan Fiske generó controversia por hablar en contra de los críticos de la psicología por lo que ella llamó intimidación y socavamiento de la ciencia. [133] [134] [135] [136] Llamó a estos "adversarios" no identificados nombres como "terroristas metodológicos" y "policía de datos autoproclamada", diciendo que las críticas a la psicología deben expresarse sólo en privado o contactando al revistas. [133] El estadístico y politólogo de la Universidad de Columbia, Andrew Gelman , respondió a Fiske, diciendo que ella se había encontrado dispuesta a tolerar el "paradigma muerto" de las estadísticas defectuosas y se había negado a retractarse de las publicaciones incluso cuando se señalaban errores. [133] Añadió que su mandato como editora había sido pésimo y que se descubrió que varios de los artículos publicados que editó se basaban en estadísticas extremadamente débiles; uno de los artículos publicados por el propio Fiske tenía un error estadístico importante y conclusiones "imposibles". [133]

Revolución de credibilidad

Algunos investigadores en psicología indican que la crisis de replicación es la base para una "revolución de la credibilidad", donde los cambios en los estándares mediante los cuales se evalúa la ciencia psicológica pueden incluir enfatizar la transparencia y la apertura, prerregistrar proyectos de investigación y replicar investigaciones con estándares más altos para que la evidencia mejore. la fuerza de las afirmaciones científicas. [137] Tales cambios pueden disminuir la productividad de los investigadores individuales, pero este efecto podría evitarse mediante el intercambio de datos y una mayor colaboración. [137] Una revolución de la credibilidad podría ser buena para el entorno de investigación. [138]

Remedios

Centrarse en la crisis de replicación ha llevado a renovados esfuerzos en psicología para volver a probar hallazgos importantes. [38] [139] Una edición especial de 2013 de la revista Social Psychology se centró en estudios de replicación. [12]

Se ha propuesto la estandarización y (exigencia) transparencia de los métodos estadísticos y experimentales utilizados. [140] La documentación cuidadosa de la configuración experimental se considera crucial para la replicabilidad de los experimentos y es posible que varias variables no estén documentadas ni estandarizadas, como las dietas de los animales en estudios con animales. [141]

Un artículo de 2016 de John Ioannidis detalla "Por qué la mayoría de las investigaciones clínicas no son útiles". [142] Ioannidis describe lo que él considera algunos de los problemas y pide reformas, caracterizando ciertos puntos para que la investigación médica vuelva a ser útil; un ejemplo que da es la necesidad de que la medicina se centre en el paciente (por ejemplo, en la forma del Instituto de Investigación de Resultados Centrados en el Paciente ) en lugar de que la práctica actual se ocupe principalmente de "las necesidades de los médicos, investigadores o patrocinadores".

Reforma en la publicación científica

metaciencia

La metaciencia es el uso de la metodología científica para estudiar la ciencia misma. Busca aumentar la calidad de la investigación científica y al mismo tiempo reducir el desperdicio. También se la conoce como "investigación sobre la investigación" y "la ciencia de la ciencia", ya que utiliza métodos de investigación para estudiar cómo se realiza la investigación y dónde se pueden realizar mejoras. La metaciencia se ocupa de todos los campos de investigación y se la ha llamado "una vista panorámica de la ciencia". [143] En palabras de Ioannidis, "La ciencia es lo mejor que le ha pasado a los seres humanos... pero podemos hacerlo mejor". [144]

Se siguen realizando metainvestigaciones para identificar las raíces de la crisis y abordarlas. Los métodos para abordar la crisis incluyen el registro previo de estudios científicos y ensayos clínicos , así como la fundación de organizaciones como CONSORT y la Red EQUATOR que emiten directrices para la metodología y la presentación de informes. Continúan los esfuerzos para reformar el sistema de incentivos académicos, mejorar el proceso de revisión por pares , reducir el uso indebido de las estadísticas , combatir el sesgo en la literatura científica y aumentar la calidad y eficiencia generales del proceso científico.

Presentación de la metodología

Algunos autores han argumentado que la comunicación insuficiente de los métodos experimentales contribuye de manera importante a la crisis de reproducibilidad y que una mejor presentación de informes sobre el diseño experimental y los análisis estadísticos mejoraría la situación. Estos autores tienden a abogar tanto por un amplio cambio cultural en la comunidad científica en la forma en que se consideran las estadísticas como por un impulso más coercitivo por parte de las revistas científicas y los organismos de financiación. [145] Pero se han planteado preocupaciones sobre la posibilidad de que las normas de transparencia y replicación se apliquen incorrectamente a estudios tanto cualitativos como cuantitativos. [146]

Las revistas de negocios y gestión que han introducido políticas editoriales sobre accesibilidad, replicación y transparencia de datos incluyen Strategic Management Journal , Journal of International Business Studies y Management and Organization Review . [84]

Revisión por pares ciega a los resultados

En respuesta a las preocupaciones en psicología sobre el sesgo de publicación y el dragado de datos , más de 140 revistas de psicología han adoptado la revisión por pares ciega a los resultados. En este enfoque, los estudios se aceptan no sobre la base de sus hallazgos y después de que se completen, sino antes de que se realicen y sobre la base del rigor metodológico de sus diseños experimentales, y las justificaciones teóricas de sus técnicas de análisis estadístico antes de los datos. se realiza la recopilación o el análisis. [147] El análisis inicial de este procedimiento ha estimado que el 61% de los estudios ciegos a los resultados han conducido a resultados nulos , en contraste con un estimado del 5% al ​​20% en investigaciones anteriores. [92] Además, las colaboraciones a gran escala entre investigadores que trabajan en múltiples laboratorios en diferentes países y que regularmente ponen sus datos a disposición de diferentes investigadores para que los evalúen se han vuelto mucho más comunes en psicología. [148]

Preinscripción de estudios

Las publicaciones científicas han comenzado a utilizar informes de prerregistro para abordar la crisis de replicación. [149] [150] El formato del informe registrado requiere que los autores envíen una descripción de los métodos y análisis del estudio antes de la recopilación de datos. Una vez que el método y el plan de análisis sean examinados mediante revisión por pares, se garantiza provisionalmente la publicación de los hallazgos, en función de si los autores siguen el protocolo propuesto. Uno de los objetivos de los informes registrados es evitar el sesgo de publicación hacia hallazgos importantes que pueden llevar a la implementación de prácticas de investigación cuestionables. Otra es fomentar la publicación de estudios con métodos rigurosos.

La revista Psychoological Science ha fomentado el prerregistro de estudios y la notificación de tamaños del efecto e intervalos de confianza. [151] El editor en jefe también señaló que el personal editorial solicitará la replicación de estudios con hallazgos sorprendentes de exámenes que utilicen tamaños de muestra pequeños antes de permitir que se publiquen los manuscritos.

Metadatos y herramientas digitales para el seguimiento de replicaciones.

Se ha sugerido que se necesita "una forma sencilla de comprobar con qué frecuencia se han repetido los estudios y si se confirman o no los hallazgos originales". [129] Las categorizaciones y calificaciones de reproducibilidad a nivel de estudio o resultados, así como la adición de enlaces y la calificación de confirmaciones de terceros, podrían ser realizadas por los revisores pares, la revista científica o los lectores en combinación con novelas. plataformas o herramientas digitales.

Reforma estadística

Requerir valores p más pequeños

Muchas publicaciones requieren un valor p de p  < 0,05 para afirmar que hay significancia estadística . El artículo "Redefinir la significancia estadística", [152] firmado por un gran número de científicos y matemáticos, propone que en "campos donde el umbral para definir la significancia estadística para nuevos descubrimientos es p  < 0,05, proponemos un cambio a p  < 0,005. Este simple paso mejoraría inmediatamente la reproducibilidad de la investigación científica en muchos campos". Su razonamiento es que "una de las principales causas de la no reproducibilidad (es que) los estándares estadísticos de evidencia para afirmar nuevos descubrimientos en muchos campos de la ciencia son simplemente demasiado bajos. Asociar hallazgos 'estadísticamente significativos' con p  < 0,05 da como resultado una tasa alta de falsos positivos incluso en ausencia de otros problemas experimentales, de procedimiento y de presentación de informes". [152]

Este llamamiento fue posteriormente criticado por otro grupo numeroso, que argumentó que "redefinir" el umbral no solucionaría los problemas actuales, daría lugar a algunos nuevos y que, al final, todos los umbrales debían justificarse caso por caso en lugar de siguiendo convenciones generales. [153]

Abordar la mala interpretación de los valores p

Aunque los estadísticos son unánimes en que el uso de " p  < 0,05" como estándar de significancia proporciona evidencia más débil de lo que generalmente se aprecia, hay una falta de unanimidad sobre lo que se debe hacer al respecto. Algunos han defendido que los métodos bayesianos deberían reemplazar los valores p . Esto no ha sucedido a gran escala, en parte porque es complicado y en parte porque muchos usuarios desconfían de la especificación de distribuciones anteriores en ausencia de datos concretos. El farmacólogo David Colquhoun sugirió una versión simplificada del argumento bayesiano, basada en probar una hipótesis punto nula . [154] [155] Los problemas lógicos de la inferencia inductiva se discutieron en "El problema con los valores p" (2016). [156]

Los peligros de confiar en los valores p surgen en parte porque incluso una observación de p  = 0,001 no es necesariamente una evidencia sólida contra la hipótesis nula. [155] A pesar de que el ratio de verosimilitud a favor de la hipótesis alternativa sobre la nula es cercano a 100, si la hipótesis fuera inverosímil, con una probabilidad previa de un efecto real de 0,1, incluso la observación de p  = 0,001 habría un riesgo de falso positivo del 8 por ciento. Aún así no lograría alcanzar el nivel del 5 por ciento.

Se recomendó que no se utilizaran los términos "significativo" y "no significativo". [155] Los valores p y los intervalos de confianza aún deben especificarse, pero deben ir acompañados de una indicación del riesgo de falso positivo. Se sugirió que la mejor manera de hacerlo es calcular la probabilidad previa que sería necesario creer para lograr un riesgo de falso positivo de un cierto nivel, como por ejemplo el 5%. Los cálculos se pueden realizar con varios programas informáticos. [155] [157] Este enfoque bayesiano inverso, que el físico Robert Matthews sugirió en 2001, [158] es una forma de evitar el problema de que la probabilidad previa rara vez se conoce.

Fomentar tamaños de muestra más grandes

Para mejorar la calidad de las replicaciones, a menudo se necesitan tamaños de muestra más grandes que los utilizados en el estudio original. [159] Se necesitan tamaños de muestra más grandes porque las estimaciones de los tamaños del efecto en los trabajos publicados a menudo se exageran debido al sesgo de publicación y la gran variabilidad de muestreo asociada con tamaños de muestra pequeños en un estudio original. [160] [161] [162] Además, el uso de umbrales de significancia generalmente conduce a efectos inflados, porque particularmente con tamaños de muestra pequeños, solo los efectos más grandes se volverán significativos. [163]

Esfuerzos de replicación

Fondos

En julio de 2016, la Organización Holandesa para la Investigación Científica puso a disposición 3 millones de euros para estudios de replicación. La financiación es para la replicación basada en el reanálisis de los datos existentes y la replicación mediante la recopilación y el análisis de nuevos datos. La financiación está disponible en las áreas de ciencias sociales, investigación sanitaria e innovación sanitaria. [164]

En 2013, la Fundación Laura y John Arnold financió el lanzamiento del Centro para la Ciencia Abierta con una subvención de 5,25 millones de dólares. En 2017, proporcionó 10 millones de dólares adicionales en financiación. [165] También financió el lanzamiento del Centro de Innovación Meta-Investigación en Stanford en la Universidad de Stanford dirigido por Ioannidis y el científico médico Steven Goodman para estudiar formas de mejorar la investigación científica. [165] También proporcionó financiación para la iniciativa AllTrials dirigida en parte por el científico médico Ben Goldacre . [165]

Énfasis en la educación postsecundaria

Basado en cursos sobre métodos experimentales en el MIT, Stanford y la Universidad de Washington , se ha sugerido que los cursos de métodos en psicología y otros campos deberían enfatizar los intentos de replicación en lugar de los estudios originales. [166] [167] [168] Este enfoque ayudaría a los estudiantes a aprender la metodología científica y proporcionaría numerosas replicaciones independientes de hallazgos científicos significativos que pondrían a prueba la replicabilidad de los hallazgos científicos. Algunos han recomendado que se exija a los estudiantes de posgrado que publiquen un intento de replicación de alta calidad sobre un tema relacionado con su investigación doctoral antes de graduarse. [169]

tesis de fin de año

Algunas instituciones exigen que los estudiantes de pregrado presenten una tesis de último año que consista en una investigación original. Daniel Quintana, psicólogo de la Universidad de Oslo en Noruega, ha recomendado que se debe incentivar a los estudiantes a realizar estudios de replicación en proyectos de tesis, además de enseñarles sobre ciencia abierta . [170]

Semiautomatizado
"El proceso general de probar la reproducibilidad y solidez de la literatura sobre biología del cáncer mediante robots. Primero, se utiliza la minería de textos para extraer declaraciones sobre el efecto de los medicamentos en la expresión genética en el cáncer de mama. Luego, dos equipos diferentes probaron semiautomáticamente estas declaraciones usando dos protocolos diferentes y dos líneas celulares diferentes (MCF7 y MDA-MB-231) utilizando el sistema de automatización de laboratorio Eve."

Los investigadores demostraron una forma de realizar pruebas semiautomáticas de reproducibilidad: las declaraciones sobre los resultados experimentales se extrajeron de artículos de investigación sobre la expresión genética del cáncer, a partir de 2022, de forma no semántica , y posteriormente se reprodujeron mediante la científica robótica " Eve ". [171] [172] Los problemas de este enfoque incluyen que puede no ser factible para muchas áreas de investigación y que es posible que no se extraigan suficientes datos experimentales de algunos o muchos artículos, incluso si están disponibles.

Involucrar a autores originales

El psicólogo Daniel Kahneman argumentó que, en psicología, los autores originales deberían participar en el esfuerzo de replicación porque los métodos publicados suelen ser demasiado vagos. [173] [174] Otros, como el psicólogo Andrew Wilson, no están de acuerdo, argumentando que los autores originales deberían escribir los métodos en detalle. [173] Una investigación de las tasas de replicación en psicología en 2012 indicó mayores tasas de éxito de replicación en estudios de replicación cuando había superposición de autores con los autores originales de un estudio [175] (91,7% de tasas de replicación exitosas en estudios con superposición de autores en comparación con 64,6 % de tasas de replicación exitosa sin superposición de autores).

Ciencia en gran equipo

La crisis de replicación ha llevado a la formación y el desarrollo de varias comunidades colaborativas a gran escala para aunar sus recursos y abordar una única pregunta en todas las culturas, países y disciplinas. [176] La atención se centra en la replicación, para garantizar que el efecto se generalice más allá de una cultura específica e investigar si el efecto es replicable y genuino. [177] Esto permite revisiones internas interdisciplinarias, múltiples perspectivas, protocolos uniformes en todos los laboratorios y el reclutamiento de muestras más grandes y diversas. [177] Los investigadores pueden colaborar coordinando la recopilación de datos o financiando la recopilación de datos por parte de investigadores que tal vez no tengan acceso a los fondos, lo que permite tamaños de muestra más grandes y aumenta la solidez de las conclusiones.

Cambios más amplios en el enfoque científico

Enfatizar la triangulación, no solo la replicación

El psicólogo Marcus R. Munafò y el epidemiólogo George Davey Smith sostienen, en un artículo publicado por Nature , que la investigación debería hacer hincapié en la triangulación , no sólo en la replicación, para protegerse contra ideas erróneas. Afirman que,

la replicación por sí sola sólo nos llevará hasta cierto punto (y) en realidad podría empeorar las cosas... [La triangulación] es el uso estratégico de múltiples enfoques para abordar una pregunta. Cada enfoque tiene sus propios supuestos, fortalezas y debilidades no relacionados. Es menos probable que los resultados que coinciden entre diferentes metodologías sean artefactos . ... Quizás una de las razones por las que la replicación ha captado tanto interés es la idea, a menudo repetida, de que la falsificación está en el corazón de la empresa científica. Esta idea fue popularizada por la máxima de Karl Popper de la década de 1950 de que las teorías nunca pueden probarse, sólo falsificarse. Sin embargo, un énfasis excesivo en la repetición de experimentos podría proporcionar una sensación infundada de certeza sobre los hallazgos que se basan en un enfoque único. ... los filósofos de la ciencia han avanzado desde Popper. Mejores descripciones de cómo trabajan realmente los científicos incluyen lo que el epistemólogo Peter Lipton llamó en 1991 "inferencia a la mejor explicación". [178]

Paradigma de sistemas complejos

El modelo científico y estadístico dominante de causalidad es el modelo lineal. [179] El modelo lineal supone que las variables mentales son propiedades estables que son independientes entre sí. En otras palabras, no se espera que estas variables se influyan entre sí. En cambio, el modelo supone que las variables tendrán un efecto lineal e independiente sobre los resultados observables. [179]

Los científicos sociales Sebastian Wallot y Damian Kelty-Stephen sostienen que el modelo lineal no siempre es apropiado. [179] Una alternativa es el modelo de sistema complejo que supone que las variables mentales son interdependientes. No se supone que estas variables sean estables, sino que interactuarán y se adaptarán a cada contexto específico. [179] Argumentan que el modelo de sistema complejo es a menudo más apropiado en psicología, y que el uso del modelo lineal cuando el modelo de sistema complejo es más apropiado dará como resultado replicaciones fallidas. [179]

... la psicología puede estar esperando replicaciones en las mismas mediciones y bajo las mismas condiciones en las que un creciente cuerpo de evidencia psicológica desalienta explícitamente la predicción de replicaciones. Las fallas en la replicación pueden claramente integrarse en la falla potencialmente incompleta, pero ampliamente generalizada, del comportamiento humano para ajustarse al estándar de independencia... [179]

La replicación debe buscar revisar las teorías.

La replicación es fundamental para que el progreso científico confirme los hallazgos originales. Sin embargo, la replicación por sí sola no es suficiente para resolver la crisis de replicación. Los esfuerzos de replicación deberían buscar no sólo apoyar o cuestionar los hallazgos originales, sino también reemplazarlos con teorías revisadas, más sólidas y con mayor poder explicativo. Por lo tanto, este enfoque implica podar las teorías existentes, comparar todas las teorías alternativas y hacer que los esfuerzos de replicación sean más generativos y comprometidos con la construcción de teorías. [180] [181] Sin embargo, la replicación por sí sola no es suficiente; es importante evaluar en qué medida los resultados se generalizan en contextos geográficos, históricos y sociales; es importante para varios campos científicos, especialmente para los profesionales y los responsables de la formulación de políticas, realizar análisis para guiarlos. decisiones estratégicas importantes. Los hallazgos reproducibles y replicables fueron el mejor predictor de generalización más allá de los contextos históricos y geográficos, lo que indica que, para las ciencias sociales, los resultados de un determinado período y lugar pueden determinar de manera significativa lo que está universalmente presente en los individuos. [182]

ciencia abierta

Seis hexágonos de colores con texto están dispuestos alrededor de las palabras "Principios de la ciencia abierta". Comenzando en la parte superior derecha y moviéndose en el sentido de las agujas del reloj, el texto en los hexágonos dice: Reproducibilidad de resultados; Integridad científica; Ciencia ciudadana; Promoción del trabajo colaborativo; Facilidad de acceso al conocimiento para todos; y Estimulación de la innovación. Debajo de los hexágonos, hay un gran signo de exclamación y un texto que dice "Además: mejores tasas de citas para artículos de acceso abierto y datos de investigación".
Principios de la ciencia abierta

Los datos abiertos, el software de código abierto y el hardware de código abierto son fundamentales para permitir la reproducibilidad en el sentido de la validación del análisis de datos originales. El uso de software propietario, la falta de publicación de software de análisis y la falta de datos abiertos impiden la replicación de los estudios. A menos que el software utilizado en la investigación sea de código abierto, es imposible reproducir resultados con diferentes configuraciones de software y hardware. [183] ​​El CERN tiene proyectos de Preservación de Análisis de Datos Abiertos y del CERN para almacenar datos, toda la información relevante y todo el software y herramientas necesarios para preservar un análisis en los grandes experimentos del LHC . Además de todo el software y los datos, los activos de análisis conservados incluyen metadatos que permiten comprender el flujo de trabajo del análisis, software relacionado, incertidumbres sistemáticas, procedimientos estadísticos y formas significativas de buscar el análisis, así como referencias a publicaciones y material de respaldo. [184] El software del CERN es de código abierto y está disponible para su uso fuera de la física de partículas y se proporciona cierta orientación a otros campos sobre los enfoques y estrategias generales utilizados para la ciencia abierta en la física de partículas contemporánea. [185]

Los repositorios en línea donde el público puede almacenar y evaluar datos, protocolos y hallazgos buscan mejorar la integridad y reproducibilidad de la investigación. Ejemplos de tales repositorios incluyen Open Science Framework , Registro de Repositorios de Datos de Investigación y Psychfiledrawer.org. Sitios como Open Science Framework ofrecen insignias por utilizar prácticas de ciencia abierta en un esfuerzo por incentivar a los científicos. Sin embargo, ha habido preocupación de que aquellos que tienen más probabilidades de proporcionar sus datos y códigos para los análisis sean los investigadores probablemente más sofisticados. [186] Ioannidis sugirió que "puede surgir la paradoja de que los investigadores más meticulosos, sofisticados, conocedores de métodos y cuidadosos puedan volverse más susceptibles a las críticas y ataques a la reputación por parte de reanalizadores que buscan errores, sin importar cuán insignificantes sean estos errores". [186]

Ver también

Notas

  1. ^ Según el Diccionario de Psicología de la APA , el sesgo de confirmación es "la tendencia a reunir evidencia que confirma expectativas preexistentes, típicamente enfatizando o buscando evidencia de respaldo mientras se descarta o no se busca evidencia contradictoria". [105]
  2. ^ En el contexto de las pruebas de significación de hipótesis nulas, los resultados que no son estadísticamente significativos
  3. ^ El dragado de datos, también conocido como p -hacking o p -fishing , es el uso indebido de datos, mediante innumerables técnicas, para encontrar respaldo a hipótesis para las que los datos no son adecuados. [112]
  4. ^ Los informes selectivos también se conocen como publicación parcial . Los informes son una oportunidad para revelar todos los grados de libertad utilizados o explotados por el investigador. La presentación de informes selectivos consiste en no informar detalles u opciones relevantes, como algunas variables independientes y dependientes, datos faltantes, exclusiones de datos y exclusiones de valores atípicos. [110]
  5. ^ HARKing, también conocido como narración post-hoc , es cuando un análisis exploratorio se encuadra como un análisis confirmatorio. Implica cambiar una hipótesis después de que se ha realizado la investigación, de modo que los resultados del experimento puedan confirmar la nueva hipótesis. [110]
  6. ^ Los autores dan un ejemplo en el que, suponiendo que la correlación media verdadera que refleja un efecto es 0,2 y la desviación estándar de la distribución de efectos también es 0,2, un estudio de replicación tendrá un 62% de probabilidad de encontrar una correlación verdadera de mediana a grande. efecto (r > 0,3) o un efecto verdadero insignificante (r < 0,1).
  7. ^ 0,412 frente a 0,389 en unidades de diferencias de medias estandarizadas (SMD).
  8. ^ El DV principal utilizado fue la calificación binaria subjetiva (es decir, replicado/no replicado) utilizada en el estudio original de OSC. Los autores también midieron correlaciones con otras medidas de reproducibilidad (por ejemplo, intervalos de confianza) y encontraron correlaciones casi iguales entre la sensibilidad al contexto y el éxito de la replicación.
  9. ^ El efecto independiente de la sensibilidad al contexto se pudo observar tanto en una regresión logística múltiple como en un modelo de regresión jerárquica. En el último caso, la sensibilidad al contexto se incluyó en el paso 2 de la jerarquía y el cambio en el coeficiente de determinación múltiple resultó ser significativo.
  10. ^ Siguiendo el argumento de Bird, este porcentaje se obtiene calculando la probabilidad de informe de falso positivo (FPRP) de la siguiente manera.
    • FPRP = Número de falsos positivos / Número de positivos totales
    • Número de falsos positivos = Probabilidad de obtener un falso positivo x Número de pruebas negativas
    • Número de verdaderos positivos = Probabilidad de obtener un verdadero positivo x Número de pruebas positivas
    Asumiendo:
    • Número de pruebas = 1000
    • Proporción de hipótesis verdaderas p = 0,10
    • Probabilidad de obtener un falso positivo a = 0,05
    • Probabilidad de obtener un verdadero positivo 1 – B = 0,8
    Entonces FPRP = (0,05 x 900)/(0,05 x 900 + 0,8 x 100) = 0,36

Referencias

  1. ^ ab Ioannidis JP (agosto de 2005). "Por qué la mayoría de los resultados de las investigaciones publicadas son falsos". Más Medicina . 2 (8): e124. doi : 10.1371/journal.pmed.0020124 . PMC  1182327 . PMID  16060722.
  2. ^ John S (8 de diciembre de 2017). Método científico . Nueva York, Nueva York: Routledge. doi :10.4324/9781315100708. ISBN 978-1-315-10070-8. S2CID  201781341.
  3. ^ Lehrer J (13 de diciembre de 2010). "La verdad desaparece". El neoyorquino . Consultado el 30 de enero de 2020 .
  4. ^ Marcus G (1 de mayo de 2013). "La crisis de la psicología social que no lo es". El neoyorquino . Consultado el 30 de enero de 2020 .
  5. ^ abc Baker M (mayo de 2016). "1.500 científicos descubren la reproducibilidad". Naturaleza (noticias). Naturaleza Springer . 533 (7604): 452–454. Código Bib :2016Natur.533..452B. doi : 10.1038/533452a . PMID  27225100. S2CID  4460617.(Erratum: [1])
  6. ^ Pashler H, Harris CR (noviembre de 2012). "¿Es exagerada la crisis de replicabilidad? Se examinan tres argumentos". Perspectivas de la ciencia psicológica . 7 (6): 531–536. doi :10.1177/1745691612463401. PMID  26168109. S2CID  1342421.
  7. ^ Fidler F , Wilcox J (2018). "Reproducibilidad de resultados científicos". La Enciclopedia de Filosofía de Stanford . Laboratorio de Investigación en Metafísica, Universidad de Stanford . Consultado el 19 de mayo de 2019 .
  8. ^ Moonesinghe R, Khoury MJ, Janssens AC (febrero de 2007). "La mayoría de los resultados de las investigaciones publicadas son falsos, pero un poco de replicación ayuda mucho". Más Medicina . 4 (2): e28. doi : 10.1371/journal.pmed.0040028 . PMC 1808082 . PMID  17326704. 
  9. ^ Simons DJ (enero de 2014). "El valor de la replicación directa". Perspectivas de la ciencia psicológica . 9 (1): 76–80. doi :10.1177/1745691613514755. PMID  26173243. S2CID  1149441.
  10. ^ abcd Schmidt S (2009). "¿Realmente lo haremos de nuevo? El poderoso concepto de replicación se descuida en las ciencias sociales". Revista de Psicología General . Publicaciones SAGE. 13 (2): 90-100. doi :10.1037/a0015108. ISSN  1089-2680. S2CID  143855611.
  11. ^ abc Open Science Collaboration (agosto de 2015). "PSICOLOGÍA. Estimación de la reproducibilidad de la ciencia psicológica". Ciencia . 349 (6251): aac4716. doi : 10.1126/ciencia.aac4716. hdl : 10722/230596 . PMID  26315443. S2CID  218065162.
  12. ^ abc Duvendack M, Palmer-Jones R, Reed RW (mayo de 2017). "¿Qué se entiende por" replicación "y por qué encuentra resistencia en la economía?". Revista económica estadounidense . 107 (5): 46–51. doi :10.1257/aer.p20171031. ISSN  0002-8282.
  13. ^ abcdefg Shrout PE, Rodgers JL (enero de 2018). "Psicología, ciencia y construcción del conocimiento: perspectivas ampliadas desde la crisis de replicación". Revista Anual de Psicología . Revisiones anuales. 69 (1): 487–510. doi : 10.1146/annurev-psych-122216-011845. PMID  29300688. S2CID  19593610.
  14. ^ abcdef Stanley TD, Carter EC, Doucouliagos H (diciembre de 2018). "Lo que revelan los metanálisis sobre la replicabilidad de la investigación psicológica". Boletín Psicológico . 144 (12): 1325-1346. doi :10.1037/bul0000169. PMID  30321017. S2CID  51951232.
  15. ^ Meyer C, Chabris C (31 de julio de 2014). "Por qué es importante la lucha alimentaria de los psicólogos". Pizarra .
  16. ^ Aschwanden C (19 de agosto de 2015). "La ciencia no está rota". Cinco Treinta Ocho . Consultado el 30 de enero de 2020 .
  17. ^ Aschwanden C (27 de agosto de 2015). "La psicología está empezando a afrontar su problema de replicación". Cinco Treinta Ocho . Consultado el 30 de enero de 2020 .
  18. ^ Etchells P (28 de mayo de 2014). "El impulso de replicación de la psicología: no se trata de ti". El guardián .
  19. ^ Wagenmakers EJ, Wetzels R, Borsboom D, van der Maas HL, Kievit RA (noviembre de 2012). "Una agenda para la investigación puramente confirmatoria". Perspectivas de la ciencia psicológica . 7 (6): 632–638. doi :10.1177/1745691612463078. PMID  26168122. S2CID  5096417.
  20. ^ Ioannidis JP (noviembre de 2012). "Por qué la ciencia no es necesariamente autocorrectora". Perspectivas de la ciencia psicológica . 7 (6): 645–654. doi :10.1177/1745691612464056. PMID  26168125. S2CID  11798785.
  21. ^ Pashler H, Harris CR (noviembre de 2012). "¿Es exagerada la crisis de replicabilidad? Se examinan tres argumentos". Perspectivas de la ciencia psicológica . 7 (6): 531–536. doi :10.1177/1745691612463401. PMID  26168109. S2CID  1342421.
  22. ^ Meehl PE (1967). "Pruebas teóricas en psicología y física: una paradoja metodológica". Filosofía de la Ciencia . 34 (2): 103-115. doi :10.1086/288135. ISSN  0031-8248. JSTOR  186099. S2CID  96422880.
  23. ^ abc Romero F (noviembre de 2019). "Filosofía de la ciencia y la crisis de replicabilidad". Brújula de Filosofía . 14 (11). doi : 10.1111/phc3.12633 . ISSN  1747-9991. S2CID  202261836.
  24. ^ Bargh JA, Chen M, Burrows L (agosto de 1996). "Automaticidad del comportamiento social: efectos directos de la construcción del rasgo y la activación del estereotipo en la acción". Revista de Personalidad y Psicología Social . 71 (2): 230–244. doi :10.1037/0022-3514.71.2.230. PMID  8765481. S2CID  6654763.
  25. ^ Doyen S, Klein O, Pichon CL, Cleeremans A (18 de enero de 2012). Lauwereyns J (ed.). "Preparación del comportamiento: todo está en la mente, pero ¿la mente de quién?". MÁS UNO . 7 (1): e29081. Código Bib : 2012PLoSO...729081D. doi : 10.1371/journal.pone.0029081 . PMC 3261136 . PMID  22279526. 
  26. ^ Yong E (10 de marzo de 2012). "Una replicación fallida provoca un mordaz ataque personal por parte de un profesor de psicología". National Geographic . Archivado desde el original el 25 de febrero de 2021 . Consultado el 4 de julio de 2023 .
  27. ^ Pashler H, Coburn N, Harris CR (29 de agosto de 2012). "¿Preparación de la distancia social? No replicar los efectos sobre los juicios sociales y alimentarios". MÁS UNO . 7 (8): e42510. Código Bib : 2012PLoSO...742510P. doi : 10.1371/journal.pone.0042510 . PMC 3430642 . PMID  22952597. 
  28. ^ Harris CR, Coburn N, Rohrer D, Pashler H (16 de agosto de 2013). "Dos fracasos para replicar los efectos de preparación de objetivos de alto rendimiento". MÁS UNO . 8 (8): e72467. Código Bib : 2013PLoSO...872467H. doi : 10.1371/journal.pone.0072467 . PMC 3745413 . PMID  23977304. 
  29. ^ Shanks DR, Newell BR, Lee EH, Balakrishnan D, Ekelund L, Cenac Z, et al. (24 de abril de 2013). "Preparar el comportamiento inteligente: un fenómeno difícil de alcanzar". MÁS UNO . 8 (4): e56515. Código Bib : 2013PLoSO...856515S. doi : 10.1371/journal.pone.0056515 . PMC 3634790 . PMID  23637732. 
  30. ^ Klein RA, Ratliff KA, Vianello M, Adams RB, Bahník Š, Bernstein MJ, Bocian K, Brandt MJ, Brooks B, Brumbaugh CC, Cemalcilar Z, Chandler J, Cheong W, Davis WE, Devos T (mayo de 2014). "Investigando la variación en la replicabilidad". Psicología Social . 45 (3): 142-152. doi : 10.1027/1864-9335/a000178 . hdl : 2066/131506 . ISSN  1864-9335.
  31. ^ Bem DJ (marzo de 2011). "Sentir el futuro: evidencia experimental de influencias retroactivas anómalas en la cognición y el afecto". Revista de Personalidad y Psicología Social . 100 (3): 407–425. doi :10.1037/a0021524. PMID  21280961. S2CID  1961013.
  32. ^ Wagenmakers EJ, Wetzels R, Borsboom D, van der Maas HL (marzo de 2011). "Por qué los psicólogos deben cambiar la forma en que analizan sus datos: el caso de psi: comentario sobre Bem (2011)". Revista de Personalidad y Psicología Social . 100 (3): 426–432. doi :10.1037/a0022790. PMID  21280965.
  33. ^ Galak J, LeBoeuf RA, Nelson LD, Simmons JP (diciembre de 2012). "Corregir el pasado: fracasos en la replicación de ψ". Revista de Personalidad y Psicología Social . 103 (6): 933–948. doi :10.1037/a0029709. PMID  22924750.
  34. ^ Begley CG, Ellis LM (marzo de 2012). "Desarrollo de fármacos: elevar los estándares para la investigación preclínica del cáncer". Naturaleza . 483 (7391): 531–533. Código Bib :2012Natur.483..531B. doi : 10.1038/483531a . PMID  22460880. S2CID  4326966.
  35. ^ Prinz F, Schlange T, Asadullah K (agosto de 2011). "Lo creas o no: ¿hasta qué punto podemos confiar en los datos publicados sobre posibles objetivos farmacológicos?". Reseñas de la naturaleza. Descubrimiento de medicamento . 10 (9): 712. doi : 10.1038/nrd3439-c1 . PMID  21892149. S2CID  16180896.
  36. ^ Ioannidis JP (septiembre de 2008). "Por qué la mayoría de las asociaciones verdaderas descubiertas están infladas". Epidemiología . 19 (5): 640–648. doi : 10.1097/EDE.0b013e31818131e7 . PMID  18633328. S2CID  15440816.
  37. ^ abcde John LK, Loewenstein G , Prelec D (mayo de 2012). "Medir la prevalencia de prácticas de investigación cuestionables con incentivos para decir la verdad". Ciencia psicológica . 23 (5): 524–532. doi :10.1177/0956797611430953. PMID  22508865. S2CID  8400625.
  38. ^ abcd Simmons JP, Nelson LD, Simonsohn U (noviembre de 2011). "Psicología falsa positiva: la flexibilidad no revelada en la recopilación y el análisis de datos permite presentar cualquier cosa como significativa". Ciencia psicológica . 22 (11): 1359-1366. doi :10.1177/0956797611417632. PMID  22006061. S2CID  13802986.
  39. ^ Pashler H, Wagenmakers EJ (noviembre de 2012). "Introducción de los editores a la sección especial sobre replicabilidad en la ciencia psicológica: ¿una crisis de confianza?". Perspectivas de la ciencia psicológica . 7 (6): 528–530. doi :10.1177/1745691612465253. PMID  26168108. S2CID  26361121.
  40. ^ Ahlgren, Andrew (abril de 1969). "Una modesta propuesta para fomentar la replicación". Psicólogo americano . 24 (4): 471. doi : 10.1037/h0037798. ISSN  1935-990X.
  41. ^ Smith, Nathaniel C. (octubre de 1970). "Estudios de replicación: un aspecto descuidado de la investigación psicológica". Psicólogo americano . 25 (10): 970–975. doi :10.1037/h0029774. ISSN  1935-990X.
  42. ^ Neuliep, JW; Crandall, R. (1993). "Sesgo del revisor contra la investigación de replicación". Revista de Comportamiento Social y Personalidad . 8 (6): 21–29. ProQuest  1292304227 - vía ProQuest.
  43. ^ Neuliep, JW; Crandall, R. (1990). "Sesgo editorial contra la investigación de replicación". Revista de Comportamiento Social y Personalidad . 5 (4): 85–90 - vía ProQuest.
  44. ^ Lewis-Kraus, Gideon (30 de septiembre de 2023). "Estudiaron la deshonestidad. ¿Fue su trabajo una mentira?". El neoyorquino . ISSN  0028-792X . Consultado el 1 de octubre de 2023 .
  45. ^ Subbaraman, Nidhi (24 de septiembre de 2023). "La banda de desacreditadores que arrestan a los malos científicos". Wall Street Journal . Archivado desde el original el 24 de septiembre de 2023 . Consultado el 8 de octubre de 2023 .
  46. ^ "APA PsycNet". psycnet.apa.org . Consultado el 8 de octubre de 2023 .
  47. ^ ab Spellman, Barbara A. (noviembre de 2015). "Una breve historia (personal) futura de la revolución 2.0". Perspectivas de la ciencia psicológica . 10 (6): 886–899. doi : 10.1177/1745691615609918 . ISSN  1745-6916. PMID  26581743. S2CID  206778431.
  48. ^ ab Greenwald, Anthony G., ed. (Enero de 1976). "Una editorial". Revista de Personalidad y Psicología Social . 33 (1): 1–7. doi :10.1037/h0078635. ISSN  1939-1315.
  49. ^ Libra esterlina, Theodore D. (1959). "Decisiones de publicación y sus posibles efectos sobre las inferencias extraídas de pruebas de significancia, o viceversa". Revista de la Asociación Estadounidense de Estadística . 54 (285): 30–34. doi :10.2307/2282137. ISSN  0162-1459. JSTOR  2282137.
  50. ^ Mills, JL (14 de octubre de 1993). "Tortura de datos". El diario Nueva Inglaterra de medicina . 329 (16): 1196-1199. doi :10.1056/NEJM199310143291613. ISSN  0028-4793. PMID  8166792.
  51. ^ Rosenthal, Robert (mayo de 1979). "El problema del archivador y la tolerancia a resultados nulos". Boletín Psicológico . 86 (3): 638–641. doi :10.1037/0033-2909.86.3.638. ISSN  1939-1455. S2CID  36070395.
  52. ^ Cohen, J. (septiembre de 1962). "El poder estadístico de la investigación psicológica social anormal: una revisión". Revista de Psicología Social y Anormal . 65 : 145-153. doi :10.1037/h0045186. ISSN  0096-851X. PMID  13880271.
  53. ^ Sedlmeier, Peter; Gigerenzer, Gerd (marzo de 1989). "¿Los estudios de poder estadístico tienen algún efecto sobre el poder de los estudios?". Boletín Psicológico . 105 (2): 309–316. doi :10.1037/0033-2909.105.2.309. hdl : 21.11116/0000-0000-B883-C . ISSN  1939-1455.
  54. ^ Achenbach J. "No, el problema de reproducibilidad de la ciencia no se limita a la psicología". El Washington Post . Consultado el 10 de septiembre de 2015 .
  55. ^ Wiggins BJ, Christopherson C (2019). "La crisis de replicación en psicología: una visión general de la psicología teórica y filosófica". Revista de Psicología Teórica y Filosófica . 39 (4): 202–217. doi :10.1037/teo0000137. ISSN  2151-3341. S2CID  210567289.
  56. ^ Bartlett T (30 de enero de 2013). "Poder de sugerencia". La Crónica de la Educación Superior .
  57. ^ Dominus S (18 de octubre de 2017). "Cuando llegó la revolución para Amy Cuddy". Los New York Times . ISSN  0362-4331 . Consultado el 19 de octubre de 2017 .
  58. ^ Duncan LE, Keller MC (octubre de 2011). "Una revisión crítica de los primeros 10 años de investigación de interacción gen-ambiente candidato en psiquiatría". La Revista Estadounidense de Psiquiatría . 168 (10): 1041-1049. doi : 10.1176/appi.ajp.2011.11020191. PMC 3222234 . PMID  21890791. 
  59. ^ Leichsenring F, Abbass A , Hilsenroth MJ, Leweke F, Luyten P, Keefe JR, et al. (Abril de 2017). "Sesgos en la investigación: factores de riesgo de no replicabilidad en la investigación en psicoterapia y farmacoterapia". Medicina Psicológica . 47 (6): 1000–1011. doi :10.1017/S003329171600324X. PMID  27955715. S2CID  1872762.
  60. ^ Hengartner MP (28 de febrero de 2018). "Crear conciencia sobre la crisis de replicación en psicología clínica centrándose en las inconsistencias en la investigación en psicoterapia: ¿cuánto podemos confiar en los resultados publicados de los ensayos de eficacia?". Fronteras en Psicología . Medios de fronteras . 9 : 256. doi : 10.3389/fpsyg.2018.00256 . PMC 5835722 . PMID  29541051. 
  61. ^ Frank MC , Bergelson E, Bergmann C, Cristia A, Floccia C, Gervain J, et al. (9 de marzo de 2017). "Un enfoque colaborativo para la investigación infantil: promoción de la reproducibilidad, las mejores prácticas y la elaboración de teorías". Infancia . 22 (4): 421–435. doi :10.1111/infa.12182. hdl :10026.1/9942. PMC 6879177 . PMID  31772509. 
  62. ^ Harris JR (2009) [1998]. El supuesto de la crianza: por qué los niños resultan como lo hacen (2ª ed.). Nueva York: Prensa libre . ISBN 978-1439101650.
  63. ^ Harris Recursos Humanos (2006). No hay dos iguales: la naturaleza humana y la individualidad humana . Nueva York: WW Norton & Company . ISBN 978-0393329711.
  64. ^ Tyson C (14 de agosto de 2014). "Falta de replicación". Dentro de la educación superior . Consultado el 19 de diciembre de 2018 .
  65. ^ Makel MC, Plucker JA (1 de agosto de 2014). "Los hechos son más importantes que la novedad: replicación en las ciencias de la educación". Investigador Educativo . 43 (6): 304–316. doi :10.3102/0013189X14545513. S2CID  145571836 . Consultado el 19 de diciembre de 2018 .
  66. ^ Kirschner PA, Sweller J , Clark RE (2006). "Por qué no funciona una orientación mínima durante la instrucción: un análisis del fracaso de la enseñanza constructivista, de descubrimiento, basada en problemas, experiencial y basada en la investigación". Psicólogo educacional . Rutledge . 41 (2): 75–86. doi :10.1207/s15326985ep4102_1. S2CID  17067829.
  67. ^ Fundamentos para el éxito: Informe final del Panel Asesor Nacional de Matemáticas (PDF) (Reporte). Departamento de Educación de Estados Unidos . 2008. págs. 45–46. Archivado (PDF) desde el original el 18 de enero de 2018 . Consultado el 3 de noviembre de 2020 .
  68. ^ Pashler H , McDaniel M , Rohrer D, Bjork R (diciembre de 2008). "Estilos de aprendizaje: conceptos y evidencia". La Ciencia Psicológica de Interés Público . Publicaciones SAGE . 9 (3): 105-119. doi : 10.1111/j.1539-6053.2009.01038.x . PMID  26162104. S2CID  2112166.
  69. ^ Nosek BA, Cohoon J, Kidwell MC, Spies JR (2018) [2015]. "Resumen de tasas de reproducibilidad y tamaños del efecto para estudios originales y de replicación en general y por revista/disciplina". Estimación de la reproducibilidad de la ciencia psicológica (tabla). Proyecto Reproducibilidad: Psicología . Consultado el 16 de octubre de 2019 .
  70. ^ Roger A (27 de agosto de 2018). "La ciencia detrás de las ciencias sociales se revoluciona otra vez". Cableado . Consultado el 28 de agosto de 2018 .
  71. ^ Camerer CF , Dreber A, Holzmeister F, Ho TH, Huber J, Johannesson M, et al. (septiembre de 2018). "Evaluación de la replicabilidad de experimentos de ciencias sociales en la Naturaleza y la Ciencia entre 2010 y 2015". Naturaleza Comportamiento Humano . 2 (9): 637–644. doi :10.1038/s41562-018-0399-z. PMID  31346273. S2CID  52098703.
  72. ^ Klein RA (2018). "Many Labs 2: investigación de la variación en la replicabilidad entre muestras y configuraciones". Avances en métodos y prácticas en ciencia psicológica . 1 (4): 443–490. doi : 10.1177/2515245918810225 . hdl : 1854/LU-8637133 .
  73. ^ ab Witkowski T (2019). «¿El vaso medio vacío o medio lleno? Últimos resultados en la crisis de replicación en Psicología» (PDF) . Investigador escéptico . vol. 43, núm. 2. págs. 5–6. Archivado desde el original (PDF) el 30 de enero de 2020.
  74. ^ Richtel M (16 de marzo de 2022). "Los estudios de imágenes cerebrales se ven obstaculizados por pequeños conjuntos de datos, según un estudio". Los New York Times .
  75. ^ Marek S, Tervo-Clemmens B, Calabro FJ, Montez DF, Kay BP, Hatoum AS, et al. (Marzo de 2022). "Los estudios de asociación reproducibles de todo el cerebro requieren miles de personas". Naturaleza . 603 (7902): 654–660. Código Bib :2022Natur.603..654M. doi :10.1038/s41586-022-04492-9. PMC 8991999 . PMID  35296861. 
  76. ^ Ioannidis JP (julio de 2005). "Efectos contradictorios e inicialmente más fuertes en investigaciones clínicas muy citadas". JAMA . 294 (2): 218–228. doi :10.1001/jama.294.2.218. PMID  16014596. S2CID  16749356.
  77. ^ Prinz F, Schlange T, Asadullah K (agosto de 2011). "Lo creas o no: ¿hasta qué punto podemos confiar en los datos publicados sobre posibles objetivos farmacológicos?". Reseñas de la naturaleza. Descubrimiento de medicamento . 10 (9): 712. doi : 10.1038/nrd3439-c1 . PMID  21892149.
  78. ^ Wheeling K (12 de mayo de 2016). "Las grandes farmacéuticas revelan una crisis de replicación biomédica". Estándar del Pacífico . Consultado el 30 de enero de 2020 .Actualizado el 14 de junio de 2017
  79. ^ Begley CG, Ellis LM (marzo de 2012). "Desarrollo de fármacos: elevar los estándares para la investigación preclínica del cáncer". Naturaleza (Comentar artículo). 483 (7391): 531–533. Código Bib :2012Natur.483..531B. doi : 10.1038/483531a . PMID  22460880. S2CID  4326966.(Errata:  doi :10.1038/485041e)
  80. ^ ab Haelle T (7 de diciembre de 2021). "Decenas de importantes estudios sobre el cáncer no se pueden replicar". Noticias de ciencia . Consultado el 19 de enero de 2022 .
  81. ^ ab "Proyecto de reproducibilidad: biología del cáncer". www.cos.io. _ Centro de Ciencia Abierta . Consultado el 19 de enero de 2022 .
  82. ^ Mobley A, Linder SK, Braeuer R, Ellis LM, Zwelling L (2013). Arakawa H (ed.). "Una encuesta sobre la reproducibilidad de los datos en la investigación del cáncer proporciona información sobre nuestra capacidad limitada para trasladar los hallazgos del laboratorio a la clínica". MÁS UNO . 8 (5): e63221. Código Bib : 2013PLoSO...863221M. doi : 10.1371/journal.pone.0063221 . PMC 3655010 . PMID  23691000. 
  83. ^ Van Noorden, Richard (18 de julio de 2023). "La medicina está plagada de ensayos clínicos poco fiables. ¿Cuántos estudios son falsos o defectuosos?". Naturaleza . 619 (7970): 454–458. Código Bib :2023Natur.619..454V. doi : 10.1038/d41586-023-02299-w . PMID  37464079.
  84. ^ abcd Tsui AS (21 de enero de 2022). "De la investigación tradicional a la investigación responsable: la necesidad de libertad científica y responsabilidad científica para mejores sociedades". Revisión Anual de Psicología Organizacional y Comportamiento Organizacional . 9 (1): 1–32. doi : 10.1146/annurev-orgpsych-062021-021303 . ISSN  2327-0608. S2CID  244238570.
  85. ^ Camerer CF, Dreber A, Forsell E, Ho TH, Huber J, Johannesson M, et al. (Marzo de 2016). "Evaluación de la replicabilidad de experimentos de laboratorio en economía". Ciencia . 351 (6280): 1433–1436. Código Bib : 2016 Ciencia... 351.1433C. doi : 10.1126/ciencia.aaf0918 . PMID  26940865.
  86. ^ Bohannon J (3 de marzo de 2016). "Aproximadamente el 40% de los experimentos económicos no superan la encuesta". Ciencia . doi : 10.1126/ciencia.aaf4141 . Consultado el 25 de octubre de 2017 .
  87. ^ Goldfarb RS (1 de diciembre de 1997). "Ahora lo ves, ahora no: están surgiendo resultados contrarios en economía". Revista de Metodología Económica . 4 (2): 221–244. doi :10.1080/13501789700000016. ISSN  1350-178X.
  88. ^ ab Bergh DD, Sharp BM, Aguinis H, Li M (6 de abril de 2017). "¿Existe una crisis de credibilidad en la investigación sobre gestión estratégica? Evidencia sobre la reproducibilidad de los resultados del estudio". Organización Estratégica . 15 (3): 423–436. doi : 10.1177/1476127017701076 . ISSN  1476-1270. S2CID  44024633.
  89. ^ ab Stagge JH, Rosenberg DE, Abdallah AM, Akbar H, Attallah NA, James R (febrero de 2019). "Evaluación de la disponibilidad de datos y la reproducibilidad de la investigación en hidrología y recursos hídricos". Datos científicos . 6 : 190030. Código Bib : 2019NatSD...690030S. doi :10.1038/sdata.2019.30. PMC 6390703 . PMID  30806638. 
  90. ^ ab Nature Video (28 de mayo de 2016). "¿Existe una crisis de reproducibilidad en la ciencia?". Científico americano . Consultado el 15 de agosto de 2019 .
  91. ^ Fanelli, Daniele (2010). Enrico Scalas (ed.). "Los resultados 'positivos' aumentan en la jerarquía de las ciencias". MÁS UNO . 5 (4): e10068. Código Bib : 2010PLoSO...510068F. doi : 10.1371/journal.pone.0010068 . PMC 2850928 . PMID  20383332. 
  92. ^ ab Allen C, Mehler DM (mayo de 2019). "Desafíos, beneficios y consejos de la ciencia abierta al inicio de la carrera y más allá". Más biología . Biblioteca Pública de Ciencias. 17 (5): e3000246. doi : 10.1371/journal.pbio.3000246 . PMC 6513108 . PMID  31042704. 
  93. ^ Begley CG, Ioannidis JP (enero de 2015). "Reproducibilidad en la ciencia: mejorar el estándar de la investigación básica y preclínica". Investigación de circulación . 116 (1): 116–126. doi : 10.1161/CIRCRESAHA.114.303819 . PMID  25552691. S2CID  3587510.
  94. ^ Precio DJ (1963). Pequeña ciencia, gran ciencia . Prensa de la Universidad de Columbia. pag. 32.ISBN _ 9780231085625.
  95. ^ Siebert S, Machesky LM, Insall RH (septiembre de 2015). "Desbordamiento de la ciencia y sus implicaciones para la confianza". eVida . 4 : e10825. doi : 10.7554/eLife.10825 . PMC 4563216 . PMID  26365552. 
  96. ^ Della Briotta Parolo P, Pan RK, Ghosh R, Huberman BA, Kaski K, Fortunato S (2015). "Decaimiento de la atención en la ciencia". Revista de Informetría . 9 (4): 734–745. arXiv : 1503.01881 . Código Bib : 2015arXiv150301881D. doi :10.1016/j.joi.2015.07.006. S2CID  10949754.
  97. ^ ab Mirowski P (2011). Science-Mart . Prensa de la Universidad de Harvard. págs.2, 24. ISBN 978-0-674-06113-2.
  98. ^ Moeller HG (2006). Luhmann lo explicó: del alma a los sistemas . Chicago: Corte abierta. pag. 25.ISBN _ 0-8126-9598-4. OCLC  68694011.
  99. ^ Luhmann N (1995). Sistemas sociales . Stanford, CA: Prensa de la Universidad de Stanford. pag. 288.ISBN _ 978-0-8047-2625-2. OCLC  31710315.
  100. ^ ab Scheufele DA (septiembre de 2014). "La comunicación científica como comunicación política". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 111 (Suplemento 4): 13585–13592. Código Bib : 2014PNAS..111S3585S. doi : 10.1073/pnas.1317516111 . PMC 4183176 . PMID  25225389. 
  101. ^ Pielke R (2007). El intermediario honesto: dar sentido a la ciencia en la política y la política . Cambridge: Prensa de la Universidad de Cambridge. doi :10.1017/CBO9780511818110. ISBN 978-0-511-81811-0. OCLC  162145073.
  102. ^ Martín GN, Clarke RM (2017). "¿Son las revistas de psicología antirreplicación? Una instantánea de las prácticas editoriales". Fronteras en Psicología . 8 : 523. doi : 10.3389/fpsyg.2017.00523 . PMC 5387793 . PMID  28443044. 
  103. ^ Yeung AW (2017). "¿Las revistas de neurociencia aceptan replicaciones? Un estudio de la literatura". Fronteras de la neurociencia humana . 11 : 468. doi : 10.3389/fnhum.2017.00468 . PMC 5611708 . PMID  28979201. 
  104. ^ Hubbard R, Vetter DE (1 de febrero de 1996). "Una comparación empírica de investigaciones replicadas publicadas en contabilidad, economía, finanzas, gestión y marketing". Revista de investigación empresarial . 35 (2): 153-164. doi :10.1016/0148-2963(95)00084-4. ISSN  0148-2963.
  105. ^ "Sesgo de confirmación". Diccionario APA de Psicología . Washington, DC: Asociación Estadounidense de Psicología . y nd . Consultado el 2 de febrero de 2022 .
  106. ^ ab Fanelli D (abril de 2010). "¿Las presiones para publicar aumentan el sesgo de los científicos? Un apoyo empírico de los datos de los estados de EE. UU.". MÁS UNO . 5 (4): e10271. Código Bib : 2010PLoSO...510271F. doi : 10.1371/journal.pone.0010271 . PMC 2858206 . PMID  20422014. 
  107. ^ Nosek BA, Spies JR, Motyl M (noviembre de 2012). "Utopía científica: II. Reestructuración de incentivos y prácticas para promover la verdad sobre la publicabilidad". Perspectivas de la ciencia psicológica . 7 (6): 615–631. arXiv : 1205.4251 . doi :10.1177/1745691612459058. PMC 10540222 . PMID  26168121. S2CID  23602412. 
  108. ^ Everett JA, Earp BD (1 de enero de 2015). "Una tragedia de los bienes comunes (académicos): interpretar la crisis de replicación en psicología como un dilema social para los investigadores que inician su carrera". Fronteras en Psicología . 6 : 1152. doi : 10.3389/fpsyg.2015.01152 . PMC 4527093 . PMID  26300832. 
  109. ^ abc "Mala conducta en la investigación: el área gris de las prácticas de investigación cuestionables". www.vib.be. _ Vlaams Instituut voor Biotechnologie . 30 de septiembre de 2013. Archivado desde el original el 31 de octubre de 2014 . Consultado el 13 de noviembre de 2015 .
  110. ^ abcdefgh Wicherts JM , Veldkamp CL, Augusteijn HE, Bakker M, van Aert RC, van Assen MA (2016). "Grados de libertad en la planificación, ejecución, análisis e informes de estudios psicológicos: una lista de verificación para evitar el p-hacking". Fronteras en Psicología . 7 : 1832. doi : 10.3389/fpsyg.2016.01832 . PMC 5122713 . PMID  27933012. 
  111. ^ abc Neuroskeptic (noviembre de 2012). "Los nueve círculos del infierno científico". Perspectivas de la ciencia psicológica (opinión). 7 (6): 643–644. doi : 10.1177/1745691612459519 . PMID  26168124. S2CID  45328962.
  112. ^ "Dragado de datos". Diccionario APA de Psicología . Washington, DC: Asociación Estadounidense de Psicología . y nd . Consultado el 9 de enero de 2022 . La práctica inapropiada de buscar en grandes archivos de información para tratar de confirmar una hipótesis o creencia preconcebida sin un diseño adecuado que controle posibles confusiones o hipótesis alternativas. El dragado de datos puede implicar seleccionar qué partes de un gran conjunto de datos se retendrán para obtener resultados específicos y deseados.
  113. ^ Begley CG (mayo de 2013). "Seis señales de alerta para trabajos sospechosos". Naturaleza (Comentar artículo). 497 (7450): 433–434. Código Bib :2013Natur.497..433B. doi : 10.1038/497433a . PMID  23698428. S2CID  4312732.
  114. ^ Shea C (13 de noviembre de 2011). "El escándalo de fraude alimenta el debate sobre las prácticas de la psicología social". La Crónica de la Educación Superior .
  115. ^ O'Boyle, Ernest H.; Götz, Martín (2022). "Prácticas de investigación cuestionables". Integridad de la investigación: mejores prácticas para las ciencias sociales y del comportamiento . Prensa de la Universidad de Oxford. págs. 261–294. ISBN 978-0190938550.
  116. ^ Glick JL (1992). "Auditoría de datos científicos: una herramienta de gestión clave". Responsabilidad en la investigación . 2 (3): 153–168. doi :10.1080/08989629208573811.
  117. ^ Fiedler K, Schwarz N (19 de octubre de 2015). "Prácticas de investigación cuestionables revisadas". Psicología Social y Ciencias de la Personalidad . 7 : 45–52. doi :10.1177/1948550615612150. ISSN  1948-5506. S2CID  146717227.
  118. ^ Fanelli D (mayo de 2009). "¿Cuántos científicos fabrican y falsifican investigaciones? Una revisión sistemática y metanálisis de datos de encuestas". MÁS UNO . 4 (5): e5738. Código Bib : 2009PLoSO...4.5738F. doi : 10.1371/journal.pone.0005738 . PMC 2685008 . PMID  19478950. 
  119. ^ Botón, Katherine S.; Ioannidis, John PA; Mokrysz, Claire; Nosek, Brian A.; Pedernal, Jonathan; Robinson, Emma SJ; Munafò, Marcus R. (mayo de 2013). "Falla de energía: por qué un tamaño de muestra pequeño socava la confiabilidad de la neurociencia". Reseñas de la naturaleza Neurociencia . 14 (5): 365–376. doi : 10.1038/nrn3475 . ISSN  1471-0048. PMID  23571845. S2CID  455476.
  120. ^ Ioannidis, John PA; Stanley, TD; Doucouliagos, Hristos (1 de octubre de 2017). "El poder del sesgo en la investigación económica". La Revista Económica . 127 (605): F236–F265. doi : 10.1111/ecoj.12461 . ISSN  0013-0133. S2CID  158829482.
  121. ^ Higgins, Julián PT; Thompson, Simon G. (15 de junio de 2002). "Cuantificación de la heterogeneidad en un metanálisis". Estadística en Medicina . 21 (11): 1539-1558. doi :10.1002/sim.1186. ISSN  0277-6715. PMID  12111919. S2CID  6319826.
  122. ^ Moosa IA (2 de octubre de 2019). "La fragilidad de los resultados y el sesgo en la investigación empírica: una exposición exploratoria". Revista de Metodología Económica . 26 (4): 347–360. doi :10.1080/1350178X.2018.1556798. ISSN  1350-178X. S2CID  158504639.
  123. ^ Granger CW (1999). Modelado empírico en economía: especificación y evaluación. Prensa de la Universidad de Cambridge. pag. 5. doi : 10.1017/CBO9780511492327. ISBN 978-0-521-77825-1.
  124. ^ Maziarz M (1 de diciembre de 2021). "Resolver controversias empíricas con evidencia mecanicista". Síntesis . 199 (3): 9957–9978. doi : 10.1007/s11229-021-03232-2 . ISSN  1573-0964. S2CID  236249427.
  125. ^ Morgan MS, Magnus JR (septiembre de 1997). "El experimento de econometría aplicada". Revista de Econometría Aplicada . 12 (5): 459–661. ISSN  1099-1255.
  126. ^ ab Van Bavel, Jay J.; Mende-Siedlecki, Peter; Brady, William J.; Reinero, Diego A. (2016). "Sensibilidad contextual en la reproducibilidad científica". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 113 (23): 6454–6459. Código Bib : 2016PNAS..113.6454V. doi : 10.1073/pnas.1521897113 . ISSN  0027-8424. JSTOR  26470212. PMC 4988618 . PMID  27217556. 
  127. ^ abc Bird A (1 de diciembre de 2021). "Comprender la crisis de replicación como una falacia de la tasa base". La Revista Británica de Filosofía de la Ciencia . 72 (4): 965–993. doi : 10.1093/bjps/axy051 . ISSN  0007-0882.
  128. ^ Nissen SB, Magidson T, Gross K, Bergstrom CT (diciembre de 2016). "Sesgo de publicación y canonización de hechos falsos". eVida . 5 : e21451. arXiv : 1609.00494 . doi : 10.7554/eLife.21451 . PMC 5173326 . PMID  27995896. 
  129. ^ ab Universidad de California en San Diego (mayo de 2021). "Una nueva crisis de replicación: se citan más investigaciones que tienen menos probabilidades de ser ciertas". phys.org . Consultado el 14 de junio de 2021 .
  130. ^ ab Serra-García M, Gneezy U (mayo de 2021). "Las publicaciones no replicables se citan más que las replicables". Avances científicos . 7 (21): eabd1705. Código Bib : 2021SciA....7.1705S. doi : 10.1126/sciadv.abd1705 . PMC 8139580 . PMID  34020944. 
  131. ^ Białek M (enero de 2018). "Las replicaciones pueden provocar una creencia distorsionada en el progreso científico". Las ciencias del comportamiento y del cerebro . 41 : e122. doi :10.1017/S0140525X18000584. PMID  31064528. S2CID  147705650.
  132. ^ ab Mede NG, Schäfer MS, Ziegler R, Weißkopf M (enero de 2021). "La" crisis de replicación "en el ojo público: la conciencia y las percepciones de los alemanes sobre la (ir)reproducibilidad de la investigación científica". Comprensión pública de la ciencia . 30 (1): 91-102. doi :10.1177/0963662520954370. PMID  32924865. S2CID  221723269.
  133. ^ abcd Letzter R (22 de septiembre de 2016). "Los científicos están furiosos después de que una famosa psicóloga acusara a sus compañeros de 'terrorismo metodológico'". Business Insider . Consultado el 30 de enero de 2020 .
  134. ^ "El borrador de la columna de observadores genera una fuerte respuesta en las redes sociales". Observador de APS . Asociación de Ciencias Psicológicas. Septiembre de 2016 . Consultado el 4 de octubre de 2017 .
  135. ^ Fiske ST (31 de octubre de 2016). "Un llamado a cambiar la cultura de vergüenza de la ciencia". Observador de APS . 29 (9).
  136. ^ Singal J (12 de octubre de 2016). "Dentro del debate sobre el 'terrorismo metodológico' de la psicología". Revista de Nueva York . Consultado el 4 de octubre de 2017 .
  137. ^ ab Vazire, Simine (2 de julio de 2018). "Implicaciones de la revolución de la credibilidad para la productividad, la creatividad y el progreso". Perspectivas de la ciencia psicológica . 13 (4): 411–417. doi :10.1177/1745691617751884. ISSN  1745-6916. PMID  29961410. S2CID  49647586.
  138. ^ Korbmacher, Max; Azevedo, Flavio; Pennington, Charlotte R.; et al. (25 de julio de 2023). "La crisis de replicación ha dado lugar a cambios estructurales, procesales y comunitarios positivos". Psicología de las Comunicaciones . 1 (1): 1–13. doi : 10.1038/s44271-023-00003-2 . hdl : 10852/106350 . ISSN  2731-9121.
  139. ^ Stroebe W, Strack F (enero de 2014). "La supuesta crisis y la ilusión de una réplica exacta". Perspectivas de la ciencia psicológica . 9 (1): 59–71. doi :10.1177/1745691613514450. PMID  26173241. S2CID  31938129.
  140. ^ Jensen A (7 de mayo de 2019). "La replicación como éxito y replicación fallida". Facultad de Artes Liberales, Departamento de Filosofía . Universidad de Minnesota . Consultado el 25 de mayo de 2022 .
  141. ^ Madhusoodanan J (mayo de 2022). "La variable pasada por alto en los estudios con animales: por qué la dieta marca la diferencia". Naturaleza . 605 (7911): 778–779. Código Bib :2022Natur.605..778M. doi : 10.1038/d41586-022-01393-9 . PMID  35606524. S2CID  249015202.
  142. ^ Ioannidis JP (junio de 2016). "Por qué la mayoría de las investigaciones clínicas no son útiles". Más Medicina . 13 (6): e1002049. doi : 10.1371/journal.pmed.1002049 . PMC 4915619 . PMID  27328301. 
  143. ^ Ioannidis JP, Fanelli D, Dunne DD, Goodman SN (octubre de 2015). "Metainvestigación: evaluación y mejora de métodos y prácticas de investigación". Más biología . 13 (10): e1002264. doi : 10.1371/journal.pbio.1002264 . PMC 4592065 . PMID  26431313. 
  144. ^ Bach B (8 de diciembre de 2015). "Sobre la comunicación de la ciencia y la incertidumbre: un podcast con John Ioannidis". Alcance . Consultado el 20 de mayo de 2019 .
  145. ^ Gosselin RD (enero de 2020). "El análisis estadístico debe mejorar para abordar la crisis de reproducibilidad: el llamado a la acción del acceso a estadísticas transparentes (ACTS)". Bioensayos . 42 (1): e1900189. doi :10.1002/bies.201900189. PMID  31755115. S2CID  208228664.
  146. ^ Pratt MG, Kaplan S, Whittington R (6 de noviembre de 2019). "Ensayo editorial: el tumulto sobre la transparencia: desacoplar la transparencia de la replicación para establecer una investigación cualitativa confiable". Ciencia Administrativa Trimestral . 65 (1): 1–19. doi : 10.1177/0001839219887663 . ISSN  0001-8392. S2CID  210537501.
  147. ^ Aschwanden C (6 de diciembre de 2018). "La crisis de replicación de la psicología ha mejorado el campo". Cinco Treinta Ocho . Consultado el 19 de diciembre de 2018 .
  148. ^ Chartier C, Kline M, McCarthy R, Nuijten M, Dunleavy DJ, Ledgerwood A (diciembre de 2018), "La revolución cooperativa está mejorando la ciencia psicológica", Observer , 31 (10) , recuperado 2018-12-19
  149. ^ "Informes de replicación registrados". Asociación de Ciencias Psicológicas . Consultado el 13 de noviembre de 2015 .
  150. ^ Salas C (20 de mayo de 2014). "La revolución del registro de la psicología'". El guardián . Consultado el 13 de noviembre de 2015 .
  151. ^ Lindsay DS (diciembre de 2015). "Replicación en la ciencia psicológica". Ciencia psicológica . 26 (12): 1827–1832. doi : 10.1177/0956797615616374 . PMID  26553013.
  152. ^ ab Benjamin DJ, Berger JO, Johannesson M, Nosek BA, Wagenmakers EJ, Berk R, et al. (Enero de 2018). "Redefinir la significación estadística". Naturaleza Comportamiento Humano . 2 (1): 6–10. doi : 10.1038/s41562-017-0189-z . hdl : 10281/184094 . PMID  30980045.
  153. ^ Lakens D, Adolfi FG, Albers CJ, Anvari F, Apps MA, Argamon SE, et al. (Marzo de 2018). "Justifica tu alfa". Naturaleza Comportamiento Humano . 2 (3): 168-171. doi :10.1038/s41562-018-0311-x. hdl : 21.11116/0000-0004-9413-F . ISSN  2397-3374. S2CID  3692182.
  154. ^ Colquhoun D (noviembre de 2014). "Una investigación de la tasa de descubrimientos falsos y la mala interpretación de los valores p". Ciencia abierta de la Royal Society . 1 (3): 140216. arXiv : 1407.5296 . Código Bib : 2014RSOS....140216C. doi :10.1098/rsos.140216. PMC 4448847 . PMID  26064558. 
  155. ^ abcd Colquhoun D (diciembre de 2017). "La reproducibilidad de la investigación y la mala interpretación de los valores p". Ciencia abierta de la Royal Society . 4 (12): 171085. doi :10.1098/rsos.171085. PMC 5750014 . PMID  29308247. 
  156. ^ Colquhoun D (11 de octubre de 2016). "El problema de los valores p". Revista Aeon . Consultado el 11 de diciembre de 2016 .
  157. ^ Longstaff C, Colquhoun D. "Calculadora de riesgo de falso positivo (FPR)". University College de Londres. versión 1.7.
  158. ^ Matthews RA (2001). "¿Por qué los médicos deberían preocuparse por los métodos bayesianos?". Revista de planificación e inferencia estadística . 94 : 43–58. doi :10.1016/S0378-3758(00)00232-9.
  159. ^ Maxwell SE, Lau MY, Howard GS (septiembre de 2015). "¿La psicología sufre una crisis de replicación? ¿Qué significa realmente" falta de replicación "?". El psicólogo americano . 70 (6): 487–498. doi :10.1037/a0039400. PMID  26348332.
  160. ^ IntHout J, Ioannidis JP, Borm GF, Goeman JJ (agosto de 2015). "Los estudios pequeños son más heterogéneos que los grandes: un metametaanálisis". Revista de epidemiología clínica . 68 (8): 860–869. doi : 10.1016/j.jclinepi.2015.03.017 . hdl : 2066/153978 . PMID  25959635.
  161. ^ Button KS, Ioannidis JP, Mokrysz C, Nosek BA, Flint J, Robinson ES, Munafò MR (mayo de 2013). "Falla de energía: por qué un tamaño de muestra pequeño socava la confiabilidad de la neurociencia". Reseñas de la naturaleza. Neurociencia . 14 (5): 365–376. doi : 10.1038/nrn3475 . PMID  23571845.
  162. ^ Greenwald AG (1975). «Consecuencias del prejuicio contra la hipótesis nula» (PDF) . Boletín Psicológico . 82 (1): 1–20. doi :10.1037/h0076157.
  163. ^ Amrhein V, Korner-Nievergelt F, Roth T (2017). "La tierra es plana (p > 0,05): umbrales de significancia y la crisis de investigaciones irreplicables". PeerJ . 5 : e3544. doi : 10.7717/peerj.3544 . PMC 5502092 . PMID  28698825. 
  164. ^ "NWO pone 3 millones a disposición para el piloto de estudios de replicación". Organización Holandesa para la Investigación Científica (Comunicado de prensa). Julio de 2016. Archivado desde el original el 22 de julio de 2016.
  165. ^ abc Apple S (22 de enero de 2017). "El joven multimillonario detrás de la guerra contra la mala ciencia". Cableado .
  166. ^ Frank MC, Saxe R (noviembre de 2012). "Enseñanza de la replicación". Perspectivas de la ciencia psicológica . 7 (6): 600–604. doi : 10.1177/1745691612460686 . PMID  26168118. S2CID  33661604.
  167. ^ Grahe JE, Reifman A, Hermann AD, Walker M, Oleson KC, Nario-Redmond M, Wiebe RP (noviembre de 2012). "Aprovechar el recurso no descubierto de los proyectos de investigación de estudiantes". Perspectivas de la ciencia psicológica . 7 (6): 605–607. doi : 10.1177/1745691612459057 . PMID  26168119.
  168. ^ Marwick B, Wang L, Robinson R, Loiselle H (22 de octubre de 2019). "Cómo utilizar tareas de replicación para enseñar integridad en arqueología empírica". Avances en la práctica arqueológica . 8 : 78–86. doi : 10.1017/aap.2019.38 .
  169. ^ Everett JA, Earp BD (1 de enero de 2015). "Una tragedia de los bienes comunes (académicos): interpretar la crisis de replicación en psicología como un dilema social para los investigadores que inician su carrera". Fronteras en Psicología . 6 : 1152. doi : 10.3389/fpsyg.2015.01152 . PMC 4527093 . PMID  26300832. 
  170. Quintana DS (septiembre de 2021). "Estudios de replicación de tesis de pregrado para mejorar la ciencia y la educación". Naturaleza, comportamiento humano (artículo de World View). 5 (9): 1117–1118. doi :10.1038/s41562-021-01192-8. PMID  34493847. S2CID  237439956.
  171. ^ Universidad de Cambridge (abril de 2022). "Eve, la científica robot, descubre que menos de un tercio de los resultados científicos son reproducibles" . Exploración tecnológica . Consultado el 15 de mayo de 2022 .
  172. ^ Roper K, Abdel-Rehim A, Hubbard S, Carpenter M, Rzhetsky A, Soldatova L, King RD (abril de 2022). "Prueba de la reproducibilidad y solidez de la literatura sobre biología del cáncer mediante robot". Revista de la Royal Society, Interfaz . 19 (189): 20210821. doi :10.1098/rsif.2021.0821. PMC 8984295 . PMID  35382578. 
  173. ^ ab Cámaras C (10 de junio de 2014). "Envidia de la física: ¿Las ciencias 'duras' contienen la solución a la crisis de replicación en psicología?". El guardián .
  174. ^ Kahneman D (2014). "Una nueva etiqueta para la replicación". Psicología Social (Comentario). Comentarios y Dúplica sobre. 45 (4): 310–311. doi :10.1027/1864-9335/a000202.
  175. ^ Makel MC, Plucker JA, Hegarty B (noviembre de 2012). "Replicaciones en la investigación en psicología: ¿con qué frecuencia ocurren realmente?". Perspectivas de la ciencia psicológica . 7 (6): 537–542. doi : 10.1177/1745691612460688 . PMID  26168110.
  176. ^ Uhlmann, Eric Luis; Ebersole, Charles R.; Chartier, Christopher R.; Errington, Timothy M.; Kidwell, Mallory C.; Lai, Calvin K.; McCarthy, Randy J.; Riegelman, Amy; Silberzahn, Rafael; Nosek, Brian A. (septiembre de 2019). "Utopía científica III: ciencia del crowdsourcing". Perspectivas de la ciencia psicológica . 14 (5): 711–733. doi : 10.1177/1745691619850561 . ISSN  1745-6916. PMID  31260639.
  177. ^ ab Forscher, Patrick S.; Wagenmakers, Eric-Jan; Coles, Nicolás A.; Silán, Miguel Alejandro; Dutra, Natália; Basnight-Brown, Dana; IJzerman, Hans (mayo de 2023). "Los beneficios, barreras y riesgos de la ciencia en equipos grandes". Perspectivas de la ciencia psicológica . 18 (3): 607–623. doi :10.1177/17456916221082970. ISSN  1745-6916. PMID  36190899. S2CID  236816530.
  178. ^ Munafò MR, Davey Smith G (enero de 2018). "Una investigación sólida necesita muchas líneas de evidencia". Naturaleza . 553 (7689): 399–401. Código Bib :2018Natur.553..399M. doi : 10.1038/d41586-018-01023-3 . PMID  29368721.
  179. ^ abcdef Wallot S, Kelty-Stephen DG (1 de junio de 2018). "Causalidad dominante en la interacción en la mente y el cerebro, y sus implicaciones para cuestiones de generalización y replicación". Mentes y Máquinas . 28 (2): 353–374. doi : 10.1007/s11023-017-9455-0 . hdl : 21.11116/0000-0001-AC9C-E . ISSN  1572-8641.
  180. ^ Tierney W, Hardy JH, Ebersole CR, Leavitt K, Viganola D, Clemente EG, et al. (1 de noviembre de 2020). "Destrucción creativa en la ciencia". Comportamiento Organizacional y Procesos de Decisión Humana . 161 : 291–309. doi : 10.1016/j.obhdp.2020.07.002 . hdl : 2066/228242 . ISSN  0749-5978. S2CID  224979451.
  181. ^ Tierney W, Hardy J, Ebersole CR, Viganola D, Clemente EG, Gordon M, et al. (1 de marzo de 2021). "Un enfoque de destrucción creativa para la replicación: trabajo implícito y moralidad sexual en todas las culturas". Revista de Psicología Social Experimental . 93 : 104060. doi : 10.1016/j.jesp.2020.104060 . hdl : 10037/24275 . ISSN  0022-1031. S2CID  229028797.
  182. ^ Delios A, Clemente EG, Wu T, Tan H, Wang Y, Gordon M, et al. (julio de 2022). "Examinar la generalización de los resultados de la investigación a partir de datos de archivo". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 119 (30): e2120377119. Código Bib : 2022PNAS..11920377D. doi :10.1073/pnas.2120377119. PMC 9335312 . PMID  35858443. 
  183. ^ Ince DC, Hatton L, Graham-Cumming J (febrero de 2012). "El caso de los programas informáticos abiertos". Naturaleza . 482 (7386): 485–488. Código Bib :2012Natur.482..485I. doi : 10.1038/naturaleza10836 . PMID  22358837.
  184. ^ Vuong QH (enero de 2018). "La consideración (ir)racional del coste de la ciencia en las economías en transición". Naturaleza Comportamiento Humano . 2 (1): 5.doi : 10.1038 /s41562-017-0281-4 . PMID  30980055. S2CID  46878093.
  185. ^ Junk TR, Lyons L (21 de diciembre de 2020). "Reproducibilidad y replicación de resultados experimentales de física de partículas". Revisión de ciencia de datos de Harvard . 2 (4). arXiv : 2009.06864 . doi :10.1162/99608f92.250f995b. S2CID  221703733.
  186. ^ ab Ioannidis JP (febrero de 2016). "Anticipar las consecuencias de compartir códigos y datos sin procesar y de otorgar insignias por compartir". Revista de Epidemiología Clínica (Comentario). 70 : 258–260. doi :10.1016/j.jclinepi.2015.04.015. PMID  26163123.

Otras lecturas