En la investigación académica publicada , el sesgo de publicación ocurre cuando el resultado de un experimento o estudio de investigación sesga la decisión de publicarlo o distribuirlo de otra manera. Publicar solo los resultados que muestran un hallazgo significativo altera el equilibrio de los hallazgos a favor de los resultados positivos. [1] El estudio del sesgo de publicación es un tema importante en la metaciencia .
A pesar de la calidad similar de ejecución y diseño , [2] los artículos con resultados estadísticamente significativos tienen tres veces más probabilidades de ser publicados que aquellos con resultados nulos . [3] Esto motiva indebidamente a los investigadores a manipular sus prácticas para asegurar resultados estadísticamente significativos, como por ejemplo mediante el dragado de datos . [4]
Muchos factores contribuyen al sesgo de publicación. [5] [6] Por ejemplo, una vez que un hallazgo científico está bien establecido, puede volverse de interés periodístico publicar artículos confiables que no rechacen la hipótesis nula . [7] Lo más común es que los investigadores simplemente se nieguen a enviar los resultados, lo que lleva al sesgo de no respuesta . Los investigadores también pueden asumir que cometieron un error, descubrir que el resultado nulo no respalda un hallazgo conocido, perder interés en el tema o anticipar que otros no estarán interesados en los resultados nulos. [2] La naturaleza de estos problemas y los problemas resultantes forman las cinco enfermedades que amenazan a la ciencia: " significasis , un enfoque desmesurado en resultados estadísticamente significativos; neofilia , una apreciación excesiva por la novedad; teorrea , una manía por la nueva teoría; arigorium , una deficiencia de rigor en el trabajo teórico y empírico; y finalmente, disjuntivitis , una proclividad a producir muchos trabajos redundantes, triviales e incoherentes". [8]
Los intentos de encontrar estudios no publicados a menudo resultan difíciles o insatisfactorios. [5] En un esfuerzo por combatir este problema, algunas revistas requieren que los estudios enviados para su publicación se registren previamente (antes de la recopilación y el análisis de datos) en organizaciones como el Centro para la Ciencia Abierta .
Otras estrategias propuestas para detectar y controlar el sesgo de publicación [5] incluyen el análisis de la curva p [9] y desfavorecer los estudios pequeños y no aleatorios debido a la alta susceptibilidad al error y al sesgo. [2]
El sesgo de publicación se produce cuando la publicación de los resultados de una investigación depende no sólo de la calidad de la investigación, sino también de la hipótesis puesta a prueba y de la importancia y dirección de los efectos detectados. [10] El tema fue abordado por primera vez en 1959 por el estadístico Theodore Sterling para referirse a los campos en los que es más probable que se publiquen investigaciones "exitosas". Como resultado, "la literatura de dicho campo consiste en una parte sustancial de conclusiones falsas resultantes de errores del primer tipo en pruebas estadísticas de significación". [11] En el peor de los casos, las conclusiones falsas podrían canonizarse como verdaderas si la tasa de publicación de resultados negativos es demasiado baja. [12]
Un efecto del sesgo de publicación se denomina a veces efecto del archivador o problema del archivador . Este término sugiere que los resultados negativos, aquellos que no respaldan las hipótesis iniciales de los investigadores, a menudo se "archivan" y no van más allá de los archivadores de los investigadores, lo que conduce a un sesgo en la investigación publicada. [13] El término "problema del archivador" fue acuñado por el psicólogo Robert Rosenthal en 1979. [14]
El sesgo de resultados positivos, un tipo de sesgo de publicación, ocurre cuando los autores tienen más probabilidades de enviar, o los editores tienen más probabilidades de aceptar, resultados positivos que resultados negativos o no concluyentes. [15] El sesgo de informe de resultados ocurre cuando se miden y analizan múltiples resultados, pero la información de estos resultados depende de la solidez y la dirección de sus resultados. Un término genérico acuñado para describir estas elecciones post hoc es HARKing ("Hypothesizing After the Results are Known"). [16]
Existe una amplia metainvestigación sobre el sesgo de publicación en el campo biomédico. Los investigadores que siguen los ensayos clínicos desde la presentación de sus protocolos a los comités de ética (o autoridades regulatorias) hasta la publicación de sus resultados observaron que aquellos con resultados positivos tienen más probabilidades de ser publicados. [18] [19] [20] Además, los estudios a menudo no informan los resultados negativos cuando se publican, como lo demuestra la investigación que compara los protocolos de estudio con los artículos publicados. [21] [22]
La presencia de sesgo de publicación se investigó en metanálisis . El análisis más grande de este tipo investigó la presencia de sesgo de publicación en revisiones sistemáticas de tratamientos médicos de la Biblioteca Cochrane . [23] El estudio mostró que los hallazgos estadísticamente positivos y significativos tienen un 27% más de probabilidades de ser incluidos en metanálisis de eficacia que otros hallazgos. Los resultados que no muestran evidencia de efectos adversos tienen un 78% más de probabilidad de inclusión en estudios de seguridad que los resultados estadísticamente significativos que muestran efectos adversos. Se encontró evidencia de sesgo de publicación en metanálisis publicados en revistas médicas importantes. [24]
Se han realizado metanálisis (revisiones) en el campo de la ecología y la biología ambiental. En un estudio de 100 metanálisis en ecología, solo el 49 % probó el sesgo de publicación. [25] Si bien se han desarrollado múltiples pruebas para detectar el sesgo de publicación, la mayoría tiene un desempeño deficiente en el campo de la ecología debido a los altos niveles de heterogeneidad en los datos y a que, a menudo, las observaciones no son completamente independientes. [26]
En 1998 [actualizar], "ningún ensayo publicado en China o Rusia/URSS encontró que un tratamiento experimental fuera ineficaz". [27]
Cuando existe un sesgo de publicación, los estudios publicados ya no son una muestra representativa de la evidencia disponible. Este sesgo distorsiona los resultados de los metanálisis y las revisiones sistemáticas . Por ejemplo, la medicina basada en la evidencia depende cada vez más de los metanálisis para evaluar la evidencia.
Los metanálisis y las revisiones sistemáticas pueden tener en cuenta el sesgo de publicación al incluir evidencia de estudios no publicados y de la literatura gris. La presencia de sesgo de publicación también se puede explorar mediante la construcción de un gráfico de embudo en el que la estimación del tamaño del efecto informado se grafica frente a una medida de precisión o tamaño de la muestra. La premisa es que la dispersión de puntos debe reflejar una forma de embudo, lo que indica que el informe de los tamaños del efecto no está relacionado con su significación estadística. [29] Sin embargo, cuando los estudios pequeños son predominantemente en una dirección (generalmente la dirección de los tamaños de efecto más grandes), se producirá asimetría y esto puede ser indicativo de sesgo de publicación. [30]
Debido a que existe un grado inevitable de subjetividad en la interpretación de los gráficos de embudo, se han propuesto varias pruebas para detectar la asimetría de los gráficos de embudo. [29] [31] [32] Estas pruebas se basan a menudo en la regresión lineal, incluida la popular prueba de regresión de Eggers , [33] y pueden adoptar un parámetro de dispersión multiplicativo o aditivo para ajustar la presencia de heterogeneidad entre estudios. Algunos enfoques pueden incluso intentar compensar la presencia (potencial) de sesgo de publicación, [23] [34] [35] lo que es particularmente útil para explorar el impacto potencial en los resultados del metanálisis. [36] [37] [38]
En ecología y biología ambiental, un estudio encontró que el sesgo de publicación impactó el tamaño del efecto, el poder estadístico y la magnitud. La prevalencia del sesgo de publicación distorsionó la confianza en los resultados metaanalíticos, ya que el 66% de las medias metaanalíticas inicialmente estadísticamente significativas se volvieron no significativas después de corregir el sesgo de publicación. [39] Los estudios ecológicos y evolutivos tuvieron sistemáticamente un poder estadístico bajo (15%) con una exageración de los efectos de 4 veces en promedio (tasas de error de tipo M = 4,4).
La presencia de sesgo de publicación se puede detectar mediante pruebas de sesgo de desfase temporal, donde el sesgo de desfase temporal se produce cuando los efectos más grandes o estadísticamente significativos se publican más rápidamente que los efectos más pequeños o no estadísticamente significativos. Puede manifestarse como una disminución en la magnitud del efecto general a lo largo del tiempo. La característica clave de las pruebas de sesgo de desfase temporal es que, a medida que se acumulan más estudios, se espera que el tamaño medio del efecto converja en su valor verdadero. [26]
Dos metanálisis de la eficacia de la reboxetina como antidepresivo demostraron intentos de detectar el sesgo de publicación en los ensayos clínicos. Basándose en datos de ensayos positivos, la reboxetina se aprobó originalmente como tratamiento para la depresión en muchos países de Europa y el Reino Unido en 2001 (aunque en la práctica rara vez se utiliza para esta indicación). Un metanálisis de 2010 concluyó que la reboxetina era ineficaz y que la preponderancia de los ensayos con resultados positivos reflejaba un sesgo de publicación, principalmente debido a los ensayos publicados por el fabricante del fármaco Pfizer . Un metanálisis posterior publicado en 2011, basado en los datos originales, encontró fallas en los análisis de 2010 y sugirió que los datos indicaban que la reboxetina era eficaz en la depresión grave (véase Reboxetina § Eficacia ). Ben Goldacre [40] y Peter Wilmshurst dan ejemplos de sesgo de publicación . [41]
En las ciencias sociales, un estudio de artículos publicados que exploraban la relación entre el desempeño social y financiero corporativo encontró que "en revistas de economía, finanzas y contabilidad, las correlaciones promedio eran solo alrededor de la mitad de la magnitud de los hallazgos publicados en revistas de Social Issues Management, Business Ethics o Business and Society". [42]
Un ejemplo citado como instancia de sesgo de publicación es la negativa a publicar intentos de réplicas del trabajo de Bem que afirmaban tener evidencia de precognición por parte de The Journal of Personality and Social Psychology (el editor original del artículo de Bem). [43]
Un análisis [44] que comparó estudios de asociaciones entre genes y enfermedades originados en China con aquellos originados fuera de China encontró que aquellos realizados dentro del país informaron una asociación más fuerte y un resultado estadísticamente más significativo. [45]
John Ioannidis sostiene que "los supuestos hallazgos de investigación a menudo pueden ser simplemente medidas precisas del sesgo prevaleciente". [46] Enumera los siguientes factores como aquellos que hacen que un artículo con un resultado positivo tenga más probabilidades de ingresar a la literatura y suprimen los artículos con resultados negativos:
Otros factores incluyen el sesgo del experimentador y el sesgo del sombrero blanco .
El sesgo de publicación se puede contener mediante estudios con mayor potencia, estándares de investigación mejorados y una consideración cuidadosa de las relaciones verdaderas y falsas. [46] Los estudios con mayor potencia se refieren a estudios grandes que ofrecen resultados definitivos o prueban conceptos importantes y conducen a un metanálisis con bajo sesgo. Los estándares de investigación mejorados, como el registro previo de protocolos, el registro de recopilaciones de datos y la adherencia a protocolos establecidos, son otras técnicas. Para evitar resultados falsos positivos, el experimentador debe considerar las probabilidades de que esté probando una relación verdadera o falsa. Esto se puede realizar evaluando adecuadamente la probabilidad de informe de falso positivo en función del poder estadístico de la prueba [47] y reconfirmando (siempre que sea éticamente aceptable) los hallazgos establecidos de estudios previos que se sabe que tienen un sesgo mínimo.
En septiembre de 2004, los editores de importantes revistas médicas (entre ellas New England Journal of Medicine , The Lancet , Annals of Internal Medicine y JAMA ) anunciaron que ya no publicarían los resultados de las investigaciones sobre medicamentos patrocinadas por compañías farmacéuticas a menos que dicha investigación se registrara en una base de datos de registro de ensayos clínicos públicos desde el principio. [48] Además, algunas revistas (por ejemplo, Trials ) fomentan la publicación de protocolos de estudios en sus revistas. [49]
La Organización Mundial de la Salud (OMS) acordó que la información básica sobre todos los ensayos clínicos debe registrarse al inicio del estudio y que esta información debe ser accesible al público a través de la Plataforma de Registro Internacional de Ensayos Clínicos de la OMS . Además, la disponibilidad pública de protocolos de estudio completos, junto con informes de ensayos, es cada vez más común en el caso de los estudios. [50]
En un megaestudio se prueban simultáneamente una gran cantidad de tratamientos. Dada la inclusión de diferentes intervenciones en el estudio, la probabilidad de publicación de un megaestudio depende menos del efecto estadísticamente significativo de cualquier tratamiento específico, por lo que se ha sugerido que los megaestudios pueden ser menos propensos al sesgo de publicación. [51] Por ejemplo, una intervención que se considere ineficaz sería más fácil de publicar como parte de un megaestudio como una de las muchas intervenciones estudiadas. Por el contrario, podría no publicarse debido al problema del cajón de archivos si fuera el único foco de un artículo contemplado. Por la misma razón, el diseño de investigación del megaestudio puede alentar a los investigadores a estudiar no solo las intervenciones que consideran más probables de ser efectivas, sino también aquellas intervenciones de las que los investigadores están menos seguros y que no elegirían como el único foco del estudio debido al alto riesgo percibido de un efecto nulo.
{{cite journal}}
: CS1 maint: DOI inactivo a partir de junio de 2024 ( enlace )