stringtranslate.com

Manifiesto de Leiden

El Manifiesto de Leiden para las métricas de investigación ( LM ) es una lista de "diez principios para guiar la evaluación de la investigación", [1] publicado como comentario en el Volumen 520, Número 7548 de Nature , el 22 de abril de 2015. Fue formulado por la profesora de políticas públicas Diana Hicks, el profesor de cienciometría Paul Wouters y sus colegas en la 19.ª Conferencia Internacional sobre Indicadores de Ciencia y Tecnología, celebrada entre el 3 y el 5 de septiembre de 2014 en Leiden , Países Bajos. [2]

El LM se propuso como una guía para combatir el uso indebido de la bibliometría al evaluar la literatura de investigación científica. Algunos ejemplos de bibliometría comúnmente utilizada para la ciencia, o cienciometría , son el índice h , el factor de impacto y los sitios web que muestran indicadores como Altmetrics . Según Hicks et al., estas métricas a menudo desorientan de manera generalizada las evaluaciones de material científico. [3]

Motivación

Las motivaciones para codificar el Manifiesto de Leiden surgieron de una creciente preocupación de que la "obsesión por el factor de impacto" [1] estaba llevando a un juicio inadecuado de material científico que debería ser digno de una evaluación justa. La autora principal del LM, Diana Hicks, esperaba que la publicación en Nature expandiera las ideas ya comunes en la esfera de la cienciometría a la comunidad científica más amplia. [4] Aunque los principios del LM no son nuevos para los cienciometristas, Hicks et al. deseaban crear una unificación de ideas para guiar a los futuros editores y revisores de literatura científica.

DORA y otros predecesores

El interés por la reforma de la forma de evaluar la investigación es un debate permanente en la comunidad científica. Aproximadamente dos años antes del manifiesto se publicó la Declaración de San Francisco sobre la Evaluación de la Investigación , una conocida declaración destinada a acabar con el uso del factor de impacto . La LM amplió las ideas presentadas en la DORA, que ya ha sido firmada por más de 2000 organizaciones y más de 15 000 personas. [5]

Una de las principales preocupaciones sobre el uso excesivo de indicadores de desempeño basados ​​en citas surgió de la observación de que las organizaciones e instituciones de investigación más pequeñas pueden verse afectadas negativamente por sus índices métricos. En un debate público en el Centro de Estudios de Ciencia y Tecnología de la Universidad de Leiden , se reconoció que los indicadores que miden las citas pueden dar "más peso a las publicaciones de campos con un alto número esperado de citas que a las publicaciones de campos con un bajo número esperado de citas". [6]

Aunque el enfoque principal del LM se basa en el uso de la cienciometría para la evaluación de la investigación, en sus antecedentes, Hicks et al. también explican por qué el uso excesivo de métricas puede afectar negativamente a la comunidad académica en general, como la posición de las universidades en los rankings globales. [7] [8] Según Hicks et al., las métricas científicas como la tasa de citas se utilizan demasiado para clasificar la calidad de las universidades (y, por lo tanto, la calidad de su producción de investigación).

Factor de impacto de la revista

Los antecedentes del LM describen por qué el uso indebido de las métricas se está convirtiendo en un problema cada vez mayor en la comunidad científica. El factor de impacto de una revista , creado originalmente por Eugene Garfield como un método para que los bibliotecarios recopilaran datos para facilitar la selección de revistas para comprar, ahora se utiliza principalmente como un método para juzgar la calidad de las revistas. [9] Hicks et al. consideran que esto es un abuso de los datos para examinar la investigación con demasiada prisa. Por ejemplo, un factor de impacto, si bien es una buena métrica para medir el tamaño y la experiencia de una revista, puede o no ser suficiente para describir con precisión la calidad de sus artículos, y menos aún para un solo artículo.

Contenido

El Manifiesto de Leiden , que consta de diez principios concisos y una descripción de cada uno de ellos, tiene como objetivo reconstruir la forma en que se realizan las evaluaciones de investigación por parte de editoriales académicas e instituciones científicas. Su énfasis está en la evaluación detallada y minuciosa de la investigación, en lugar del uso excesivo de datos cuantitativos en las evaluaciones. Su objetivo es promover la excelencia académica y la equidad mediante un escrutinio minucioso, así como eliminar posibles incentivos perversos del uso de la cienciometría, como el juicio de la capacidad académica y la calidad universitaria. [10]

Diez principios

Los diez principios del Manifiesto de Leiden son los siguientes: [1]

  1. La evaluación cuantitativa debe respaldar la evaluación cualitativa realizada por expertos.
  2. Medir el desempeño en relación con las misiones de investigación de la institución, el grupo o el investigador.
  3. Proteger la excelencia en la investigación localmente relevante.
    • Es decir, permitir que la investigación que se lleva a cabo en un área o campo determinado se publique en la publicación de investigación local correspondiente, en lugar de priorizar las revistas de alto impacto . Muchas revistas de alto impacto están en inglés, lo que puede reducir la especificidad necesaria al publicar un artículo destinado a estudiar características de ubicación. Por ejemplo, en artículos de alto impacto en español, se pueden perder "temas como leyes laborales locales" y otras características designadas para sociólogos. [11]
  4. Mantenga los procesos de recopilación y análisis de datos abiertos, transparentes y simples.
  5. Permitir que los evaluados verifiquen los datos y el análisis.
  6. Explique la variación por campo en las prácticas de publicación y citación.
    • La revisión por pares y la tasa de citas pueden variar enormemente entre distintas disciplinas; por ejemplo, "las revistas mejor clasificadas en matemáticas tienen factores de impacto de alrededor de 3; las revistas mejor clasificadas en biología celular tienen factores de impacto de alrededor de 30". [12]
  7. Basar la evaluación de los investigadores individuales en un juicio cualitativo de su cartera.
  8. Evite la concreción fuera de lugar y la falsa precisión .
    • Según Hicks et al., el uso de indicadores científicos puede preceder a suposiciones sólidas que no son necesariamente correctas. Por ejemplo, al analizar a un científico específico, una tasa baja de citas puede llevar al investigador a suponer una baja calidad de la investigación, lo que implica causalidad a partir de correlación . Proporcionar aclaraciones, así como múltiples indicadores sólidos, puede reducir la concreción inapropiada. La precisión falsa es posible cuando los productores de indicadores, como Clarivate (que publica los Journal Citation Reports anuales ) intentan crear un factor de impacto de revista exacto (es decir, tres decimales). Hicks, et al. sostienen que la ambigüedad conceptual y la variabilidad aleatoria de los recuentos de citas hacen innecesario distinguir índices como los factores de impacto de revistas con tanta precisión, porque puede fomentar una comparación y competencia excesivas entre editoriales. [1]
  9. Reconocer los efectos sistémicos de la evaluación y los indicadores.
  10. Revise periódicamente los indicadores y actualícelos.

Recepción

Premio John Ziman 2016

En 2016, el Manifiesto de Leiden recibió el Premio John Ziman de la Asociación Europea para el Estudio de la Ciencia y la Tecnología por su esfuerzo por ampliar el conocimiento de la cienciometría a la comunidad científica en su conjunto. El presidente de la EASST, Fred Steward, afirmó que el Manifiesto de Leiden "enfatiza la situación, en términos de diferentes dominios cognitivos y misiones de investigación, así como el contexto socioeconómico, nacional y regional más amplio". [13] Este premio contribuyó a la solidificación del Manifiesto de Leiden como un debate público continuo para la comunidad académica. El premio fue bien recibido por la autora principal Diana Hicks. [4]

Manifiesto de Leiden,La marea métrica, y DORA

El Manifiesto de Leiden ganó popularidad tras su publicación, principalmente entre la comunidad de publicaciones académicas que buscaban reformar sus prácticas. El Manifiesto de Leiden se cita a menudo junto con otras publicaciones similares, como DORA y la revista académica con sede en el Reino Unido The Metric Tide . [4] [14] En una declaración pública de la Universidad de Leeds , se emitió el apoyo al compromiso de utilizar los principios del Manifiesto de Leiden junto con DORA y The Metric Tide con el fin de promover la excelencia en la investigación. [15]

Aprobación pública

LIBER, una colaboración de bibliotecas de investigación europeas, publicó una revisión sustancial del LM en 2017. Concluyó como punto de vista que el LM era una "base sólida" sobre la cual las bibliotecas académicas podían basar su evaluación de métricas. [16]

Elsevier , líder mundial en publicación de investigaciones y análisis de información, anunció el 14 de julio de 2020 que respaldaría el LM para orientar su desarrollo de una mejor evaluación de la investigación. Elsevier afirmó que los principios del manifiesto ya eran similares en naturaleza a sus métricas CiteScore de 2019 , que en resumen eran "una metodología de cálculo mejorada" para "un indicador más sólido, justo y rápido del impacto de la investigación". [17] Esta alineación popularizó aún más el LM y también ilustró el cambio en las prácticas de evaluación de las publicaciones de investigación destacadas.

El comité de Bibliometría de la Universidad de Loughborough decidió basar sus principios en los del LM en lugar de los del DORA, porque según su directora de políticas Elizabeth Gadd, el LM adopta un "enfoque más amplio para el uso responsable de toda la bibliometría en una variedad de disciplinas y entornos". [18] Stephen Curry, presidente del comité directivo del DORA, comentó esta declaración enfatizando que el DORA tenía como objetivo extender su "alcance disciplinario y geográfico". [19] Sin embargo, dejó en claro que una universidad debería tener el derecho de elegir seguir el DORA o el LM, o ninguno, siempre que se proporcione una justificación razonable.

Otras aplicaciones

David Moher et al. hicieron referencia al LM en una perspectiva para Issues in Science and Technology en la que afirmaban que las instituciones académicas no estaban haciendo las "preguntas correctas" (es decir, planificación de la investigación, marco temporal, reproducibilidad y resultados) para evaluar a los científicos. Moher et al. critican la obsesión de los investigadores de la cienciometría por los factores de impacto de las revistas y la "jugada" de los mismos. [20] En cambio, Moher et al. abogan por el uso de DORA y el LM para evaluar a los científicos y las investigaciones individuales.

T. Kanchan y K. Krishan describen en una carta publicada en Science and Engineering Ethics por qué el LM es "uno de los mejores criterios" para evaluar la investigación científica, especialmente si se tiene en cuenta la "carrera de ratas" por las publicaciones en la comunidad académica. Kanchan y Krishan destacan que el uso del LM conducirá al "progreso de la ciencia y de la sociedad en general". [21]

Véase también

Referencias

  1. ^ abcdHicks , Diana; Wouters, Pablo; Waltman, Ludo; de Rijcke, Sarah; Ráfols, Ismael (22 de abril de 2015). "Bibliometría: El Manifiesto de Leiden para las métricas de investigación". Naturaleza . 520 (7548): 429–431. Código Bib :2015Natur.520..429H. doi : 10.1038/520429a . hdl : 10261/132304 . ISSN  0028-0836. PMID  25903611.
  2. ^ "STI 2014 Leiden - 19ª Conferencia Internacional sobre Indicadores de Ciencia y Tecnología". STI 2014 . Consultado el 30 de noviembre de 2020 .
  3. ^ "Manifiesto de Leiden para las métricas de investigación". Manifiesto de Leiden para las métricas de investigación . Consultado el 4 de diciembre de 2020 .
  4. ^ abc "Mejores prácticas en métricas de investigación: una conversación con el autor principal del Manifiesto de Leiden - YouTube". www.youtube.com . Consultado el 4 de diciembre de 2020 .
  5. ^ "DORA – Declaración de San Francisco sobre la evaluación de la investigación (DORA)". sfdora.org . Consultado el 4 de diciembre de 2020 .
  6. ^ van Raan, Anthony FJ; van Leeuwen, Thed N.; Visser, Martijn S.; van Eck, Nees Jan; Waltman, Ludo (julio de 2010). "Rivales por la corona: respuesta a Opthof y Leydesdorff". Revista de Informetría . 4 (3): 431–435. arXiv : 1003.2113 . doi :10.1016/j.joi.2010.03.008. S2CID  10780959.
  7. ^ "Ranking de universidades del mundo". Times Higher Education (THE) . 19 de septiembre de 2018. Consultado el 4 de diciembre de 2020 .
  8. ^ "ARWU World University Rankings 2020 | Ranking académico de universidades del mundo". www.shanghairanking.com . Consultado el 4 de diciembre de 2020 .
  9. ^ Larivière, Vincent; Sugimoto, Cassidy R. (2019), Glänzel, Wolfgang; Moed, Henk F.; Schmoch, Ulrich; Thelwall, Mike (eds.), "El factor de impacto de las revistas: una breve historia, crítica y discusión de los efectos adversos", Springer Handbook of Science and Technology Indicators , Springer Handbooks, Cham: Springer International Publishing, págs. 3–24, arXiv : 1801.08992 , doi :10.1007/978-3-030-02511-3_1, ISBN 978-3-030-02511-3, S2CID  3677889 , consultado el 4 de diciembre de 2020
  10. ^ El Manifiesto de Leiden sobre Métricas de Investigación , consultado el 5 de diciembre de 2020
  11. ^ López Piñeiro, Carla; Hicks, Diana (1 de enero de 2015). «La recepción de la sociología española por parte de públicos nacionales y extranjeros difiere y tiene consecuencias para la evaluación». Evaluación de la investigación . 24 (1): 78–89. doi :10.1093/reseval/rvu030. ISSN  0958-2029.
  12. ^ Waltman, parchís; Calero-Medina, Clara; Kosten, Joost; Noyons, Ed CM; Tijssen, Robert JW; Eck, Nees Jan van; Leeuwen, Thed N. van; Raan, Anthony FJ van; Visser, Martijn S.; Wouters, Paul (2012). "El ranking de Leiden 2011/2012: recopilación de datos, indicadores e interpretación". Revista de la Sociedad Estadounidense de Ciencia y Tecnología de la Información . 63 (12): 2419–2432. arXiv : 1202.3941 . doi :10.1002/asi.22708. ISSN  1532-2890. S2CID  935166.
  13. ^ "Premio John Ziman 2016 por el Manifiesto de Leiden". CWTS . Consultado el 5 de diciembre de 2020 .
  14. ^ "Mareas métricas - Investigación en Inglaterra". re.ukri.org . Consultado el 4 de diciembre de 2020 .
  15. ^ "Métricas responsables en la evaluación de la investigación". Servicio de Investigación e Innovación . Consultado el 5 de diciembre de 2020 .
  16. ^ Coombs, Sarah K.; Peters, Isabella (13 de noviembre de 2017). "El Manifiesto de Leiden bajo revisión: qué pueden aprender de él las bibliotecas". Perspectivas de la biblioteca digital . 33 (4): 324–338. doi :10.1108/dlp-01-2017-0004. hdl : 11108/323 . ISSN  2059-5816.
  17. ^ "Elsevier respalda el Manifiesto de Leiden para orientar el desarrollo de una mejor evaluación de la investigación". www.elsevier.com . Consultado el 5 de diciembre de 2020 .
  18. ^ Gadd, Lizzie (9 de julio de 2018). "DORA, el Manifiesto de Leiden y el derecho de la universidad a elegir". The Bibliomagician . Consultado el 5 de diciembre de 2020 .
  19. ^ Stephen. "DORA, el Manifiesto de Leiden y el derecho de la universidad a elegir: un comentario". Espacio recíproco . Consultado el 5 de diciembre de 2020 .
  20. ^ Moher, David; Naudet, Florian; Cristea, Ioana A.; Miedema, Frank; Ioannidis, John PA; Goodman, Steven N. (29 de marzo de 2018). "Evaluación de científicos para contratación, promoción y permanencia". PLOS Biology . 16 (3): e2004089. doi : 10.1371/journal.pbio.2004089 . ISSN  1545-7885. PMC 5892914 . PMID  29596415. 
  21. ^ Kanchan, Tanuj; Krishan, Kewal (abril de 2019). "El Manifiesto de Leiden y la evaluación de la investigación". Ética de la ciencia y la ingeniería . 25 (2): 643–644. doi :10.1007/s11948-017-0012-2. ISSN  1353-3452. PMID  29264830. S2CID  29821298.