En publicaciones académicas y científicas, las altmétricas son bibliometrías no tradicionales [2] propuestas como una alternativa [3] o complemento [4] a las métricas de impacto de citas más tradicionales , como el factor de impacto y el índice h . [5] El término altmetrics se propuso en 2010, [1] como una generalización de las métricas a nivel de artículo , [6] y tiene sus raíces en el hashtag #altmetrics . Aunque a menudo se piensa que las altmétricas son métricas sobre artículos, se pueden aplicar a personas, revistas, libros, conjuntos de datos, presentaciones, vídeos, repositorios de código fuente, páginas web, etc.
Altmetrics utiliza API públicas en todas las plataformas para recopilar datos con scripts y algoritmos abiertos. Altmetrics originalmente no cubría el recuento de citas , [7] pero calcula el impacto académico basándose en diversos resultados de investigación en línea, como redes sociales, medios de noticias en línea, administradores de referencias en línea, etc. [8] [9] Demuestra tanto el impacto como la composición detallada del impacto. [1] Altmetrics podría aplicarse al filtro de investigación, [1] expedientes de promoción y tenencia, solicitudes de subvenciones [10] [11] y para clasificar artículos recientemente publicados en motores de búsqueda académicos . [12]
Con el tiempo, la diversidad de fuentes que mencionan, citan o archivan artículos ha disminuido. Esto sucedió porque dejaron de existir servicios, como Connotea, o por cambios en la disponibilidad de API. Por ejemplo, PlumX eliminó las métricas de Twitter en agosto de 2023. [13]
El desarrollo de la web 2.0 ha cambiado la búsqueda y el intercambio de publicaciones de investigación dentro o fuera de la academia, pero también proporciona nuevas construcciones innovadoras para medir el amplio impacto científico del trabajo académico. Si bien las métricas tradicionales son útiles, podrían resultar insuficientes para medir los impactos inmediatos y no citados, especialmente fuera del ámbito de la revisión por pares. [1]
Proyectos como ImpactStory , [14] [15] y varias empresas, incluidas Altmetric , [14] [16] Plum Analytics [14] [17] [18] [19] y Overton [20] están calculando altmetrics. Varias editoriales han comenzado a proporcionar dicha información a los lectores, incluidas BioMed Central , Public Library of Science (PLOS) , [21] [22] Frontiers , [23] Nature Publishing Group , [24] y Elsevier . [25] [26] La biblioteca de revistas del NIHR también incluye datos altmétricos junto con sus publicaciones. [27]
En 2008, el Journal of Medical Internet Research comenzó a recopilar sistemáticamente tweets sobre sus artículos. [28] A partir de marzo de 2009, la Biblioteca Pública de Ciencias también introdujo métricas a nivel de artículo para todos los artículos. [21] [22] [29] Los financiadores han comenzado a mostrar interés en métricas alternativas, [30] incluido el Consejo de Investigación Médica del Reino Unido. [31] Los investigadores han utilizado altmetrics en solicitudes de revisión de promociones. [32] Además, varias universidades, incluida la Universidad de Pittsburgh , están experimentando con altmetrics a nivel de instituto. [32]
Sin embargo, también se observa que un artículo necesita poca atención para saltar al cuartil superior de los artículos clasificados, [33] lo que sugiere que actualmente no hay suficientes fuentes de altmétricas disponibles para brindar una imagen equilibrada del impacto de la mayoría de los artículos.
Un servicio que calcula estadísticas altmétricas, importante para determinar el impacto relativo de un artículo, necesita una base de conocimientos de tamaño considerable. El siguiente cuadro muestra el número de artefactos, incluidos los papeles, cubiertos por los servicios:
Las altmétricas son un grupo muy amplio de métricas que capturan varias partes del impacto que puede tener un artículo o trabajo. ImpactStory propuso una clasificación de altmétricas en septiembre de 2012, [38] y la Biblioteca Pública de Ciencias utiliza una clasificación muy similar: [39]
Una de las primeras métricas alternativas que se utilizaron fue el número de vistas de un artículo. Tradicionalmente, un autor desearía publicar en una revista con una alta tasa de suscripción, de modo que muchas personas tuvieran acceso a la investigación. Con la introducción de las tecnologías web, fue posible contar con qué frecuencia se miraba un solo artículo. Normalmente, los editores cuentan la cantidad de vistas HTML y vistas PDF. Ya en 2004, el BMJ publicó el número de visitas a sus artículos, que en cierto modo estaba correlacionado con las citas. [41]
La discusión de un artículo puede verse como una métrica que captura el impacto potencial de un artículo. Las fuentes típicas de datos para calcular esta métrica incluyen Facebook , Google+ , Twitter , blogs científicos y páginas de Wikipedia. Algunos investigadores consideran las menciones en las redes sociales como citas. Por ejemplo, las citas en una plataforma de redes sociales podrían dividirse en dos categorías: internas y externas. Por ejemplo, el primero incluye retuits, el segundo se refiere a tuits que contienen enlaces a documentos externos. [42] Se ha estudiado la correlación entre las menciones, los "me gusta" y las citas en la literatura científica primaria y, en el mejor de los casos, se encontró una ligera correlación, por ejemplo, para artículos en PubMed . [4]
En 2008, el Journal of Medical Internet Research comenzó a publicar opiniones y tweets . Estos "tweetats" demostraron ser un buen indicador de artículos muy citados, lo que llevó al autor a proponer un "factor Twimpact", que es el número de Tweets que recibe en los primeros siete días de publicación, así como un Twindex, que es el percentil de rango del factor Twimpact de un artículo. [28] Sin embargo, si se implementa el uso del factor Twimpact, la investigación muestra que las puntuaciones son muy específicas del tema y, como resultado, se deben hacer comparaciones de los factores Twimpact entre artículos de la misma área temática. [28] Si bien investigaciones anteriores en la literatura han demostrado una correlación entre tweets y citas, no es una relación causal. En este momento, no está claro si el mayor número de citas se produce como resultado de una mayor atención de los medios a través de Twitter y otras plataformas, o si simplemente refleja la calidad del artículo en sí. [28]
Investigaciones recientes realizadas a nivel individual, en lugar de a nivel de artículo, respaldan el uso de Twitter y las plataformas de redes sociales como mecanismo para aumentar el valor del impacto. [43] Los resultados indican que los investigadores cuyo trabajo se menciona en Twitter tienen índices h significativamente más altos que los de los investigadores cuyo trabajo no se menciona en Twitter. El estudio destaca el papel del uso de plataformas basadas en debates, como Twitter, para aumentar el valor de las métricas de impacto tradicionales.
Además de Twitter y otras corrientes, los blogs han demostrado ser una plataforma poderosa para discutir literatura. Existen varias plataformas que realizan un seguimiento de los artículos sobre los que se escriben blogs. Altmetric.com utiliza esta información para calcular métricas, mientras que otras herramientas simplemente informan dónde se produce la discusión, como ResearchBlogging y Chemical blogspace.
Las plataformas pueden incluso proporcionar una forma formal de clasificar artículos o recomendar artículos de otro modo, como Faculty of 1000 . [44]
También es informativo cuantificar la cantidad de veces que se ha guardado o marcado una página. Se cree que las personas suelen elegir marcar páginas que tienen una gran relevancia para su propio trabajo y, como resultado, los marcadores pueden ser un indicador adicional del impacto de un estudio específico. Los proveedores de dicha información incluyen servicios de marcadores sociales específicos de ciencia , como CiteULike y Mendeley .
La categoría citada es una definición restringida, diferente de la discusión. Además de las métricas tradicionales basadas en citas en literatura científica, como las obtenidas de Google Scholar , CrossRef , PubMed Central y Scopus , las altmetrics también adoptan citas en fuentes de conocimiento secundarias. Por ejemplo, ImpactStory cuenta la cantidad de veces que Wikipedia ha hecho referencia a un artículo. [45] Plum Analytics también proporciona métricas para varias publicaciones académicas, [46] que buscan realizar un seguimiento de la productividad de la investigación. PLOS también es una herramienta que puede utilizarse para utilizar información sobre la participación. [46]
Numerosos estudios han demostrado que los artículos científicos difundidos a través de canales de redes sociales (es decir, Twitter, Reddit, Facebook, YouTube, etc.) tienen puntuaciones bibliométricas (descargas, lecturas y citas) sustancialmente más altas que los artículos no publicitados a través de las redes sociales. En los campos de la cirugía plástica, [47] la cirugía de la mano [48] y más, las puntuaciones Altmetric más altas se asocian con mejores bibliometrías a corto plazo.
Si bien hay menos consenso sobre la validez y consistencia de las altmétricas, [49] se discute en particular la interpretación de las altmétricas. Los defensores de las altmétricas dejan claro que muchas de las métricas muestran atención o compromiso, más que la calidad de los impactos en el progreso de la ciencia. [39] Incluso las métricas basadas en citas no indican si una puntuación alta implica un impacto positivo en la ciencia; es decir, los artículos también se citan en artículos que no están de acuerdo con el artículo citado, una cuestión que, por ejemplo, aborda el proyecto Citation Typing Ontology. [50]
Las altmétricas podrían interpretarse más apropiadamente proporcionando un contexto detallado y datos cualitativos. Por ejemplo, para evaluar la contribución científica de un trabajo académico a la formulación de políticas mediante altmetrics, se deben proporcionar como evidencia datos cualitativos, como quién cita en línea [12] y en qué medida la cita en línea es relevante para la formulación de políticas. [51]
En cuanto a la correlación relativamente baja entre las métricas tradicionales y las altmétricas, las altmétricas podrían medir perspectivas complementarias del impacto académico. Es razonable combinar y comparar los dos tipos de métricas al interpretar los impactos sociales y científicos. Los investigadores construyeron un marco 2*2 basado en las interacciones entre altmetrics y citas tradicionales. [4] Se deben proporcionar explicaciones adicionales para los dos grupos con altmétricas altas/citas bajas y altmétricas bajas/citas altas. [28] [4] Por lo tanto, las altmétricas proporcionan enfoques convenientes para que investigadores e instituciones monitoreen el impacto de su trabajo y eviten interpretaciones inapropiadas.
La utilidad de las métricas para estimar el impacto científico es controvertida. [52] [53] [54] [55] Las investigaciones han descubierto que los rumores en línea podrían amplificar el efecto de otras formas de divulgación sobre el impacto científico de los investigadores. Para los nanocientíficos que se mencionan en Twitter, sus interacciones con periodistas y no científicos predijeron positiva y significativamente un índice h más alto, mientras que el grupo no mencionado fracasó. [43] Altmetrics amplía la medición del impacto académico para contener una rápida aceptación, una gama más amplia de audiencias y diversos resultados de investigación. Además, la comunidad muestra una necesidad clara: los financiadores exigen datos mensurables sobre el impacto de su gasto, como la participación pública.
Sin embargo, existen limitaciones que afectan la utilidad debido a problemas técnicos y sesgos sistemáticos del constructo, como la calidad de los datos, la heterogeneidad y las dependencias particulares. [53] En términos de problemas técnicos, los datos pueden estar incompletos, porque es difícil recopilar esos resultados de investigación en línea sin enlaces directos a sus menciones (es decir, videos) e identificar diferentes versiones de un trabajo de investigación. Además, no se ha resuelto si la API genera datos faltantes. [4]
En cuanto al sesgo sistemático, al igual que otras métricas, las altmétricas son propensas a las autocitas, los juegos y otros mecanismos para aumentar el impacto aparente, como realizar citas spam en Wikipedia. Se pueden jugar con Altmetrics : por ejemplo, se pueden comprar me gusta y menciones. [56] Las altmétricas pueden ser más difíciles de estandarizar que las citas. Un ejemplo es la cantidad de tweets que enlazan a un artículo, donde el número puede variar ampliamente dependiendo de cómo se recopilan los tweets. [57] Además, la popularidad en línea puede no igualar los valores científicos. Algunas citas populares en línea podrían estar lejos del valor de generar nuevos descubrimientos de investigación, mientras que algunas investigaciones de gran importancia científica impulsadas por teorías o dirigidas a minorías podrían quedar marginadas en línea. [28] Por ejemplo, los artículos más tuiteados en biomedicina en 2011 fueron relevantes para contenido curioso o divertido, posibles aplicaciones de salud y catástrofes. [4] Altmetric afirma que cuenta con sistemas para detectar, identificar y corregir el juego. [58] Finalmente, investigaciones recientes han demostrado que Altmetrics reproduce los sesgos de género que se encuentran en las prácticas disciplinarias de publicación y citación: por ejemplo, los artículos de revistas escritos exclusivamente por académicas obtienen una puntuación un 27% más baja en promedio que los resultados de autores exclusivamente masculinos. De inmediato, esta misma investigación muestra que es más probable que las puntuaciones de atención de 0 sean para artículos escritos por hombres. [59]
Las altmétricas para artículos más recientes pueden ser más altas debido a la creciente aceptación de la web social y porque los artículos pueden mencionarse principalmente cuando se publican. [60] Como resultado, podría no ser justo comparar las puntuaciones de altmetrics de los artículos a menos que hayan sido publicados en un momento similar. Los investigadores han desarrollado una prueba de signos para evitar el sesgo de aceptación del uso comparando las métricas de un artículo con los dos artículos publicados inmediatamente antes y después. [60]
Debe tenerse en cuenta que las métricas son sólo uno de los resultados del seguimiento de cómo se difunde y utiliza la investigación. Las altmétricas deben interpretarse cuidadosamente para superar el sesgo. Aún más informativo que saber con qué frecuencia se cita un artículo es qué artículos lo citan. Esa información permite a los investigadores ver cómo su trabajo está impactando (o no) el campo. Los proveedores de métricas también suelen brindar acceso a la información a partir de la cual se calcularon las métricas. Por ejemplo, Web of Science muestra cuáles son los artículos que citan, ImpactStory muestra qué páginas de Wikipedia hacen referencia al artículo y CitedIn muestra qué bases de datos extrajeron datos del artículo. [61]
Otra preocupación de las altmétricas, o de cualquier métrica, es cómo las universidades o instituciones utilizan las métricas para clasificar a sus empleados y tomar decisiones de promoción o financiación, [62] y el objetivo debe limitarse a medir el compromiso. [63]
La producción general de investigación en línea es muy escasa y variada entre las diferentes disciplinas. [28] [4] El fenómeno podría ser consistente con el uso de las redes sociales entre los científicos. Las encuestas han demostrado que casi la mitad de los encuestados mantenían actitudes ambivalentes sobre la influencia de las redes sociales en el impacto académico y nunca anunciaron su trabajo de investigación en las redes sociales. [64] Con el cambio en la ciencia abierta y el uso de las redes sociales, es más probable que se adopten altmétricas consistentes en todas las disciplinas e instituciones.
Los casos de uso específicos y sus características son un campo de investigación activo en bibliometría , que proporciona datos muy necesarios para medir el impacto de las altmétricas en sí. La Biblioteca Pública de Ciencias tiene una Colección Altmetrics [65] y tanto el Information Standards Quarterly como el Aslib Journal of Information Management publicaron recientemente números especiales sobre altmetrics. [66] [67] A finales de 2015 se publicó una serie de artículos que revisan exhaustivamente las altmetrics. [68] [69] [70]
Hay otras investigaciones que examinan la validez de una altmétrica [4] [28] o hacen comparaciones entre diferentes plataformas. [60] Los investigadores examinan la correlación entre altmetrics y las citas tradicionales como prueba de validez. Suponen que la correlación positiva y significativa revela la precisión de las altmétricas para medir el impacto científico en forma de citas. [60] La baja correlación (menos de 0,30 [4] ) lleva a la conclusión de que las altmétricas desempeñan un papel complementario en la medición del impacto académico, como el estudio de Lamba (2020) [71] , que examinó 2343 artículos que tenían puntuaciones de atención altmétricas y citas publicadas por 22 miembros principales de la facultad de políticas de atención médica de la Facultad de Medicina de Harvard y se observó una fuerte correlación positiva significativa (r>0,4) entre las puntuaciones agregadas de atención altmétrica clasificada y los valores de citación clasificada/aumento de citación para todos los miembros de la facultad en el estudio. Sin embargo, sigue sin resolverse qué altmetrics son más valiosos y qué grado de correlación entre dos métricas genera un impacto más fuerte en la medición. Además, la prueba de validez en sí también enfrenta algunos problemas técnicos. Por ejemplo, la replicación de la recopilación de datos es imposible debido a los algoritmos cambiantes instantáneos de los proveedores de datos. [72]
Altmetrics es el estudio y uso de medidas de impacto académico no tradicionales que se basan en la actividad en entornos web.
Las altmétricas y las métricas a nivel de artículo a veces se usan indistintamente, pero existen diferencias importantes: las métricas a nivel de artículo también incluyen citas y datos de uso; ...
{{cite journal}}
: Citar diario requiere |journal=
( ayuda ){{cite journal}}
: Citar diario requiere |journal=
( ayuda )