La bibliometría es la aplicación de métodos estadísticos al estudio de datos bibliográficos, especialmente en contextos científicos y de bibliotecología y ciencias de la información , y está estrechamente asociada con la cienciometría (el análisis de métricas e indicadores científicos) hasta el punto de que ambos campos se superponen en gran medida.
Los estudios bibliométricos surgieron a finales del siglo XIX y conocieron un desarrollo significativo después de la Segunda Guerra Mundial , en un contexto de "crisis periódica" y de nuevas oportunidades técnicas que ofrecían las herramientas informáticas. A principios de los años 60, el Science Citation Index de Eugene Garfield y el análisis de redes de citas de Derek John de Solla Price sentaron las bases fundamentales de un programa de investigación estructurado sobre bibliometría.
El análisis de citas es un método bibliométrico de uso común basado en la construcción del gráfico de citas , [1] una representación en red o gráfico de las citas compartidas por los documentos. Muchos campos de investigación utilizan métodos bibliométricos para explorar el impacto de su campo, el impacto de un conjunto de investigadores, el impacto de un artículo en particular o para identificar artículos particularmente impactantes dentro de un campo de investigación específico. Las herramientas bibliométricas se han integrado comúnmente en la lingüística descriptiva , el desarrollo de tesauros y la evaluación del uso del lector. Más allá del uso científico especializado, los motores de búsqueda web populares, como el algoritmo PageRank implementado por Google, han sido moldeados en gran medida por métodos y conceptos bibliométricos.
La aparición de la Web y el movimiento de ciencia abierta han ido transformando gradualmente la definición y el propósito de la "bibliometría". En la década de 2010, las infraestructuras históricas propietarias de datos de citas, como la Web of Science o Scopus, se han visto cuestionadas por nuevas iniciativas a favor de los datos de citas abiertos. El Manifiesto de Leiden sobre Métricas de Investigación (2015) abrió un amplio debate sobre el uso y la transparencia de las métricas.
El término bibliometría fue utilizado por primera vez por Paul Otlet en 1934, [2] [3] y definido como «la medición de todos los aspectos relacionados con la publicación y lectura de libros y documentos». [4] La versión anglicanizada bibliometría fue utilizada por primera vez por Alan Pritchard en un artículo publicado en 1969, titulado «Statistical Bibliography or Bibliometrics?» [5] Definió el término como «la aplicación de las matemáticas y los métodos estadísticos a los libros y otros medios de comunicación». La bibliometría fue concebida como un reemplazo de la bibliografía estadística , la principal etiqueta utilizada por las publicaciones en el campo hasta entonces: para Pritchard, la bibliografía estadística era demasiado «torpe» y no dejaba muy claro cuál era el principal objeto de estudio. [6]
El concepto de bibliometría «enfatiza el aspecto material de la tarea: contar libros, artículos, publicaciones, citas». [7] En teoría, la bibliometría es un campo distinto de la cienciometría (del ruso naukometriya ), [8] que se basa en el análisis de indicadores no bibliográficos de la actividad científica. En la práctica, los estudios de bibliometría y cienciometría tienden a utilizar fuentes de datos y métodos similares, ya que los datos de citas se han convertido en el estándar líder de evaluación científica cuantitativa durante mediados del siglo XX: «en la medida en que las técnicas bibliométricas se aplican a la literatura científica y técnica, las dos áreas de la cienciometría y la bibliometría se superponen en un grado considerable». [7] El desarrollo de la web y la expansión del enfoque bibliométrico a la producción no científica ha conllevado la introducción de etiquetas más amplias en los años 1990 y 2000: infometría, webometría o cibermetría. [9] Estos términos no han sido ampliamente adoptados, ya que se superponen en parte con prácticas de investigación preexistentes, como la recuperación de información.
Las obras, estudios e investigaciones científicas que tienen un carácter bibliométrico se pueden identificar, según la definición, ya en el siglo XII en forma de índices judíos. [10]
El análisis bibliométrico apareció a finales del siglo XIX y principios del XX. [11] [12] [13] [14] Estos desarrollos anteceden a la primera aparición del concepto de bibiometría por varias décadas. Se utilizaban comúnmente otras etiquetas: las estadísticas bibliográficas se hicieron especialmente frecuentes después de 1920 y continuaron utilizándose hasta finales de la década de 1960. [14] Los primeros estudios estadísticos de metadatos científicos estuvieron motivados por la importante expansión de la producción científica y el desarrollo paralelo de servicios de indexación de bases de datos que hicieron que esta información fuera más accesible en primer lugar. [15] Los índices de citas se aplicaron por primera vez a la jurisprudencia en la década de 1860 y su ejemplo más famoso, Shepard's Citations (publicado por primera vez en 1873) servirá como inspiración directa para el Science Citation Index un siglo después. [16]
El surgimiento de las ciencias sociales inspiró nuevas investigaciones especulativas sobre la ciencia de la ciencia y la posibilidad de estudiar la ciencia misma como un objeto científico: "La creencia de que las actividades sociales, incluida la ciencia, podían reducirse a leyes cuantitativas, tal como la trayectoria de una bala de cañón y las revoluciones de los cuerpos celestes, se remonta a la sociología positivista de Auguste Comte , William Ogburn y Herbert Spencer ". [17] El análisis bibliométrico no fue concebido como un cuerpo de estudios independiente sino como uno de los métodos disponibles para el análisis cuantitativo de la actividad científica en diferentes campos de investigación: historia de la ciencia ( Histoire des sciences et des savants depuis deux siècles de Alphonse de Candolle en 1885, The history of comparative anatomy, un análisis estadístico de la literatura de Francis Joseph Cole y Nellie B. Eales en 1917), bibliografía ( The Theory of National and International Bibliography de Francis Burburry Campbell en 1896) o sociología de la ciencia ( Statistics of American Psychologists de James McKeen Cattell en 1903).
Los primeros trabajos de bibliometría y cienciometría no eran simplemente descriptivos, sino que expresaban puntos de vista normativos sobre lo que la ciencia debería ser y cómo podría progresar. La medición del desempeño de investigadores individuales, instituciones científicas o países enteros era un objetivo principal. [15] El análisis estadístico de James McKeen Cattell actuó como trabajo preparatorio para una evaluación a gran escala de los investigadores estadounidenses con matices eugenistas : American Men of Science (1906), "con su sistema de calificación asombrosamente simplista de asteriscos adheridos a las entradas individuales en proporción a la eminencia estimada del erudito destacado". [11]
Después de 1910, el enfoque bibliométrico se convirtió cada vez más en el foco principal de varios estudios sobre el rendimiento científico, en lugar de un método cuantitativo entre otros. [18] En 1917, Francis Joseph Cole y Nellie B. Eales argumentaron a favor del valor estadístico primario de las publicaciones, ya que una publicación "es una pieza de trabajo aislada y definida, es permanente, accesible y puede juzgarse, y en la mayoría de los casos no es difícil determinar cuándo, dónde y por quién se hizo, y trazar los resultados en papel cuadriculado". [19] Cinco años después, Edward Wyndham Hulme amplió este argumento hasta el punto de que las publicaciones podrían considerarse como la medida estándar de toda una civilización: "Si la civilización no es más que el producto de la mente humana que opera sobre una plataforma cambiante de su entorno, podemos afirmar que la bibliografía no es solo un pilar en la estructura del edificio, sino que puede funcionar como una medida de las fuerzas variables a las que esta estructura está continuamente sujeta". [20] Este cambio hacia la publicación tuvo un impacto limitado: hasta la década de 1970, la evaluación nacional e internacional de las actividades científicas "desdeñaba los indicadores bibliométricos" que se consideraban demasiado simplistas, en favor de medidas sociológicas y económicas. [21]
Tanto el valor añadido que se daba a las publicaciones científicas como medida del conocimiento como las dificultades que encontraban las bibliotecas para gestionar el creciente flujo de publicaciones académicas llevaron al desarrollo de los primeros índices de citas. [22] En 1927, P. Gross y EM Gross recopilaron las 3.633 referencias citadas por el Journal of the American Chemical Society durante el año 1926 y clasificaron las revistas en función de su nivel de citación. Los dos autores crearon un conjunto de herramientas y métodos que todavía se utilizan habitualmente en los motores de búsqueda académicos, incluida la atribución de una bonificación a las citas recientes, ya que "la tendencia actual, más que el rendimiento pasado de una revista, debe considerarse primero". [23] Sin embargo, el entorno académico medido era marcadamente diferente: el alemán, en lugar del inglés, se clasificó con diferencia como el idioma principal de la ciencia de la química, con más del 50% de todas las referencias. [24]
En el mismo período, los algoritmos, métricas y métodos fundamentales de la bibliometría se identificaron por primera vez en varios proyectos no relacionados, [25] la mayoría de ellos relacionados con las desigualdades estructurales de la producción científica. En Alfred Lotka introdujo su ley de productividad a partir de un análisis de las publicaciones de autor en Chemical Abstracts y Geschichtstafeln der Physik : el número de autores que producen un número n de contribuciones es igual al número 1/n^2 de autores que solo produjeron una publicación. [26] En, el bibliotecario jefe del Museo de Ciencias de Londres , Samuel Bradford, derivó una ley de dispersión de su experiencia en la indexación bibliográfica: hay rendimientos exponencialmente decrecientes de la búsqueda de referencias en revistas científicas, ya que cada vez se necesita consultar más trabajo para encontrar trabajo relevante. Tanto la ley de Lotka como la de Bradford han sido criticadas porque están lejos de ser universales y más bien revelan una relación de ley de potencia aproximada presentada por ecuaciones engañosamente precisas. [27]
Después de la Segunda Guerra Mundial , el creciente desafío en la gestión y acceso a las publicaciones científicas se convirtió en una "crisis periódica" en toda regla: las revistas existentes no podían seguir el ritmo de la producción científica en rápido aumento impulsada por los grandes proyectos científicos. [28] [8] El tema se volvió políticamente relevante después del exitoso lanzamiento del Sputnik en 1957: "La crisis del Sputnik convirtió el problema del control bibliográfico de los bibliotecarios en una crisis nacional de información". [29] En un contexto de cambio rápido y dramático, el campo emergente de la bibliometría se vinculó a reformas a gran escala de la publicación académica y visiones casi utópicas del futuro de la ciencia. En 1934, Paul Otlet introdujo bajo el concepto de bibliométrie o bibliología un ambicioso proyecto de medición del impacto de los textos en la sociedad. En contraste con la definición limitada de bibliometría que prevalecería después de la década de 1960, la visión de Otlet no se limitaba a la publicación científica ni, de hecho, a la publicación como una unidad fundamental: apuntaba a "la resolución de textos en elementos atómicos, o ideas, que localizaba en los párrafos individuales (alinéa, verset, articulet) que componen un libro". [30] En 1939, John Desmond Bernal imaginó una red de archivos científicos, que fue brevemente considerada por la Royal Society en 1948: "El artículo científico enviado a la oficina central de publicaciones, tras la aprobación de un consejo editorial de árbitros, sería microfilmado y una especie de sistema de impresión a pedido se pondría en acción a partir de entonces". [31] Si bien no utilizó el concepto de bibliometría , Bernal tuvo una influencia formativa de figuras líderes del campo como Derek John de Solla Price.
Las tecnologías informáticas emergentes se consideraron inmediatamente como una solución potencial para hacer legible y buscable una mayor cantidad de producción científica. Durante las décadas de 1950 y 1960, una ola descoordinada de experimentos en tecnologías de indexación resultó en el rápido desarrollo de conceptos clave de recuperación de investigación informática. [32] En 1957, el ingeniero de IBM Hans Peter Luhn introdujo un influyente paradigma de análisis estadístico de frecuencias de palabras, ya que "la comunicación de ideas por medio de palabras se lleva a cabo sobre la base de la probabilidad estadística". [33] La traducción automática de trabajos científicos no ingleses también ha contribuido significativamente a la investigación fundamental sobre el procesamiento del lenguaje natural de referencias bibliográficas, ya que en este período una cantidad significativa de publicaciones científicas aún no estaban disponibles en inglés , especialmente las que provenían del bloque soviético. Miembros influyentes de la National Science Foundation como Joshua Ledeberg abogaron por la creación de un "sistema de información centralizado", SCITEL, en parte influenciado por las ideas de John Desmond Bernal. Este sistema coexistiría inicialmente con las revistas impresas y gradualmente las reemplazaría por completo debido a su eficiencia. [34] En el plan presentado por Ledeberg a Eugen Garfield en noviembre de 1961, un depósito centralizado indexaría hasta 1.000.000 de artículos científicos por año. Además de la búsqueda de texto completo, la infraestructura también garantizaría la indexación de citas y otros metadatos, así como la traducción automática de artículos en idiomas extranjeros. [35]
El primer prototipo funcional de un sistema de recuperación en línea desarrollado en 1963 por Doug Engelbart y Charles Bourne en el Stanford Research Institute demostró la viabilidad de estas suposiciones teóricas, aunque estaba muy limitado por problemas de memoria: no se podían indexar más de 10.000 palabras de unos pocos documentos. [36] Las primeras infraestructuras informáticas científicas se centraban en áreas de investigación más específicas, como MEDLINE para medicina, NASA/RECON para ingeniería espacial u OCLC Worldcat para búsquedas en bibliotecas: "la mayoría de los primeros sistemas de recuperación en línea proporcionaban acceso a una base de datos bibliográfica y el resto utilizaba un archivo que contenía otro tipo de información: artículos de enciclopedia, datos de inventario o compuestos químicos". [37] El enfoque exclusivo en el análisis de texto resultó limitante a medida que las colecciones digitalizadas se expandían: una consulta podía producir una gran cantidad de resultados y era difícil evaluar la relevancia y la precisión de los resultados. [38]
La crisis de las publicaciones periódicas y las limitaciones de las tecnologías de recuperación de índices motivaron el desarrollo de herramientas bibliométricas y de grandes índices de citas como el Science Citation Index de Eugene Garfield . El trabajo de Garfield se centró inicialmente en el análisis automatizado de textos. En contraste con el trabajo actual centrado en gran medida en las relaciones semánticas internas, Garfield destacó "la importancia del metatexto en el análisis del discurso", como las oraciones introductorias y las referencias bibliográficas. [39] Las formas secundarias de producción científica, como las revisiones de literatura y las notas bibliográficas, se convirtieron en centrales para la visión de Garfield, como ya lo han sido para la visión de los archivos científicos de John Desmond Bernal . [40] En 1953, la atención de Garfield se centró de forma permanente en el análisis de citas: en una carta privada a William C. Adair, vicepresidente de la editorial del índice de citas Shepard's, "sugirió una solución bien probada al problema de la indexación automática, a saber, "pastorizar" la literatura biomédica, para desenredar la madeja de su contenido siguiendo el hilo de los enlaces de citas de la misma manera que el citador legal lo hacía con las sentencias judiciales". [41] En 1955, Garfield publicó su artículo seminal "Índices de citas para la ciencia", que estableció el esquema del Science Citation Index y tuvo una gran influencia en el futuro desarrollo de la bibliometría. [41] El índice de citas general previsto por Garfield fue originalmente uno de los pilares del ambicioso plan de Joshua Lederberg para informatizar la literatura científica. [42] Debido a la falta de financiación, el plan nunca se realizó. [43] En 1963, Eugene Garfield creó el Instituto de Información Científica que tenía como objetivo transformar los proyectos inicialmente previstos con Lederberg en un negocio rentable.
El campo de la bibliometría se fusionó en paralelo al desarrollo del Science Citation Index, que se convertiría en su infraestructura fundamental y fuente de datos: [44] "mientras que el comienzo del siglo XX contribuyó con métodos que eran necesarios para medir la investigación, la mitad del siglo XX se caracterizó por el desarrollo de instituciones que motivaron y facilitaron la medición de la investigación". [45] Las influencias significativas del campo naciente incluyeron, junto con John Desmond Bernal, Paul Otlet, la sociología de la ciencia de Robert K. Merton , que fue reinterpretada de una manera no ética: el Efecto Matthew , que es la creciente concentración de atención prestada a investigadores que ya eran notables, ya no se consideraba como una deriva (?) sino como una característica de la ciencia normal. [46]
Un seguidor de Bernal, el historiador británico de la ciencia Derek John de Solla Price ha tenido un gran impacto en la formación disciplinaria de la bibliometría: con "la publicación de Science Since Babylon (1961), Little Science, Big Science (1963) y Networks of Scientific Papers (1965) de Derek Price, la cienciometría ya tenía disponible un sólido conjunto de herramientas empíricas y conceptuales". [44] Price fue un defensor del reduccionismo bibliométrico . [47] Como Francis Joseph Cole y Nellie B. Eales en 1917, argumentó que una publicación es el mejor estándar posible para diseñar un estudio cuantitativo de la ciencia: "se asemejan a una pila de ladrillos (...) que permanecen a perpetuidad como un edificio intelectual construido con habilidad y artificio, que descansa sobre una base primitiva". [48] Price redobló la apuesta por este enfoque reduccionista al limitar a su vez el gran conjunto de datos bibliográficos existentes a los datos de citas.
El marco de trabajo de Price, como el de Garfield, da por sentado la desigualdad estructural de la producción científica, ya que una minoría de investigadores crea una gran proporción de publicaciones y una proporción aún más pequeña tiene un impacto real y medible en la investigación posterior (tan solo el 2% de los artículos tienen 4 citas o más en ese momento). [49] A pesar del crecimiento sin precedentes de la ciencia de posguerra, Price reivindicó la existencia continua de un colegio invisible de científicos de élite que, como en la época de Robert Boyle , emprendieron el trabajo más valioso. [50] Si bien Price era consciente de las relaciones de poder que aseguraban la dominación de tal élite, había una ambigüedad fundamental en los estudios bibliométricos, que resaltaban la concentración de publicaciones y prestigio académicos pero también creaban herramientas, modelos y métricas que normalizaban las desigualdades preexistentes. [50] La posición central del Scientific Citation Index amplificó este efecto performativo. A finales de la década de 1960, Eugene Garfield formuló una ley de concentración que era formalmente una reinterpretación de la ley de dispersión de Samuel Bradford , con una diferencia importante: mientras Bradford hablaba desde la perspectiva de un proyecto de investigación específico, Garfield trazó una generalización de la ley a todo el conjunto de publicaciones científicas: "la literatura central para todas las disciplinas científicas involucra un grupo de no más de 1000 revistas, y puede involucrar tan solo 500". Dicha ley también fue una justificación de la limitación práctica del índice de citas a un subconjunto limitado de revistas centrales , con el supuesto subyacente de que cualquier expansión a revistas de segundo nivel produciría rendimientos decrecientes. [51] En lugar de simplemente observar tendencias y patrones estructurales, la bibliometría tiende a amplificarlos y estratificarlos aún más: "Los índices de citas de Garfield habrían llevado a una conclusión lógica la historia de una literatura científica estratificada producida por (...) unas pocas revistas internacionales de alta calidad y "compra obligada", propiedad de un número cada vez menor de corporaciones multinacionales que dominan el mercado global de la información". [52]
Bajo el impulso de Garfield y Price, la bibliometría se convirtió tanto en un campo de investigación como en un campo de pruebas para la evaluación cuantitativa de políticas de investigación. Este segundo aspecto no fue un enfoque principal del Science Citation Index, pero ha sido un desarrollo progresivo: el famoso Factor de Impacto fue ideado originalmente en la década de 1960 por Garfield e Irving Sher para seleccionar el grupo central de revistas que iban a aparecer en Current Contents y el Science Citation Index y solo se publicó regularmente después de 1975. [53] La métrica en sí es una relación muy simple entre el recuento total de citas recibidas por la revista en el último año y su productividad en los últimos dos años, para ponderar la prolificidad de algunas publicaciones. [54] Por ejemplo, Nature tuvo un factor de impacto de 41,577 en 2017: [55]
La simplicidad del factor de impacto probablemente ha sido un factor importante en su amplia adopción por instituciones científicas, revistas, financiadores o evaluadores: "ninguna de las versiones revisadas o sustitutos del ISI IF ha ganado aceptación general más allá de sus defensores, probablemente porque las supuestas alternativas carecen del grado de interpretabilidad de la medida original". [56]
Junto con estas mediciones simplificadas, Garfield continuó apoyando y financiando la investigación fundamental en la historia de la ciencia y la sociología de la ciencia. Publicado por primera vez en 1964, The Use of Citation Data in Writing the History of Science recopila varios estudios de casos experimentales basados en la red de citas del Science Citation Index, incluida una reconstrucción cuantitativa del descubrimiento del ADN. [57] El interés en esta área persistió mucho después de la venta del índice a Thomson Reuters: en 2001, Garfield presentó HistCite , un software para "historiografía algorítmica" creado en colaboración con Alexander Pudovkin y Vladimir S. Istomin. [58]
El desarrollo de la World Wide Web y la revolución digital tuvieron un impacto complejo en la bibliometría.
La propia web y algunos de sus componentes clave (como los motores de búsqueda) fueron en parte un producto de la teoría bibliométrica. En su forma original, se derivó de una infraestructura científica bibliográfica encargada a Tim Berners-Lee por el CERN para las necesidades específicas de la física de alta energía, ENQUIRE . La estructura de ENQUIRE era más parecida a una red interna de datos: conectaba "nodos" que "podían referirse a una persona, un módulo de software, etc. y que podían interconectarse con varias relaciones como hecho, incluido, describe, etc." [59] El intercambio de datos y la documentación de datos fue un enfoque principal en la comunicación inicial de la World Wide Web cuando el proyecto se dio a conocer por primera vez en agosto de 1991: "El proyecto WWW se inició para permitir que los físicos de alta energía compartieran datos, noticias y documentación. Estamos muy interesados en extender la web a otras áreas y tener servidores de enlace para otros datos". [60] La web reemplazó rápidamente a la infraestructura en línea preexistente, incluso cuando incluía características informáticas más avanzadas. [61] El valor central que se atribuye a los hipervínculos en el diseño de la web parece validar las intuiciones de las cifras de financiación de la bibliometría: "La aparición de la World Wide Web a mediados de los años 1990 hizo que el sueño citacionista de Garfield tuviera más posibilidades de hacerse realidad. En la red mundial de hipertextos, no sólo la referencia bibliográfica es una de las posibles formas que adopta un hipervínculo dentro de la versión electrónica de un artículo científico, sino que la propia Web también exhibe una estructura de citación, siendo los vínculos entre páginas web formalmente similares a las citas bibliográficas". [62] En consecuencia, los conceptos de bibliometría se han incorporado a las principales tecnologías de la comunicación, el algoritmo de búsqueda de Google: "el concepto de relevancia impulsado por las citas aplicado a la red de hipervínculos entre páginas web revolucionaría la forma en que los motores de búsqueda web permiten a los usuarios elegir rápidamente materiales útiles del universo anárquico de la información digital". [63]
Aunque la web amplió la influencia intelectual de la bibliometría mucho más allá de la investigación científica especializada, también hizo añicos los principios básicos de la disciplina. En contraste con las amplias visiones utópicas de Bernal y Otlet que en parte la inspiraron, el Science Citation Index siempre se concibió como una infraestructura cerrada, no sólo desde la perspectiva de sus usuarios sino también desde la perspectiva del índice de la colección: la conclusión lógica de la teoría de la universidad invisible de Price y de la ley de concentración de Garfield era centrarse exclusivamente en un conjunto limitado de revistas científicas fundamentales. Con la rápida expansión de la web, numerosas formas de publicación (en particular, preprints), actividades y comunidades científicas se hicieron visibles de repente y pusieron de relieve, por contraste, las limitaciones de la bibliometría aplicada. [64] El otro aspecto fundamental del reduccionismo bibliométrico, el enfoque exclusivo en las citas, también se ha visto cada vez más fragilizado por la multiplicación de fuentes de datos alternativas y el acceso sin precedentes a corpus de texto completo que hicieron posible revivir el análisis semántico a gran escala imaginado por primera vez por Garfield a principios de los años 1950: "Los enlaces por sí solos, al igual que las citas bibliográficas por sí solas, no parecen suficientes para determinar patrones críticos de comunicación en la Web, y su análisis estadístico probablemente seguirá, en los próximos años, el mismo camino del análisis de citas, estableciendo alianzas fructíferas con otras perspectivas cualitativas y cuantitativas emergentes sobre el panorama web". [65]
La estrecha relación entre la bibliometría y los proveedores comerciales de datos e indicadores de citas se ha vuelto más tensa desde la década de 1990. Los principales editores científicos han diversificado sus actividades más allá de la publicación y han pasado "de un negocio de provisión de contenido a un negocio de análisis de datos". [66] Para 2019, Elsevier ha adquirido o construido una gran cartera de plataformas, herramientas, bases de datos e indicadores que cubren todos los aspectos y etapas de la investigación científica: "el mayor proveedor de revistas académicas también está a cargo de evaluar y validar la calidad y el impacto de la investigación (por ejemplo, Pure, Plum Analytics, Sci Val), identificar expertos académicos para empleadores potenciales (por ejemplo, Expert Lookup5), administrar las plataformas de redes de investigación a través de las cuales colaborar (por ejemplo, SSRN, Hivebench, Mendeley), administrar las herramientas a través de las cuales encontrar financiación (por ejemplo, Plum X, Mendeley, Sci Val) y controlar las plataformas a través de las cuales analizar y almacenar los datos de los investigadores (por ejemplo, Hivebench, Mendeley) ". [67] Las métricas y los indicadores son componentes clave de esta integración vertical: "El paso adicional de Elsevier para ofrecer una toma de decisiones basada en métricas es simultáneamente un paso para ganar mayor influencia en la totalidad del proceso de producción de conocimiento, así como para monetizar aún más su propiedad desproporcionada de contenido". [68] El nuevo mercado de publicaciones científicas y datos científicos se ha comparado con los modelos de negocios de las redes sociales, los motores de búsqueda y otras formas de capitalismo de plataforma . [69] [70] [71] Si bien el acceso al contenido es gratuito, se paga indirectamente a través de la extracción y vigilancia de datos. [72] En 2020, Rafael Ball imaginó un futuro sombrío para los bibliometristas en el que sus investigaciones contribuirían al surgimiento de una forma altamente invasiva de "capitalismo de vigilancia": los científicos "recibirían toda una serie de puntuaciones que no solo proporcionarían una imagen más completa del rendimiento académico, sino también de la percepción, el comportamiento, la conducta, la apariencia y la credibilidad (subjetiva) (...) En China, este tipo de análisis de datos personales ya se está implementando y utilizando simultáneamente como un sistema de incentivos y penalizaciones". [73]
El Manifiesto de Leiden para las métricas de investigación (2015) destacó la creciente brecha entre los proveedores comerciales de métricas científicas y las comunidades bibliométricas. Los firmantes destacaron el daño social potencial de la evaluación y vigilancia basadas en métricas sin control: "como cienciometristas, científicos sociales y administradores de investigación, hemos observado con creciente alarma la aplicación incorrecta generalizada de indicadores para la evaluación del desempeño científico". [74] Se proponen varias reformas estructurales de la investigación bibliométrica y la evaluación de la investigación, incluida una mayor dependencia de la evaluación cualitativa y la confianza en la recopilación de datos "abierta, transparente y simple" . [74] El Manifiesto de Leiden ha suscitado un importante debate en bibliometría/cienciometría/infometría con algunos críticos que sostienen que la elaboración de métricas cuantitativas no tiene ninguna responsabilidad sobre su mal uso en plataformas comerciales y evaluación de la investigación. [75]
Históricamente, se han utilizado métodos bibliométricos para rastrear relaciones entre citas de revistas académicas . El análisis de citas , que implica examinar los documentos de referencia de un artículo, se utiliza para buscar materiales y analizar su mérito. [76] Los índices de citas , como Web of Science del Institute for Scientific Information , permiten a los usuarios buscar en el futuro desde un artículo conocido hasta publicaciones más recientes que citan el artículo conocido. [3]
Los datos de los índices de citas se pueden analizar para determinar la popularidad y el impacto de artículos, autores y publicaciones específicos. [77] [78] El uso del análisis de citas para medir la importancia del trabajo de uno, por ejemplo, ha sido común en las prácticas de contratación de finales del siglo XX. [79] [80] Los científicos de la información también utilizan el análisis de citas para evaluar cuantitativamente los títulos de revistas centrales y las publicaciones decisivas en disciplinas particulares; las interrelaciones entre autores de diferentes instituciones y escuelas de pensamiento; y datos relacionados sobre la sociología de la academia. Algunas aplicaciones más pragmáticas de esta información incluyen la planificación de bibliografías retrospectivas , "dando alguna indicación tanto de la edad del material utilizado en una disciplina como de la medida en que las publicaciones más recientes reemplazan a las más antiguas"; indicando a través de una alta frecuencia de citación qué documentos deben archivarse; comparando la cobertura de servicios secundarios que pueden ayudar a los editores a medir sus logros y competencia, y pueden ayudar a los bibliotecarios a evaluar "la efectividad de su stock". [81] También existen algunas limitaciones al valor de los datos de citas. A menudo son incompletos o sesgados; los datos se han recopilado en gran medida a mano (lo que es costoso), aunque también se pueden utilizar índices de citas; las citas incorrectas de fuentes ocurren continuamente; por lo tanto, se requiere una mayor investigación para comprender verdaderamente la lógica detrás de las citas para permitir su aplicación con confianza. [82]
La bibliometría se puede utilizar para comprender los temas de investigación más candentes, por ejemplo, en la vivienda. La bibliometría, los resultados muestran que las palabras clave como factores influyentes de los precios de la vivienda, análisis de la oferta y la demanda, impacto de las políticas en los precios de la vivienda y tendencias regionales de las ciudades se encuentran comúnmente en la literatura de investigación de precios de la vivienda. Las palabras clave populares recientes incluyen análisis de regresión y predicciones de precios de la vivienda. Estados Unidos ha sido pionero en la investigación de precios de la vivienda, con medios y métodos bien establecidos que lideran el camino en este campo. Los países en desarrollo, por otro lado, necesitan adoptar enfoques de investigación innovadores y centrarse más en la sostenibilidad en sus estudios de precios de la vivienda. La investigación indica una fuerte correlación entre los precios de la vivienda y la economía, con palabras clave como producto interno bruto, tasas de interés y moneda que aparecen con frecuencia en los análisis de conglomerados relacionados con la economía. [83]
La bibliometría se utiliza ahora en ejercicios de evaluación de investigación cuantitativa de la producción académica, lo que está empezando a amenazar la investigación basada en la práctica. [84] El gobierno del Reino Unido ha considerado el uso de la bibliometría como una posible herramienta auxiliar en su Marco de Excelencia en Investigación , un proceso que evaluará la calidad de la producción de investigación de las universidades del Reino Unido y, en función de los resultados de la evaluación, asignará fondos de investigación. [85] Esto ha sido recibido con un escepticismo significativo y, después de un estudio piloto, parece poco probable que reemplace al actual proceso de revisión por pares. [86] Además, el uso excesivo de la bibliometría en la evaluación del valor de la investigación académica alienta a jugar con el sistema de varias maneras, incluida la publicación de una gran cantidad de trabajos con poco contenido nuevo (ver unidad menos publicable ), la publicación de investigación prematura para satisfacer los números, el enfoque en la popularidad del tema en lugar del valor científico y el interés del autor, a menudo con un papel perjudicial para la investigación. [87] Algunos de estos fenómenos se abordan en una serie de iniciativas recientes, incluida la Declaración de San Francisco sobre la Evaluación de la Investigación .
Se han escrito directrices sobre el uso de la bibliometría en la investigación académica, en disciplinas como la gestión, [88] la educación, [89] y la ciencia de la información. [90] Otras aplicaciones de la bibliometría incluyen: la creación de tesauros; la medición de frecuencias de términos; como métricas en el análisis cienciométrico , la exploración de las estructuras gramaticales y sintácticas de los textos; la medición del uso por parte de los lectores; la cuantificación del valor de los medios de comunicación en línea; en el contexto de los análisis de tendencias tecnológicas; [91] la medición de la distancia de Jaccard, el análisis de conglomerados y la minería de textos basada en la regresión logística binaria. [92] [93]
En el contexto de las cancelaciones de grandes acuerdos por parte de varios sistemas de bibliotecas en el mundo, [94] las bibliotecas utilizan herramientas de análisis de datos como Unpaywall Journals para ayudar con las cancelaciones de grandes acuerdos: las bibliotecas pueden evitar suscripciones a materiales que ya se ofrecen mediante acceso abierto instantáneo a través de archivos abiertos como PubMed Central. [95]
El movimiento de ciencia abierta ha sido reconocido como la transformación más importante que ha enfrentado la bibliometría desde el surgimiento del campo en la década de 1960. [96] [97] El intercambio gratuito de una amplia variedad de resultados científicos en la web afectó la práctica de la bibliometría en todos los niveles: la definición y la recopilación de datos, la infraestructura y las métricas.
Antes de la cristalización del campo en torno al Science Citation Index y las teorías reduccionistas de Derek de Solla Price, la bibliometría se había visto influida en gran medida por proyectos utópicos de intercambio de conocimientos más allá de las comunidades académicas especializadas. Las redes científicas imaginadas por Paul Otlet o John Desmond Bernal han adquirido una nueva relevancia con el desarrollo de la Web: "La inspiración filosófica de los pioneros en la búsqueda de las líneas de investigación antes mencionadas, sin embargo, se fue desvaneciendo gradualmente en un segundo plano (...) Mientras que la aportación de Bernal acabaría encontrando una continuación ideal en el movimiento de acceso abierto, la máquina de citas puesta en marcha por Garfield y Small condujo a la proliferación de estudios sectoriales de naturaleza fundamentalmente empírica". [98]
En sus inicios, el movimiento de ciencia abierta adoptó en parte las herramientas estándar de bibliometría y evaluación cuantitativa: "el hecho de que no se hiciera referencia a los metadatos en las principales declaraciones de acceso abierto (Budapest, Berlín, Bethesda) ha llevado a una situación paradójica (...) fue a través del uso de la Web of Science que los defensores del acceso abierto estaban ansiosos por mostrar en qué medida la accesibilidad conducía a una ventaja de citación en comparación con los artículos de pago". [99] Después de 2000, una importante literatura bibliométrica se dedicó a la ventaja de citación de las publicaciones de acceso abierto. [100]
A finales de la década de 2000, el factor de impacto y otras métricas se han convertido cada vez más en responsables de un bloqueo sistémico de fuentes prestigiosas no accesibles. Figuras clave del movimiento de ciencia abierta como Stevan Harnad pidieron la creación de una "cientiometría de acceso abierto" que aprovechara "la riqueza de métricas de uso e impacto que permite la multiplicación de archivos digitales en línea, de texto completo y de acceso abierto". [101] A medida que el público de la ciencia abierta se expandió más allá de los círculos académicos, las nuevas métricas deberían apuntar a "medir los impactos sociales más amplios de la investigación científica". [102]
El concepto de alt-metrics fue introducido en 2009 por Cameron Neylon y Shirly Wu como métricas a nivel de artículo . [103] En contraste con el enfoque de las métricas líderes en revistas (factor de impacto) o, más recientemente, en investigadores individuales (índice h), las métricas a nivel de artículo permiten rastrear la circulación de publicaciones individuales: "(un) artículo que solía vivir en un estante ahora vive en Mendeley , CiteULike o Zotero , donde podemos verlo y contarlo" [104] Como tales, son más compatibles con la diversidad de estrategias de publicación que ha caracterizado a la ciencia abierta: preprints, informes o incluso resultados no textuales como conjuntos de datos o software también pueden tener métricas asociadas. [102] En su propuesta de investigación original, Neylon y Wu favorecieron el uso de datos de software de gestión de referencias como Zotero o Mendeley. [103] El concepto de altmetrics evolucionó y llegó a abarcar datos extraídos "de aplicaciones de redes sociales, como blogs, Twitter, ResearchGate y Mendeley". [102] Las fuentes de las redes sociales demostraron ser especialmente más confiables a largo plazo, ya que herramientas académicas especializadas como Mendeley llegaron a integrarse en un ecosistema propietario desarrollado por los principales editores científicos. Los principales indicadores de altmetrics que surgieron en la década de 2010 incluyen Altmetric.com , PLUMx e ImpactStory .
A medida que el significado de las altmétricas fue cambiando, el debate sobre el impacto positivo de las métricas evolucionó hacia su redefinición en un ecosistema de ciencia abierta: "Las discusiones sobre el mal uso de las métricas y su interpretación ponen a las métricas mismas en el centro de las prácticas de ciencia abierta". [105] Si bien las altmétricas fueron concebidas inicialmente para publicaciones de ciencia abierta y su circulación expandida más allá de los círculos académicos, su compatibilidad con los requisitos emergentes para las métricas abiertas ha sido puesta en duda: los datos de las redes sociales, en particular, están lejos de ser transparentes y fácilmente accesibles. [106] [107] En 2016, Ulrich Herb publicó una evaluación sistemática de las métricas de las principales publicaciones con respecto a los principios de la ciencia abierta y concluyó que "ni las métricas de impacto basadas en citas ni las métricas alternativas pueden etiquetarse como métricas abiertas. Todas carecen de fundamento científico, transparencia y verificabilidad". [108]
Herb propuso un programa alternativo para métricas abiertas que aún no se ha desarrollado. [110] [111] Los criterios principales incluían:
Esta definición se ha implementado en programas de investigación, como ROSI ( Implementación de referencia para indicadores cienciométricos abiertos ). [112] En 2017, el Grupo de expertos de la Comisión Europea sobre Altmetrics amplió el programa de métricas abiertas de Ulrich Herb bajo un nuevo concepto, las métricas de próxima generación . Estas métricas deberían gestionarse mediante una "infraestructura de datos abierta, transparente y vinculada". [113] El grupo de expertos subraya que no todo debe medirse y no todas las métricas son relevantes: "Mida lo que importa: la próxima generación de métricas debería comenzar con aquellas cualidades e impactos que las sociedades europeas más valoran y para los que necesitan índices, en lugar de aquellos que se recopilan y miden más fácilmente". [113]
Hasta la década de 2010, el impacto del movimiento de ciencia abierta se limitó en gran medida a las publicaciones científicas: "ha tendido a pasar por alto la importancia de las estructuras sociales y las restricciones sistémicas en el diseño de nuevas formas de infraestructuras de conocimiento". [114] En 1997, Robert D. Cameron pidió el desarrollo de bases de datos abiertas de citas que alterarían por completo la condición de la comunicación científica: "Imagínese una base de datos bibliográfica y de citas universal que vincule cada trabajo académico jamás escrito, sin importar cómo se haya publicado, con cada trabajo que lo cite y cada trabajo que lo cite. Imagine que esa base de datos de citas estuviera disponible gratuitamente en Internet y se actualizara todos los días con todos los nuevos trabajos publicados ese día, incluidos artículos en revistas tradicionales y electrónicas, artículos de conferencias, tesis, informes técnicos, documentos de trabajo y preimpresiones". [115] A pesar del desarrollo de índices específicos centrados en trabajos de acceso abierto como CiteSeer , no se materializó una gran alternativa abierta al Science Citation Index. La recopilación de datos de citas siguió estando dominada por grandes estructuras comerciales, como la descendiente directa del Scientific Citation Index, la Web of Science . Esto tuvo el efecto de mantener el ecosistema emergente de recursos abiertos en la periferia de las redes académicas: "el fondo común de recursos no está gobernado ni gestionado por la actual iniciativa de bienes comunes académicos. No hay una infraestructura física dedicada y, aunque puede haber una comunidad naciente, no hay una membresía formal". [116]
Desde 2015, las infraestructuras, plataformas y revistas científicas abiertas han convergido en la creación de bienes académicos digitales comunes, cada vez más estructurados en torno a un ecosistema compartido de servicios y estándares que han surgido a través de la red de dependencias de una infraestructura a otra. Este movimiento surge de una postura cada vez más crítica hacia las principales bases de datos propietarias. En 2012, la Declaración de San Francisco sobre Evaluación de la Investigación (DORA) instó a "poner fin al uso de los factores de impacto de las revistas en las decisiones de financiación, contratación y promoción". [117] El Manifiesto de Leiden para las métricas de investigación (2015) alentó el desarrollo de una recopilación de datos "abierta, transparente y simple". [74]
Las colaboraciones entre actores académicos y no académicos comprometidos colectivamente con la creación y el mantenimiento de bienes comunes de conocimiento han sido un factor determinante en la creación de una nueva infraestructura para los datos de citas abiertas. Desde 2010, varios investigadores han recopilado un conjunto de datos de citas abiertas, el Open Citation Corpus , a partir de una variedad de fuentes de acceso abierto (incluidas PLOS y Pubmed). [118] Esta colección fue el núcleo inicial de la Iniciativa para OpenCitations, creada en 2017 en respuesta a los problemas de accesibilidad de los datos a los que se enfrentaba un proyecto de Wikimedia , Wikidata . Una conferencia impartida por Dario Taraborelli, jefe de investigación de la Fundación Wikimedia, mostró que solo el 1% de los artículos en Crossref tenían metadatos de citas que estaban disponibles gratuitamente y las referencias almacenadas en Wikidata no podían incluir el gran segmento de datos no libres. Esta cobertura se amplió a más de la mitad de los artículos registrados, cuando Elsevier finalmente se unió a la iniciativa en enero de 2021. [119]
Desde 2021, OpenAlex se ha convertido en una importante infraestructura abierta para metadatos científicos. Inicialmente creada como reemplazo del descontinuado Microsoft Academic Graph , OpenAlex indexó en 2022 209 millones de trabajos académicos de 213 millones de autores, así como sus instituciones, lugares y conceptos asociados en un gráfico de conocimiento integrado en la web semántica (y Wikidata ). [120] Debido a su gran cobertura y gran cantidad de datos migrados correctamente desde Microsoft Academic Graph (MAG), OpenAlex "parece ser al menos tan adecuado para análisis bibliométricos como MAG para años de publicación anteriores a 2021". [121] En 2023, un estudio sobre la cobertura de revistas de datos en índices científicos encontró que OpenAlex, junto con Dimensions, "disfrutan de una fuerte ventaja sobre las dos bases de datos más tradicionales, WoS y Scopus" [122] y, en general, es especialmente adecuada para la indexación de publicaciones que no son revistas, como libros [123] o de investigadores en países no occidentales [124].
La apertura de los datos científicos ha sido un tema importante de debate en la comunidad de bibliometría y cienciometría y ha tenido amplias consecuencias sociales e intelectuales. En 2019, todo el consejo científico del Journal of Infometrics renunció y creó una nueva revista de acceso abierto, Quantitative Science Studies . La revista fue publicada por Elsevier desde 2007 y los miembros del consejo fueron cada vez más críticos con la falta de progreso en el intercambio abierto de datos de citas abiertas: "Nuestro campo depende de metadatos científicos de alta calidad. Para que nuestra ciencia sea más sólida y reproducible, estos datos deben ser lo más abiertos posible. Por lo tanto, nuestro consejo editorial estaba profundamente preocupado por la negativa de Elsevier a participar en la Iniciativa para Citas Abiertas (I4OC)". [125]
La disponibilidad sin precedentes de una amplia gama de producciones científicas (publicaciones, datos, software, conferencias, revisiones...) ha implicado una redefinición más drástica del proyecto bibliométrico. Para los nuevos trabajos alternativos anclados en el panorama de la ciencia abierta, es necesario repensar los principios de la bibliometría definidos por Garfield y Price en la década de 1960. La preselección de un corpus limitado de revistas importantes no parece ni necesaria ni apropiada. En 2019, los defensores del proyecto Matilda, "no quieren simplemente "abrir" la información cerrada existente, sino que desean devolver un lugar justo a todo el contenido académico que ha sido excluido de tales herramientas, de una manera que "todos los textos nacen iguales"". [126] Su objetivo es "redefinir las herramientas bibliométricas como una tecnología" centrándose en la exploración y el mapeo del corpus científico. [127]
Las cuestiones de inclusión y un enfoque más crítico de las desigualdades estructurales en la ciencia se han vuelto más frecuentes en la cienciometría y la bibliometría, especialmente en relación con el desequilibrio de género. [128] [129] [130] Después de 2020, uno de los debates más acalorados en el campo [131] giró en torno a la recepción de un estudio sobre el desequilibrio de género en la física fundamental. [132]
El cambio estructural en la definición de bibliometría, cienciometría o infometría ha conllevado la necesidad de etiquetas alternativas. El concepto de Estudios Cuantitativos de la Ciencia se introdujo originalmente a finales de la década de 2000 en el contexto de una evaluación crítica renovada de los hallazgos bibliométricos clásicos. [133] Se ha vuelto más frecuente a finales de la década de 2010. Después de dejar Elsevier , los editores del Journal of Infometrics optaron por esta nueva etiqueta y crearon una revista para Estudios Cuantitativos de la Ciencia . El primer editorial eliminó todas las referencias a la métrica y apuntó a una inclusión más amplia de la investigación cuantitativa y cualitativa sobre la ciencia de la ciencia:
Esperamos que quienes se identifican con etiquetas como cienciometría, ciencia de la ciencia y metaciencia encuentren un hogar en QSS. También reconocemos la amplia gama de disciplinas para las que la ciencia es un objeto de estudio: damos la bienvenida a historiadores de la ciencia, filósofos de la ciencia y sociólogos de la ciencia en nuestra revista. Si bien llevamos el apodo de cuantitativos, incluimos una amplia gama de perspectivas epistemológicas. Los estudios de la ciencia cuantitativa no pueden operar de manera aislada: un trabajo empírico sólido requiere la integración de teorías y perspectivas de todas las metaciencias. [134]
{{cite journal}}
: Requiere citar revista |journal=
( ayuda )