La comunidad de editores voluntarios de Wikipedia tiene la responsabilidad de verificar el contenido de Wikipedia. [1] Su objetivo es frenar la difusión de información errónea y desinformación por parte del sitio web.
Wikipedia se considera uno de los principales sitios web gratuitos de código abierto, donde millones de personas pueden leer, editar y publicar sus opiniones de forma gratuita. Por lo tanto, Wikipedia se esfuerza por proporcionar a sus lectores fuentes bien verificadas. La verificación de hechos es un aspecto de la confiabilidad más amplia de Wikipedia .
Varios estudios académicos sobre Wikipedia y el conjunto de críticas a Wikipedia buscan describir los límites de la confiabilidad de Wikipedia, documentar quién usa Wikipedia para verificar hechos y cómo, y qué consecuencias se derivan de este uso. Los artículos de Wikipedia pueden tener mala calidad en muchos sentidos, incluidas las autocontradicciones. [2] Esos artículos deficientes requieren mejoras.
Grandes plataformas, incluidas YouTube [3] y Facebook [4], utilizan el contenido de Wikipedia para confirmar la exactitud de la información en sus propias colecciones de medios.
Wikipedia sirve como un recurso público para acceder a información genuina. Por ejemplo, la pandemia de COVID-19 fue un tema importante sobre el cual la gente confiaba en Wikipedia para obtener información genuina. [5] Buscar la confianza del público es una parte importante de la filosofía de publicación de Wikipedia. [6] Varias encuestas y estudios de lectores han informado de la confianza del público en el proceso de control de calidad de Wikipedia. [6] [7] En general, el público utiliza Wikipedia para contrarrestar las noticias falsas . [8]
En la conferencia South by Southwest de 2018, la directora ejecutiva de YouTube, Susan Wojcicki, anunció que YouTube estaba usando Wikipedia para verificar los datos de los videos que aloja YouTube. [3] [9] [10] [11] Nadie en YouTube había consultado a nadie en Wikipedia sobre este desarrollo, y la noticia en ese momento fue una sorpresa. [9] La intención en ese momento era que YouTube utilizara Wikipedia como contraataque a la difusión de teorías de conspiración . [9] Esto se hace agregando nuevos cuadros de información debajo de algunos videos de YouTube, atrayendo así a teóricos de la conspiración.
Facebook usa Wikipedia de varias maneras. Tras las críticas a Facebook en el contexto de noticias falsas en torno a las elecciones presidenciales de Estados Unidos de 2016 , Facebook reconoció que Wikipedia ya tenía un proceso establecido para la verificación de hechos. [4] La estrategia posterior de Facebook para contrarrestar las noticias falsas incluyó el uso de contenido de Wikipedia para verificar los hechos. [4] [12] En 2020, Facebook comenzó a incluir información de los cuadros de información de Wikipedia en sus propios paneles de conocimiento de referencia general para proporcionar información objetiva. [13]
La verificación de datos es un aspecto del proceso de edición general en Wikipedia. La comunidad de voluntarios desarrolla un proceso de referencia y verificación de datos a través de grupos comunitarios como WikiProject Reliability. [8] Wikipedia tiene la reputación de cultivar una cultura de verificación de datos entre sus editores. [14] El proceso de verificación de datos de Wikipedia depende de la actividad de su comunidad voluntaria de contribuyentes, que ascendía a 200.000 en 2018. [1]
El desarrollo de prácticas de verificación de datos está en curso en la comunidad editorial de Wikipedia. [6] Un desarrollo que tomó años fue la decisión de la comunidad de 2017 de declarar una fuente de noticias en particular, Daily Mail , tan generalmente poco confiable como una cita para verificar afirmaciones. [6] [15] A través de estrictas directrices sobre verificabilidad , Wikipedia ha estado combatiendo la desinformación. [16] [ verificación fallida ] Según las pautas de Wikipedia, todos los artículos en el "espacio principal" de Wikipedia deben ser verificables. [dieciséis]
Un artículo que se contradice es un artículo que se contradice a sí mismo. [a]
Se llevó a cabo un experimento para detectar artículos contradictorios en Wikipedia utilizando un modelo desarrollado llamado "Red neuronal de contradicción por pares" (PCNN). [17]
Las contribuciones a este experimento son las siguientes:
Cuando Wikipedia sufre vandalismo , las plataformas que reutilizan el contenido de Wikipedia pueden volver a publicar ese contenido vandalizado. [18] En 2016, periodistas describieron cómo el vandalismo en Wikipedia socava su uso como fuente creíble. [19]
Wikipedia prohíbe el vandalismo. El sitio web sugiere estos pasos para que los principiantes sin experiencia manejen el vandalismo: acceder, revertir, advertir, observar y finalmente informar. [20]
En 2018, Facebook y YouTube fueron los principales usuarios de Wikipedia por sus funciones de verificación de datos, pero esas plataformas comerciales no contribuían de ninguna manera a las operaciones gratuitas sin fines de lucro de Wikipedia. [18]
Limitaciones de la autocontradicción: las dos limitaciones principales del modelo PCNN de autocontradicción son la subjetividad de la autocontradicción y la imposibilidad de manejar documentos extensos.