stringtranslate.com

Wikipedia: modelos de lenguaje grandes

Si bien los modelos de lenguaje grandes (coloquialmente denominados "chatbots de IA" en algunos contextos) pueden ser muy útiles, el texto generado por máquinas (muy parecido al texto generado por humanos) puede contener errores o fallas, o ser completamente inútil.

Específicamente, pedirle a un modelo de lenguaje que "escriba un artículo de Wikipedia" a veces puede causar que el resultado sea una pura invención , con referencias ficticias . Puede ser parcial , difamar a personas vivas o violar los derechos de autor . Los editores deben verificarlo antes de su uso en artículos de Wikipedia.

Los editores que no sean plenamente conscientes de estos riesgos y no sean capaces de superar las limitaciones de estas herramientas no deberían editar con su ayuda. Los LLM no deben utilizarse para tareas con las que el editor no esté muy familiarizado. Sus resultados deben ser examinados rigurosamente para verificar el cumplimiento de todas las políticas aplicables. En cualquier caso, los editores deben evitar publicar en Wikipedia contenido obtenido pidiendo a los LLM que escriban contenido original. Incluso si dicho contenido ha sido muy editado, son preferibles las alternativas que no utilicen contenido generado por máquina. Como ocurre con todas sus ediciones, un editor es totalmente responsable de sus ediciones asistidas por LLM.

Wikipedia no es un campo de pruebas para los LLM. Se desaconseja encarecidamente el uso de LLM para escribir comentarios en la página de discusión o editar resúmenes. Además, el uso de LLM para generar o modificar texto debe mencionarse en el resumen de edición (incluso si sus términos de servicio no lo requieren).

Riesgos y políticas relevantes

  • WP: AIFAIL

Investigación original y "alucinaciones"

Los LLM son programas de finalización de patrones: generan texto generando las palabras con mayor probabilidad de aparecer después de las anteriores. Aprenden estos patrones a partir de sus datos de entrenamiento, que incluyen una amplia variedad de contenido de Internet y otros lugares, incluidas obras de ficción, publicaciones de mierda, desperdicios aleatorios de SEO, etc. Debido a esto, los LLM a veces "sacan conclusiones" que, incluso si parecen superficialmente familiares, no están presentes en ninguna fuente confiable. También pueden cumplir con indicaciones con premisas absurdas, como "El siguiente es un artículo sobre los beneficios de comer vidrio triturado". Finalmente, los LLM pueden inventar cosas, lo cual es un subproducto estadísticamente inevitable de su diseño, llamado " alucinación ". Todo esto equivale, en términos prácticos, a una investigación original .

Como los LLM a menudo producen declaraciones precisas, y dado que sus resultados suelen parecer plausibles y se dan con un aire de confianza, cada vez que entregan un resultado aparentemente útil, las personas pueden tener dificultades para detectar los problemas anteriores. Un usuario promedio que cree que está en posesión de una herramienta útil, que tal vez hizo una verificación puntual de precisión y "no vio ningún problema", está predispuesto a aceptar el resultado tal como se proporcionó; pero es muy probable que haya problemas. Incluso si el 90% del contenido está bien y el 10% es falso, ese es un gran problema en una enciclopedia. Los resultados de los LLM empeoran cuando se les hacen preguntas complicadas, sobre temas oscuros o se les pide que realicen tareas para las que no son aptos (por ejemplo, tareas que requieren amplios conocimientos o análisis).

Contenido sin fuente o no verificable

Los LLM no siguen las políticas de Wikipedia sobre verificabilidad y abastecimiento confiable . Los LLM a veces excluyen las citas por completo o citan fuentes que no cumplen con los estándares de confiabilidad de Wikipedia (incluida la cita de Wikipedia como fuente ). En algunos casos, alucinan citas de referencias inexistentes inventando títulos, autores y URL.

El contenido alucinado de LLM, además de ser una investigación original como se explicó anteriormente, también rompe la política de verificabilidad, ya que no se puede verificar porque es inventado: no hay referencias que encontrar.

Sesgo algorítmico y punto de vista no neutral

Los LLM pueden producir contenido que parezca neutral en tono, pero no necesariamente en sustancia . Esta preocupación es especialmente fuerte en el caso de las biografías de personas vivas .

Violaciones de derechos de autor

Ejemplos de violaciones de derechos de autor por parte de LLM a las 2:00
Diapositivas para ejemplos de violaciones de derechos de autor por parte de LLM

Un LLM puede generar material que viole los derechos de autor . [a] El texto generado puede incluir fragmentos textuales de contenido no gratuito o ser un trabajo derivado . Además, el uso de LLM para resumir contenido protegido por derechos de autor (como artículos de noticias) puede producir paráfrasis excesivamente cercanas .

Aún no se comprende completamente el estado de los derechos de autor de los LLM capacitados en material protegido por derechos de autor. Es posible que su salida no sea compatible con la licencia CC BY-SA y la licencia GNU utilizada para el texto publicado en Wikipedia.

Uso

Se requiere competencia específica

  • WP:LLMCIR

Los LLM son herramientas de asistencia y no pueden reemplazar el juicio humano. Es necesario un juicio cuidadoso para determinar si dichas herramientas se ajustan a un propósito determinado. Se espera que los editores que utilizan LLM se familiaricen con las limitaciones inherentes de un LLM determinado y luego deben superar estas limitaciones para garantizar que sus ediciones cumplan con las pautas y políticas relevantes. Con este fin, antes de utilizar un LLM, los editores deben haber adquirido experiencia sustancial realizando la misma tarea o una más avanzada sin la asistencia de un LLM . [b]

Algunos editores son competentes para realizar ediciones sin ayuda, pero repetidamente realizan ediciones inapropiadas con la ayuda de un LLM a pesar de un esfuerzo sincero por contribuir. Se supone que estos editores carecen de competencia en este sentido específico. Es posible que no sean conscientes de los riesgos y las limitaciones inherentes o que los conozcan pero no puedan superarlos para garantizar el cumplimiento de las políticas. En tal caso, se le puede prohibir a un editor ayudarse a sí mismo con dichas herramientas (es decir, restringirlo a realizar ediciones sin ayuda). Este es un tipo específico de prohibición limitada. Alternativamente, o además, pueden estar parcialmente bloqueados de uno o varios espacios de nombres determinados.

Divulgación

Cada edición que incorpore resultados de LLM debe marcarse como asistida por LLM identificando el nombre y, si es posible, la versión de la IA en el resumen de edición . Esto se aplica a todos los espacios de nombres .

Escribiendo artículos

Pegar los resultados de los modelos de lenguaje grandes sin procesar directamente en la ventana de edición para crear un nuevo artículo o agregar prosa nueva sustancial a artículos existentes generalmente conduce a resultados deficientes. Los LLM se pueden utilizar para editar o ampliar texto existente y generar ideas para artículos nuevos o existentes. Cada cambio en un artículo debe cumplir con todas las políticas y pautas aplicables. Esto significa que el editor debe familiarizarse con el panorama de fuentes del tema en cuestión y luego evaluar cuidadosamente el texto por su neutralidad en general y su verificabilidad con respecto a las fuentes citadas. Si las citas se generan como parte del resultado, deben verificar que las fuentes correspondientes no sean ficticias, confiables, relevantes y adecuadas, y verificar la integridad del texto-fuente .

Si utiliza un LLM como asesor de redacción, es decir, solicitando esquemas, cómo mejorar párrafos, críticas de texto, etc., los editores deben ser conscientes de que la información que proporciona no es confiable. Si utilizan un LLM para corregir, resumir y parafrasear, los editores deben ser conscientes de que es posible que no detecte correctamente errores gramaticales, interprete ambigüedades sintácticas o mantenga intacta la información clave. Es posible pedirle al LLM que corrija deficiencias en su propia producción, como información faltante en un resumen o en un tono no enciclopédico, por ejemplo, promocional, y si bien estos podrían ser intentos que valgan la pena, no se debe confiar en ellos en lugar del manual. correcciones. Es posible que sea necesario editar en gran medida o eliminar el resultado. Se requiere debida diligencia y sentido común a la hora de elegir si incorporar las sugerencias y cambios.

Los resultados brutos de LLM tampoco deben agregarse directamente a los borradores . Los borradores son trabajos en progreso y sus versiones iniciales a menudo no cumplen con el estándar requerido para los artículos, pero permitir a los editores desarrollar el contenido del artículo a partir de una versión inicial inalterada generada por LLM no es uno de los propósitos del espacio de borrador o del espacio de usuario .

Sea constructivo

Wikipedia depende de los esfuerzos de los voluntarios para revisar el contenido nuevo y comprobar que cumple con nuestras políticas de contenido principales . Esto suele llevar mucho tiempo. El contrato social informal en Wikipedia es que los editores pondrán un esfuerzo significativo en sus contribuciones, de modo que otros editores no necesiten "limpiar lo que ensucien". Los editores deben asegurarse de que sus ediciones asistidas por LLM sean netamente positivas para la enciclopedia y no aumenten la carga de mantenimiento de otros voluntarios.

Los LLM no deben usarse para edición tipo bot no aprobada ( WP:MEATBOT ), ni nada que se acerque a la edición tipo bot. El uso de LLM para ayudar a la edición de alta velocidad en el espacio de artículos tiene una alta probabilidad de no cumplir con los estándares de uso responsable debido a la dificultad de examinar rigurosamente el contenido para verificar que cumpla con todas las políticas aplicables.

Wikipedia no es un campo de pruebas para el desarrollo de LLM, por ejemplo, realizando experimentos o pruebas en Wikipedia con este único propósito. Las ediciones de Wikipedia se realizan para hacer avanzar la enciclopedia, no una tecnología. Esto no pretende prohibir a los editores experimentar responsablemente con LLM en su espacio de usuario con el fin de mejorar Wikipedia.

Los editores no deberían utilizar LLM para escribir comentarios. La comunicación es la raíz del proceso de toma de decisiones de Wikipedia y se presume que los editores que contribuyen a la Wikipedia en inglés poseen la capacidad de comunicarse de manera efectiva . Para la comunicación es importante tener pensamientos propios y encontrar una forma auténtica de expresarlos. El uso de texto generado por máquina no cumple con este requisito, ya que no es un sustituto del esfuerzo personal y la participación constructiva.

El uso indebido repetido de los LLM forma un patrón de edición disruptiva y puede dar lugar a un bloqueo o prohibición .

Fuentes con texto generado por LLM

Las obras creadas por LLM no son Wikipedia: Verificabilidad § Fuentes confiables . A menos que sus resultados hayan sido publicados por medios confiables con una supervisión rigurosa y se pueda verificar que el editor evaluó la precisión del contenido, no deben citarse en nuestros artículos.

Manejo de contenido sospechoso generado por LLM

Un editor que identifica contenido originado en LLM que no cumple con nuestras políticas de contenido principales y decide no eliminarlo por completo (lo que generalmente está bien), debe verificar que cumpla con las políticas o alertar a otros editores sobre el problema. Lo primero que hay que comprobar es que las obras referenciadas realmente existen. Luego, todas las afirmaciones fácticas deben verificarse con las fuentes proporcionadas. Se debe establecer la presencia de integridad del texto fuente. Todo lo que resulte no cumplir con las políticas debe ser eliminado.

Para alertar a otros editores, el editor que responde al problema debe colocarlo en la parte superior del artículo o borrador afectado (solo si ese editor no se siente capaz de resolver rápidamente el problema por sí solo). En las biografías de personas vivas , el contenido originado por LLM que no cumpla con las políticas debe eliminarse de inmediato , sin esperar a que se debata ni a que otra persona resuelva el problema etiquetado.{{AI-generated|date=February 2024}}

Si la eliminación como se describe anteriormente daría como resultado la eliminación de todo el contenido del artículo o borrador, entonces se convierte en candidato para la eliminación. [c] Si toda la página parece ser objetivamente incorrecta o se basa en fuentes inventadas, puede ser apropiado eliminarla rápidamente según WP:G3 (vandalismo puro y engaños flagrantes).

Se pueden utilizar las siguientes plantillas para advertir a los editores en sus páginas de discusión:

Ver también

Manifestaciones

Notas

  1. ^ Esto también se aplica a los casos en los que el modelo de IA se encuentra en una jurisdicción donde las obras generadas únicamente por IA no tienen derechos de autor, aunque con muy baja probabilidad.
  2. ^ Por ejemplo, alguien experto en lidiar con el vandalismo pero que trabaja muy poco con artículos probablemente no debería comenzar a crear artículos utilizando LLM. En cambio, primero deberían adquirir experiencia real en la creación de artículos sin la ayuda del LLM.
  3. ^ Siempre que el título indique un tema que tiene algún mérito potencial, puede valer la pena acortar y posiblemente redactar , o dejar en blanco y redirigir , los artículos. Asimismo, los borradores sobre nuevos temas viables pueden convertirse en "borradores esquemáticos", es decir, casi en blanco, dejando sólo una breve definición del tema. Los creadores de dichas páginas deben ser debidamente notificados o advertidos. Siempre que se trate de contenido sospechoso generado por LLM, se desaconseja a los editores impugnar los casos de eliminación mediante reversión sin discutirlo primero. Cuando se considera una alternativa a la eliminación, los editores deben tener en cuenta cualquier derecho de autor pendiente o cuestiones críticas similares que requerirían la eliminación.

Referencias

  1. ^ Smith, Adam (25 de enero de 2023). "¿Qué es ChatGPT? ¿Y nos robará nuestros empleos?". Contexto . Fundación Thomson Reuters . Consultado el 27 de enero de 2023 .