- La siguiente discusión es un registro archivado de una solicitud de comentarios . No la modifique. No se deben realizar más modificaciones a esta discusión. A continuación se incluye un resumen de las conclusiones a las que se llegó.
Esta convocatoria de propuestas busca establecer una política o directriz sobre cómo se pueden utilizar los modelos lingüísticos extensos (LLM) en Wikipedia. No hay
consenso para adoptar ninguna redacción como política o directriz en este momento, y la mayoría de los editores participantes pertenecen a uno de tres grupos.
El grupo más grande de editores estaba a favor de adoptar la redacción propuesta como una política o una directriz. El grupo más pequeño de editores propuso una prohibición total del uso de LLM en el espacio principal, pero con más flexibilidad para su uso en otros espacios (lo que llegó a llamarse la opción 1b). Los editores restantes se opusieron a la redacción propuesta en la RfC. Las principales objeciones de los que se oponían incluían preocupaciones sobre la divulgación obligatoria y sobre la capacidad propuesta para eliminar sumariamente contenido sospechoso de LLM, incluidos aquellos que sienten que no hay una manera precisa de identificar el contenido generado por LLM. Algunos de los que estaban a favor de la propuesta notaron que tenemos otras políticas y pautas donde la detección de violaciones puede ser difícil, aunque algunos de los que estaban a favor de la redacción en general también se opusieron a la eliminación sumaria. Parece haber un consenso implícito para que
la salida del modelo de lenguaje grande, si se usa en Wikipedia, se debe verificar manualmente para verificar su precisión (incluidas las referencias que genera)
entre los que están a favor y los que se oponen a esta redacción, pero esto no fue declarado lo suficientemente explícitamente por suficientes editores como para que yo pudiera encontrar formalmente un consenso al respecto. Nada de lo aquí expuesto debe interpretarse como que sugiere que las políticas y pautas actuales no se aplican a los modelos de lenguaje grande, y varios editores señalan explícitamente (especialmente entre los que se oponen) que las políticas y pautas actuales sí se aplican.
Mantenimiento : como RfC para establecer políticas, no utilicé ningún tipo de ponderación de argumentos al determinar este consenso ni utilicé ninguna inteligencia artificial aparte de la que está incorporada en GoogleDocs para ayudar con la ortografía y la corrección de textos básica. Barkeep49 (
discusión ) 20:47 19 ene 2024 (UTC)
[ responder ]
De acuerdo con una solicitud de comentarios anterior en WP:LLM , ¿debería adoptarse la siguiente oración como política/directriz (independientemente de que se amplíe más adelante o de que haya o no decisiones posteriores con respecto al uso de LLM)?
Si se utiliza un modelo de lenguaje de gran tamaño en Wikipedia, se debe verificar manualmente su precisión (incluidas las referencias que genera) y el editor debe revelar su uso (incluido qué modelo); el texto añadido en violación de esta política puede eliminarse sumariamente.
- Opción 1 : Sí (especifique “política” o “directriz”).
- Opción 2 : No.
jp × g 🗯️ 22:22, 13 de diciembre de 2023 (UTC) [ responder ]
Encuesta
- Opción 1 , como política. Escribí la primera versión de WP:LLM el 11 de diciembre del año pasado, como un resumen minimalista de las pautas existentes y cómo se aplicaban a los LLM ; durante los meses intermedios se amplió en gran medida, agregando muchas pautas complejas, prohibiciones, recomendaciones, etcétera. El obstáculo resultante se propuso entonces para su adopción, en una RfC a la que muchos de los propios contribuyentes de la página (incluido yo) nos opusimos. Esto no tenía por qué suceder: podríamos haber escrito algo conciso y mínimo, en lo que todos pudieran estar de acuerdo, y luego trabajar en modificaciones y agregados. Pero como consecuencia de la forma en que se llevó a cabo esta RfC, realmente no tenemos ninguna política que rija el uso de estos modelos, además de las implicaciones obvias de las políticas existentes (es decir, WP:NOT , WP:V , WP:RS , WP:C , WP:NPOV ). Algunas personas han intentado ampliar otras políticas para cubrir los LLM, como WP:CSD (donde se ha rechazado un nuevo criterio para los LLM no verificados) o WP:BOTPOL (donde realmente no se aplica, ya que los LLM no se están utilizando para realizar ediciones no supervisadas). No creo que tenga sentido intentar escribir una política de LLM garabateando un par de oraciones en los márgenes de una política diferente, de la misma manera que no tiene sentido regular los automóviles como una raza especial e inusual de caballos. Son una tecnología bastante importante que será cada vez más omnipresente a medida que avance el futuro, por lo que deberíamos crear una política para ellos y deberíamos comenzar con algo simple y directo. jp × g 🗯️ 22:39, 13 de diciembre de 2023 (UTC) [ responder ]
- Esta edición tuya tiene un 37 % de posibilidades de ser LLM no declarada. ¿Crees que debería considerarse "texto añadido en violación de esta política" y, por lo tanto, estar sujeto a eliminación inmediata (es decir, eliminación sin discusión ni una oportunidad para que afirmes que, después de todo, no estabas usando LLM)? WhatamIdoing ( discusión ) 01:26 14 dic 2023 (UTC) [ responder ]
- Siento que, incluso bajo la política del texto tal como se indica, no habría una razón para eliminarlo. Después de todo, el detector implica que es mucho más probable que el contenido sea humano que no lo sea. — Halcón de cola roja (nido) 03:21, 14 de diciembre de 2023 (UTC) [ responder ]
- Según la política propuesta, mi creencia declarada (genuina o no) aparentemente sería suficiente para una eliminación inmediata y sin discusión. WhatamIdoing ( discusión ) 03:21 17 dic 2023 (UTC) [ responder ]
- Comparto las preocupaciones de WhatamIdoing sobre las dificultades de identificar los resultados de LLM. Esto ya se discutió varias veces en WT:LLM sin encontrar una solución satisfactoria. Algunos editores en la discusión aquí han señalado que la política no tiene como objetivo iniciar una cacería de brujas de ediciones que puntúan alto en los detectores de IA y han expresado su fe en el sentido común de sus colegas editores. Sin embargo, dado que los editores no tienen mucha experiencia con esta nueva tecnología que evoluciona rápidamente y que las opiniones al respecto están bastante divididas, no estoy seguro de que esta fe sea correcta. Esto no significa automáticamente que no debamos tener una política/directriz, pero si la tenemos, debería mencionar explícitamente las dificultades asociadas con la identificación de los resultados de LLM, ya que muchos editores pueden no estar al tanto de ellas. Phlsph7 ( discusión ) 09:55, 17 de diciembre de 2023 (UTC) [ responder ]
- Si esto se aprueba, planeo abrir inmediatamente una solicitud de comentarios sobre los métodos específicos para determinar la autoría de LLM. La mayoría de los "detectores" disponibles en línea (específicamente " GPTZero ") son básicamente una tontería; no tienen código fuente, ni pesos de modelos, nada más que una copia de marketing en su sitio web. La página de "tecnología" en su sitio tiene un gráfico agradable con algunos cubos flotantes y dice que tiene un rendimiento del "99%". ¿Rendimiento en qué? Un conjunto de datos que ellos... crearon ellos mismos. jajaja. No creo que sea apropiado que dependamos de cosas como esta para hacer algo que se parezca a determinaciones oficiales de culpabilidad. jp × g 🗯️ 00:19, 15 de diciembre de 2023 (UTC) [ responder ]
- ¿Quizás este RFC está poniendo el carro delante de los bueyes? Estás intentando conseguir un conjunto de reglas que diga " el texto añadido en violación de esta política puede ser eliminado sumariamente" , y no proporcionas ninguna forma para que los editores determinen si eso ha sucedido, ni ningún recurso para las víctimas inocentes de un mal juicio (o de un punto de vista impuesto por alguien dispuesto a mentir acerca de que parece un texto generado por LLM en su opinión personal). WhatamIdoing ( discusión ) 03:19, 17 de diciembre de 2023 (UTC) [ responder ]
- No estoy seguro de que la identificación sea un problema en sí misma: si el contenido eliminado como LLM resulta no serlo, se puede discutir y volver a agregar como cualquier otra disputa de contenido menor. Si alguien miente o actúa de mala fe sobre sus contribuciones a LLM, se puede resolver a través de los medios existentes. Remsense留17:53, 23 de diciembre de 2023 (UTC) [ responder ]
- Solo tenemos tu palabra contra la mía de que algo está generado por LLM (o de que algo no está generado por LLM). Sohom ( discusión ) 18:42 23 dic 2023 (UTC) [ responder ]
- Esto es lo que ocurre con muchas disputas sobre el contenido (y en todos los casos, también está el texto en sí). Remsense留18:44, 23 de diciembre de 2023 (UTC) [ responder ]
- Sí, como política. Fermiboson ( discusión ) 22:29 13 dic 2023 (UTC) [ responder ]
- @Fermiboson , ¿desea apoyar la propuesta como una política o como una directriz? Es posible que no haya notado que hay dos subopciones en la opción 1. :) TROPtastic ( discusión ) 01:00, 14 de diciembre de 2023 (UTC) [ responder ]
- Gracias, ya lo he aclarado. Fermiboson ( discusión ) 09:09 14 dic 2023 (UTC) [ responder ]
- No creo que la guía propuesta deba tener el estatus de directriz o política. Creo que su enfoque en una sola tecnología la hace demasiado específica. Creo que el consenso de la comunidad será más fácil de discernir si se categorizan los programas y las características del software en tipos según el uso y se mide la opinión de la comunidad sobre estos tipos. isaacl ( discusión ) 22:33, 13 de diciembre de 2023 (UTC) [ responder ]
- @Isaacl: Creo que las tecnologías que son sustancialmente diferentes de otras deberían regirse por políticas separadas. Por ejemplo, las plantillas y los artículos son archivos de texto escritos con el marcado de MediaWiki utilizando el mismo programa, pero utilizamos políticas separadas para determinar qué es apropiado en cada uno, porque hay diferentes consideraciones (para las plantillas es la ejecución del código y la visualización gráfica de la información, para los artículos es la organización y el contenido). jp × g 🗯️ 22:47, 13 de diciembre de 2023 (UTC) [ responder ]
- Creo que hay más consenso en la comunidad sobre los tipos de usos de la tecnología. La misma tecnología suele ser la base de una plétora de usos. A nadie le preocupa la tecnología que utilizan los correctores gramaticales. Creo que a la comunidad le preocupan los programas que generan textos de artículos, independientemente de la tecnología que utilicen. isaacl ( discusión ) 23:08 13 dic 2023 (UTC) [ responder ]
- Sí , a modo orientativo. Cremastra ( discusión ) 22:56 13 dic 2023 (UTC) [ responder ]
- Opción 1: se necesita algo para evitar la sustitución de la precisión y verificación humanas, especialmente para quienes no hablan inglés y utilizan maestrías en derecho para comunicarse y escribir en la Wikipedia en inglés sin saber lo que están tratando de decir, y las pautas para esto no son suficientes. — Karnataka talk 23:29, 13 de diciembre de 2023 (UTC) [ responder ]
- El lenguaje propuesto me parece razonable, aunque me gustaría ver más debate/qué podrían plantear los más escépticos como contraargumentos antes de hacer un voto en negrita. Sin embargo, quiero señalar ahora que si apoyo, será como una guía, no como una política. Citando Help:PG ,
las políticas expresan los principios fundamentales de Wikipedia con más detalle, y las pautas aconsejan cómo aplicar políticas y cómo proporcionar coherencia general entre los artículos
. Nuestra precaución con respecto a los LLM es algo que estamos adoptando más porque tiene sentido dados nuestros objetivos, en lugar de porque sea un principio fundamental, por lo que una guía sería una formulación más apropiada. Para decirlo de otra manera, si un no wikipedista me preguntara: "¿Cuáles son las creencias fundamentales que sostienen los wikipedistas?", podría hablar sobre verificabilidad o neutralidad o cualquier otra cantidad de políticas. Nunca pensaría en decir: "Precaución con respecto a los LLM", por lo que no tendría sentido formular esto como una política. {{u| Sdkb }} talk 23:47 13 dic 2023 (UTC) [ responder ] - Opción 1b : No deberíamos usar LLM en absoluto para páginas de contenido. La gente puede inspirarse en ellos, pero usar el resultado X fuera de contexto 1. se considera contenido generado automáticamente/spam por Google y Bing, y 2. va en contra de los principios de Wikipedia, que consisten en recopilar la suma de todo el conocimiento humano. Ya se usa mucho para spam, vandalismo, creación de engaños, etc. Si ves las respuestas humorísticas en el chiste del Día de los Inocentes ChatGPT , donde todas las respuestas son grandes modelos de lenguaje, podemos ver que lo que escribe es completamente predecible. Los LLM a menudo están plagados de errores que los hacen inutilizables. Por otro lado, para cosas internas del proyecto, no me importa. Tenemos la política de bots y creo que los LLM deberían mencionarse como una forma prohibida de edición semiautomatizada. Awesome Aasim 00:24, 14 de diciembre de 2023 (UTC) [ responder ]
- La lógica es que si un resultado de LLM no viola ninguna otra política (verificabilidad, veracidad de los hechos, guías de estilo apropiadas, etc.), entonces es un ejercicio burocrático eliminarlo. Por supuesto, actualmente esto sucede muy raramente y/o solo cuando el resultado es editado en profundidad por un editor humano. El autor de RfC tiene una subpágina sobre los posibles usos de GPT para escribir código wiki tedioso, por ejemplo. Fermiboson ( discusión ) 00:29, 14 de diciembre de 2023 (UTC) [ responder ]
- No existe una forma confiable de detectar la salida de LLM, por lo que Google y Bing no tienen forma de detectarla y reducir su peso. Sin embargo, estoy de acuerdo con
No deberíamos usar LLM en absoluto para páginas de contenido.
– Novem Linguae ( discusión ) 08:30, 14 de diciembre de 2023 (UTC) [ responder ]
- Opción 1 con la cláusula después del punto y coma eliminada, como guía (aunque como política sería aceptable para mí). La lógica de User:Sdkb tiene sentido para mí, explicando "Nuestra precaución con los LLM es algo que estamos adoptando más porque tiene sentido dados nuestros objetivos, en lugar de porque es un principio fundamental, por lo que una guía sería una formulación más apropiada". El texto propuesto parece aplicarse apropiadamente a cualquier paráfrasis asistida por LLM, ya que la paráfrasis sería un resultado del LLM. Entiendo la preocupación de ser demasiado específico por el texto que se refiere a los LLM, pero los LLM se utilizan universalmente para generar texto para diversas aplicaciones. Especificar "Salida del modelo de lenguaje grande, si se utiliza para la generación de texto en artículos en Wikipedia,..." sería redundante. Reemplazar "Salida del modelo de lenguaje grande" por "Texto generado" o algo similar me parece vago, ya que no tiene una definición sucinta y podría cubrir el texto generado por un script (que no tendría las preocupaciones de precisión de los LLM).
Por tanto, apoyo la propuesta tal como está redactada.Otros usuarios han señalado que la última oración propuesta podría llevar a la eliminación de contenido humano. Esta oración podría revisarse para que se aplique solo a casos flagrantes y obvios de uso de LLM, como en el caso de User:Ettrig , pero prefiero eliminar la cláusula por completo. TROPtastic ( discusión ) 00:56, 14 de diciembre de 2023 (UTC) [ responder ] - Opción 2. Esa última oración será un desastre a menos que y hasta que tengamos un método confiable para identificar el contenido generado por LLM. Tenga en cuenta que nuestras políticas existentes impiden la adición de (por ejemplo) contenido alucinado. En realidad, no necesitamos esto para poder eliminar contenido malo. WhatamIdoing ( discusión ) 01:03, 14 de diciembre de 2023 (UTC) [ responder ]
- La última oración no es necesaria para eliminar contenido incorrecto, es cierto, pero la parte sobre verificar la precisión y, especialmente, sobre revelar el uso de LLM y el modelo específico utilizado es útil para los editores que quieran usar LLM de manera constructiva. Como mínimo, facilita la identificación de contenido generado por LLM en situaciones de buena fe. TROPtastic ( discusión ) 01:08, 14 de diciembre de 2023 (UTC) [ responder ]
- Esa última oración podría resultar en que se elimine contenido bueno, generado por humanos, sin ninguna buena razón. Pasé parte del contenido que he escrito por los "detectores". Revisé solo secciones de varios párrafos de artículos, porque todos son inexactos en pequeños fragmentos de texto. La mitad de las veces, me dijo que lo que escribí yo mismo fue generado por IA. Sé que no usé un LLM (porque nunca usé uno), pero esta propuesta permitiría a cualquier editor eliminar mi contenido escrito 100% manualmente y con fuentes adecuadas porque creen que es "texto agregado en violación de esta política". No sé si realmente has escrito suficientes artículos para poder hacer esto todavía, pero si puedes encontrar algunos artículos en los que hayas escrito varios párrafos, intenta pegar lo que escribiste en una herramienta de "detección" como https://gptzero.me/ y mira lo que obtienes.
- Si los resultados son como los míos, pregúntese: ¿Alguien de la patrulla de CambiosRecientes va a utilizar esa misma herramienta? WhatamIdoing ( discusión ) 01:44 14 dic 2023 (UTC) [ responder ]
- Estoy de acuerdo en que las "herramientas de detección de GPT" son notoriamente inexactas (tanto para los falsos positivos como para los falsos negativos) a menos que un LLM esté diseñado para contener marcas de agua en su salida que puedan detectarse. He experimentado esto con mis escritos fuera de la wiki que he pasado por detectores. Aprecio que hayas señalado los problemas con la última oración, ya que en mi aprobación del resto de la propuesta pasé por alto el final. ¿Quizás las ideas publicadas por @ HistoryTheorist serían una mejora, al limitar las eliminaciones a un mal uso grave como en el caso Ettrig ? Alternativamente, la última oración se puede eliminar por completo. TROPtastic ( discusión ) 02:19, 14 de diciembre de 2023 (UTC) [ responder ]
- Por definición, no puede existir un método automatizado fiable para identificar el contenido generado por LLM, o LLM lo utilizaría como una máquina oráculo y tiraría los dados de nuevo hasta que produjera un resultado que tuviera una "baja probabilidad de ser generado por LLM" según el método. Sin embargo, este texto propuesto no dice nada sobre el uso de herramientas automatizadas que afirman falsamente reconocer el material generado por LLM. Los humanos expertos pueden reconocer muchas características del contenido generado por LLM; la evidencia será la admisión directa de un editor o será circunstancial . — Bilorv ( discusión ) 22:12 18 dic 2023 (UTC) [ responder ]
- Opción 1a* Tal vez me incline más hacia la opción 1b porque creo que la última cláusula podría ser un poco más matizada. Creo que el texto sospechoso solo debe eliminarse si hay evidencia abrumadora de una inexactitud grave o una violación de las políticas de WP escritas por un LLM. Si hubiera una edición hipotética en la que el texto sonara como un LLM pero fuera preciso y siguiera las políticas de WP, dudo en eliminarlo porque bien podría ser un texto generado por humanos. ❤History Theorist❤ 02:35, 14 de diciembre de 2023 (UTC) [ responder ]
- Además, creo que si seguimos adelante con esta política, debería haber una casilla de verificación en la parte inferior (similar a la casilla de verificación de edición menor) que indique que esta edición utiliza LLM. Creo que todos los usuarios DEBEN declarar el uso de LLM y que las violaciones flagrantes de la política propuesta hacen que un usuario sea pasible de bloqueo. Como dije antes, se debe tener cuidado de no acusar apresuradamente a un usuario de usar un LLM porque viola WP:AGF . ❤History Theorist❤ 02:38, 14 de diciembre de 2023 (UTC) [ responder ]
- Opción 1 para todo hasta el punto y coma. Ya tenemos margen de maniobra para eliminar el contenido que no supere la verificación (el gran problema con los LLM en este momento), por lo que no veo la necesidad de volver a formularlo por separado. Esto podría verse como una política de comportamiento o como una directriz de contenido. Me es indiferente si consideramos esto como una política o una directriz; en efecto, impondrá los mismos requisitos a los usuarios para que se adhieran a ella, y la decisión es más sobre si lo vemos como un problema de calidad del contenido o como un problema de comportamiento. — Halcón de cola roja (nido) 03:20, 14 de diciembre de 2023 (UTC) [ responder ]
- Opción 1b Prohibir todo el contenido generado por LLM en la wiki. ( t · c ) buidhe 07:40, 14 de diciembre de 2023 (UTC) [ responder ]
- Opción 1b: prohibir todo el contenido generado por LLM de la wiki. Deberíamos prohibir los LLM de la misma manera que prohibimos el copyvio y el plagio. No se pueden exagerar los peligros de una herramienta que crea textos que suenan fluidos pero que son factualmente inexactos (a veces con citas falsas incluidas). Esta es una amenaza perniciosa, requiere la misma cantidad masiva de tiempo de un editor experimentado que un WP:CCI para limpiarla, y es solo cuestión de tiempo antes de que descubramos a nuestro primer editor experimentado que usa LLM en masa y que necesitará una limpieza similar a la de CCI.Si la opción 1b no logra consenso, también vale la opción 1 de política o directriz. Algo es mejor que nada.– Novem Linguae ( discusión ) 08:34, 14 de diciembre de 2023 (UTC) [ respuesta ]
- Creo que esta propuesta tiene como objetivo mantener el alcance de la discusión manejable al decir "¿debería adoptarse la siguiente oración como una política/directriz (ya sea que se amplíe o no más adelante, o ya sea que haya o no decisiones posteriores con respecto al uso de LLM)?". Para mí, el texto tal como se propone no impide cualquier decisión futura de prohibir por completo el contenido de LLM. En cambio, garantiza que no haya una zona gris donde el contenido de LLM pueda usarse de manera aleatoria en el ínterin porque "no hubo consenso en la comunidad sobre la regulación del uso de LLM ni siquiera de manera limitada". TROPtastic ( discusión ) 10:15, 14 de diciembre de 2023 (UTC) [ responder ]
- Buen punto. Corregiré mi mensaje. – Novem Linguae ( discusión ) 10:27 14 dic 2023 (UTC) [ responder ]
- Para las personas que eligen la opción 2 porque no hay una forma confiable de detectar LLM, creo que podría valer la pena señalar que hay muchos precedentes para prohibir actividades indetectables. Por ejemplo, WP:UPE no está permitido según los términos de uso y la guía, y es prácticamente indetectable a menos que el editor lo admita (porque es casi idéntico a WP:COI ). Pero aún lo prohibimos en nuestras políticas, y sigue siendo útil indicar que está prohibido. – Novem Linguae ( discusión ) 22:57, 14 de diciembre de 2023 (UTC) [ responder ]
- No voy a entrar demasiado en detalles, pero es bastante común tener bloqueos de UPE basados en evidencia bastante contundente (a menudo evidencia fuera de wiki comparable a la admisión directa).
- Aparte de eso, creo que la UPE en sí misma daña la integridad del proyecto, mientras que el uso de LLM en sí no lo hace. Solo es perjudicial a través de problemas secundarios que pueden o no estar presentes. Y estos problemas secundarios ya están cubiertos por las políticas y pautas existentes. MarioGom ( discusión ) 23:33, 14 de diciembre de 2023 (UTC) [ responder ]
- Creo que el uso de LLM, y especialmente el uso no documentado de LLM, tiene un gran potencial para dañar el proyecto. Consulte https://www.cbsnews.com/news/sports-illustrated-ross-levinsohn-arena-group-termination-ai-articles/ para ver un ejemplo (reciente) de cómo el contenido de LLM (no revelado en este caso) dañó la reputación de una publicación. Skynxnex ( discusión ) 17:51, 15 de diciembre de 2023 (UTC) [ responder ]
- Me gustaría señalar que Stack Overflow ha prohibido por completo los LLM. – Novem Linguae ( discusión ) 13:51, 17 de diciembre de 2023 (UTC) [ responder ]
- El contenido de Stackoverflow difiere bastante del nuestro. Suelen depender mucho más de que el contenido sea original, lo que es un problema cuando se trata de LLM. Para nosotros, cualquier cosa que sea investigación original ya está fuera de los límites :) Sohom ( discusión ) 17:04, 17 de diciembre de 2023 (UTC) [ responder ]
- Opción 1c u opción 2 para la formulación actual, pero estoy dispuesto a cambiar mi voto si se abordan mis puntos de crítica. Tal como lo veo, hay usos problemáticos y no problemáticos de LLM. Solo los usos problemáticos de LLM necesitan ser regulados. La propuesta actual no distingue y apunta a regular todos. Ejemplos de usos no problemáticos de LLM son la corrección ortográfica y similares. Por ejemplo, el algoritmo de corrección ortográfica de Grammarly se basa en una tecnología similar. No creo que nadie quiera una eliminación sumaria a gran escala de sus contribuciones porque no declararon que usaron un corrector ortográfico (probablemente porque ni siquiera conocían esta regla). Hubo varias discusiones sobre esto en WT:LLM . Las funciones de autocompletar utilizadas por los teléfonos móviles podrían plantear un problema similar (la idea básica de la predicción asistida por IA para producir sugerencias es la misma, aunque no estoy seguro de que, estrictamente hablando, las implementaciones actuales usen modelos de lenguaje "grandes"). Hay muchos otros usos que no plantean problemas, como User:JPxG/LLM_demonstration#Wikitext_formatting_and_table_rotation .
- El principal problema con los LLM parece ser que los editores les piden que escriban contenido original y luego lo copian y pegan en Wikipedia. Por eso, sugeriría un enfoque más minimalista y solo regular eso.
- Además, también podría ser una buena idea incluir una nota a pie de página que indique que no se puede confiar en los detectores de IA para evitar la eliminación sumaria de las contribuciones que obtienen una puntuación alta por parte de dichos detectores. Muchos LLM se entrenan en Wikipedia, por lo que un texto típico de Wikipedia tiene una alta probabilidad de ser categorizado como generado por IA.
- También podría ser una buena idea aclarar que la política se aplica no sólo a modelos de lenguaje grandes, sino también a tecnologías similares que, estrictamente hablando, no califican como modelos de lenguaje grandes.
- Un borrador de cómo podrían lucir estas modificaciones:
- Opción 1c :
El contenido original generado por
grandes modelos de lenguaje
o tecnologías similares basadas en IA, si se utiliza en Wikipedia, debe verificarse manualmente para comprobar su precisión (incluidas las referencias que genera), y su uso (incluido el modelo) debe ser revelado por el editor
; el texto añadido en violación de esta política puede eliminarse sumariamente
.
[a]
- Phlsph7 ( discusión ) 08:55 14 dic 2023 (UTC) [ responder ]
Notas
- ^ Los detectores de IA como GPTZero no son confiables y nunca deberían usarse para decidir si un texto fue creado por una IA.
- Algunos editores han criticado la última frase después del punto y coma. No tengo objeciones a eliminarla. Phlsph7 ( discusión ) 09:02 14 dic 2023 (UTC) [ responder ]
- Sí, apoyaría esto como complemento; probablemente también sería útil elaborar definiciones más precisas de lo que significa "verificar". Si se aprueba, planeo redactar algún texto para cosas como esta también, pero no quiero que una adopción inicial de "cualquier política en absoluto" se vea retrasada por desacuerdos sobre si GPTZero es preciso, si un resumen de edición debe mencionar un modelo específico o si puede decir simplemente "IA", etcétera. Me aventuraría a decir que los intentos excesivos de hacer que el primer borrador fuera perfecto fue lo que mató a WP:LLM (al ser imposible satisfacer a todos, y al ser mucho más fácil oponerse a todo el asunto que apoyar y cambiar después una política con la que no estás de acuerdo con 7/10 de los puntos). jp × g 🗯️ 23:08, 14 de diciembre de 2023 (UTC) [ responder ]
- Mi principal punto de discordia con la formulación actual es que pretende regular todas las posibles solicitudes de LLM, lo que me parece ir demasiado lejos. Si hay acuerdo sobre esa modificación, confío en que se pueda llegar a una solución aceptable en relación con los otros puntos menores. Pero, dado el creciente número de oposiciones, parece cada vez más improbable que esta propuesta logre el alto consenso necesario para convertirse en una política/directriz. Phlsph7 ( discusión ) 08:17 15 dic 2023 (UTC) [ responder ]
- Opción 1 con una leve preferencia por las directrices en lugar de las políticas. Independientemente de si más adelante decidimos apoyar, tolerar o prohibir el uso de LLM, creo que necesitamos transparencia que revele el contenido generado por modelos lo antes posible. Si bien reconozco las reservas en torno a una posible aplicación excesivamente entusiasta con herramientas de "detector", espero que WP:AGF y WP:NOTBURO sigan aplicándose. El objetivo es garantizar que nosotros, tanto la comunidad de editores como el público en general, tengamos una forma de distinguir el contenido sintético. Exigir que se verifique manualmente la precisión de los resultados también es sensato, especialmente dada la tendencia de los modelos a alucinar . Podemos (y creo que lo haremos) seguir desarrollando la política/directriz en el futuro, pero mientras tanto apoyo comenzar con esta propuesta. Tony Tan · discusión 09:47, 14 de diciembre de 2023 (UTC) [ responder ]
- Opción 1 : ligera preferencia por las directrices, pero también sería aceptable una política. Los LLM son un tema complicado con varios casos extremos (por ejemplo, Phlsph7 plantea un punto sólido sobre la distinción entre los LLM como generadores de contenido y los LLM como correctores ortográficos), pero también tienen la capacidad de dañar significativamente la enciclopedia si no se controlan en absoluto. Creo que la redacción actual cubre un subconjunto de casos lo suficientemente amplio como para ser una adición útil a los PAG. En lugar de dejar que lo perfecto sea enemigo de lo bueno, creo que deberíamos fijar lo bueno en su lugar y luego iterar a partir de ahí para impulsarlo hacia lo perfecto. ModernDayTrilobite ( discusión • contribuciones ) 15:16, 14 de diciembre de 2023 (UTC) [ responder ]
- Opción 2 - Haciendo eco de @Isaacl: . Una mejor solución sería algún tipo de integración directa de LLM en el sitio + editor, que captura el modelo y las indicaciones utilizadas y proporciona un espacio de borrador para trabajar con el resultado. Eso deja muy clara la procedencia: los resultados generativos actualizan un borrador, cada paso de escritura generativa + actualización + enriquecimiento ocurre en una edición separada con un resumen de edición adecuadamente estructurado, y luego un editor o bot, haciendo referencia a ese resultado, crea o edita un artículo. La participación de bots, incluidos los bots automatizados que utilizan herramientas generativas en su flujo de trabajo, debería ser manejada por una extensión del proceso de aprobación de bots. – SJ + 16:37, 14 de diciembre de 2023 (UTC) [ responder ]
- Opción 1b para una prohibición total. Estoy de acuerdo con Awesome Aasim , Buidhe . y Novem Linguae en que los LLM deberían prohibirse inequívocamente en Wikipedia por el problema inherente de la imposibilidad de verificarlos y, en segundo lugar, por cuestiones de derechos de autor y NPOV. Salvo una prohibición total, la opción 1 como política (no como directriz) es la única alternativa que veo. Dan • ✉ 17:06, 14 de diciembre de 2023 (UTC) [ responder ]
- Opción 2 No estoy de acuerdo con la prohibición total o incluso con las propuestas de "divulgar, de lo contrario revertir" que se plantean anteriormente. Los LLM, si se utilizan correctamente (para parafrasear, reescribir, editar, etc.), no son algo malo, especialmente si las indicaciones se construyen correctamente para evitar la inclusión de material original. En ciertos casos, por ejemplo en código gadget/lua/css, incluso el resultado original puede ser bastante útil para la inspiración y la finalización del código. Lo que deberíamos estar considerando aquí es la prevención de los casos más atroces, es decir, copiar y pegar directamente el resultado de "Escríbeme un artículo de Wikipedia sobre xyz", no el caso de uso de alguien que escribe un resumen y luego le pide a GPT que corrija el inglés y lo parafrasee de una manera más enciclopédica, antes de verificar que no se hayan cambiado los hechos reales. Sohom ( discusión ) 18:08, 14 de diciembre de 2023 (UTC) [ responder ]
- Dicho esto, estoy abierto a apoyar la redacción de estas directrices de Phlsph7 menos el texto después del punto y coma (llamémoslo Opción 1c ). Creo que refleja mejor el consenso actual en el área y aborda el problema con el segundo caso mencionado. Sohom ( discusión ) 18:08, 14 de diciembre de 2023 (UTC) [ responder ]
- Estoy de acuerdo en que son útiles para muchas tareas (y las he usado para muchas cosas con plantillas y módulos). En el caso de que las usen personas que entienden lo que hacen y se esfuerzan por hacerlo, mencionar "escrito con GPT-4" o "sintaxis mejorada por Mistral-70B", etc., me parece una tarea extremadamente básica. Si alguien no se molesta en escribir tres palabras para indicar que usó un modelo para escribir algo, parece dudoso que se moleste en comprobar la coherencia del resultado, verificar declaraciones individuales, etc. (todo lo cual lleva mucho más tiempo que escribir el nombre de un modelo en un resumen de edición). Es lo mismo que cuando la gente sube imágenes sin molestarse en hacer clic en un cuadro para especificar una licencia; un estándar básico, que cualquiera que esté interesado en seguir la política puede cumplir fácilmente. jp × g 🗯️ 23:04, 14 de diciembre de 2023 (UTC) [ responder ]
- No creo que a la gente que copia y pega directamente el resultado le importe un comino esto, y en su caso, una política de "atribuir o revertir" tiene sentido (y es por eso que he apoyado la modificación redactada con más rigor por Phlsph7). Lo que más me preocupa aquí es que los usuarios experimentados/de buena fe estén sujetos a la política de "atribuir o revertir" a pesar de haber realizado ediciones y modificaciones extensas al resultado. No quiero que los usuarios tengan la licencia para revertir en masa mis contribuciones sin atribuir, porque me vieron hablar sobre el uso de Github Copilot/Grammarly Go/ChatGPT en <insertar evento/foro fuera de la wiki>. Sohom ( discusión ) 02:04, 15 de diciembre de 2023 (UTC) [ responder ]
- Bueno, dice "texto añadido en violación de esta política", no "cualquier texto que alguien decida que apesta". Siempre existe la necesidad de que la gente elimine contenido según WP:WHATEVER para demostrar que WP:WHATEVER se aplica; esto es cierto incluso en el caso de políticas urgentes de "borrar todo y hacer preguntas después" como WP:COPYVIO , WP:ATTACK , etc. Si alguien va por ahí colocando {{ db-attack }} en cosas al azar sin ninguna explicación más allá de "apesta", eso se puede tratar como cualquier otra forma de edición disruptiva. A mí me parece que esta es básicamente la misma situación. jp × g 🗯️ 08:14, 15 de diciembre de 2023 (UTC) [ responder ]
- Creo que el punto principal que plantea Sohom Datta es que la política en su formulación actual pone piedras innecesarias en el camino de los editores serios. Una es que tienen que declararla para cada edición, incluso para usos que se consideran no problemáticos. La otra es que esto puede provocar reacciones no constructivas de los demás. Has señalado que las políticas actuales también proporcionan formas de eliminar algunas de estas piedras. Pero, ¿por qué ponerlas ahí en primer lugar? Phlsph7 ( discusión ) 08:28, 15 de diciembre de 2023 (UTC) [ responder ]
- Está claro que estas herramientas tienen usos productivos, pero me cuesta entender qué uso productivo tiene tergiversar su resultado como si viniera de un editor humano. JWB es una herramienta enormemente útil que utilizo todo el tiempo; si ejecuto una gran pila de correcciones de expresiones regulares en un trabajo de JWB, todos los resúmenes de edición dicen
(Usando
JWB
)
al final. Si me equivoco en una expresión regular y arrojo basura por todos lados (lo que sucede de vez en cuando), es fácil para mí y otros editores revisar y averiguar qué sucedió y solucionarlo. Los bots que ejecuto tienen enlaces prominentes a repositorios públicos de su código fuente. Cuando escribo artículos, se me exige que proporcione citas a las obras de referencia que utilicé. Si es una piedra en el camino para que alguien pueda ver mis ediciones y averiguar lo que estoy haciendo, entonces ¿cuántas piedras se ponen en el camino al salirme de mi camino para ocultar lo que estoy haciendo? No creo que nadie esté diciendo que se deba banear a las personas si olvidan escribir un resumen de edición, pero hay muchas cosas obviamente malas e inútiles que pueden suceder debido a LLM configurados incorrectamente o errores no detectados o problemas de habilidades o lo que sea. - Aquí hay algunos borradores que moví a mi espacio de usuario para que sirvan como ejemplos; no solo son falsos por accidente, son completamente fraudulentos ; literalmente, cada una de las fuentes es inventada, de una manera que requiere mucho tiempo y es difícil de detectar. Una muestra incompleta de este año, de las cosas específicas que la gente se molestó en agregar al encabezado de la página de discusión de WT:LLM : 1 , 2 , 3 , 4 , 5 , 6 , 7 , 8 , 9 , 10 , 11 , 12 ... O esto , esto , etcétera. Actualmente, la categoría:Artículos que contienen textos sospechosos generados por IA de diciembre de 2023 tiene doce miembros, sin incluir las cosas que ya se eliminaron.
- Tal vez deberíamos considerarnos afortunados de haberlos detectado en el período en que los modelos de lenguaje eran lo suficientemente difíciles de detectar. ¿Qué haremos en, digamos, 2026, cuando ya no inserten frases extremadamente reconocibles (como "Como un modelo de lenguaje de IA") en todos sus resultados, simplemente nos daremos por vencidos y diremos "Sí, el 50% de las referencias en Wikipedia son completamente fraudulentas y en realidad no existen, y no tenemos forma de detener esto, pero al menos no hicimos que la gente escribiera 'GPT-5' en sus resúmenes de edición"? Quiero decir, tal vez no llegue a esa etapa, tal vez llegue a la mitad, tendremos un ataque colectivo gigante y se convertirá en una ofensa capital pronunciar la palabra "LLM", pero de cualquier manera habrá un río de lágrimas si simplemente no hacemos nada en absoluto . Propongo hacer algo mínimo y pragmático, que ayude a detener el daño que están haciendo los errores y los problemas de habilidad, al mismo tiempo que proporciona la mínima cantidad posible de inconvenientes a las personas interesadas en usar las herramientas de manera productiva. jp × g 🗯️ 09:04, 15 de diciembre de 2023 (UTC) [ responder ]
- El problema es que todo lo que es problemático en el texto generado por LLM ya se puede eliminar según las políticas existentes, y nadie propone cambiar eso, y nadie ha articulado ninguna razón por la que se deba eliminar el texto generado por LLM que no es problemático. Thryduulf ( discusión ) 13:55 15 dic 2023 (UTC) [ responder ]
- @JPxG No creo que esta política tenga ningún efecto en la tasa de creación de los artículos spam a los que haces referencia. No creo que los creadores de dichos artículos sigan otras pautas, y mucho menos la de los LLM. La versión propuesta por Phlsph7 (que apoyo) cubriría estas creaciones específicas y se aplicaría el comportamiento de "atribuir o revertir". (Sin mencionar que incluso sin una política específica, estas entran en conflicto con GNG, OR, V y un montón de políticas tradicionales tal como están)
- En cuanto a las comparaciones con JWB y la edición automatizada, ambas son actividades muy bien definidas que no se pueden realizar por accidente. El uso de LLM no entra en la misma categoría. En la actualidad, es muy fácil incluir accidentalmente resultados LLM benignos (a través de Github Copilot/Grammarly, etc.) sin atribución, que se pueden revertir a simple vista de acuerdo con la letra y el espíritu de la política propuesta. Además, declarar que has utilizado LLM provocará fuertes reacciones de los editores (a diferencia del uso de JWB), que podrían citar una verificación manual insuficiente para revertir tus ediciones, independientemente del tiempo que realmente hayas dedicado a ellas. Si el uso de LLM estuviera tan claramente definido como la edición automatizada/de bots, no tendría problemas en apoyar esto como una guía, sin embargo, ese no es el caso en este momento. Sohom ( discusión ) 20:43, 15 de diciembre de 2023 (UTC) [ responder ]
- Estoy de acuerdo con Thryduulf y Sohom, y agrego que WP:JWB se menciona en cada resumen de edición porque es una herramienta wiki. Los LLM no son herramientas wiki. Tendrían que revelarse manualmente, es decir, a través de un proceso que depende de humanos y que tendrá errores a escala humana debido a los límites de la confiabilidad humana (especialmente si no sucede nada obvio la primera vez que se olvida).
- Lo que estamos pidiendo es el equivalente a decir: "Si estás traduciendo un artículo de otra Wikipedia y utilizas el Traductor de Google en otra pestaña para ahorrar algo de tiempo, asegúrate no solo de comprobar dos veces cada palabra que estás añadiendo, sino también de escribir "parcialmente utilizando el Traductor de Google" en el resumen de la edición, sin falta, cada vez. Puede que sea algo bueno, pero, en mi opinión, no es algo realista que se pueda esperar que suceda". WhatamIdoing ( discusión ) 03:45, 17 de diciembre de 2023 (UTC) [ responder ]
- Opción 1 , absolutamente, ya sea como política o como directriz. Aprecio el argumento de que "no tenemos una forma real de demostrar que se ha utilizado", pero creo que en la mayoría de los casos problemáticos simplemente no hay ninguna duda razonable de que se haya generado por LLM y de que se trate simplemente de basura inapropiada. Si aparecen mejores herramientas, sin duda podremos reconsiderar esto más adelante: pero tal como están las cosas ahora, una prohibición tajante de cualquier cosa que no sea una asistencia para la redacción bien supervisada y claramente divulgada parece la medida sensata. Andrew Gray ( discusión ) 19:09, 14 de diciembre de 2023 (UTC) [ responder ]
- Opción 2: ya tenemos WP:V para protegernos contra copias y pegados sin control. Mach61 ( discusión ) 21:08 14 dic 2023 (UTC) [ responder ]
- Opción 2 : es un instrumento demasiado burdo, y me preocupan especialmente los llamamientos a prohibirlo por completo, lo que es una reacción exagerada, destructiva y una simplificación excesiva. También podríamos prohibir los tesauros, diccionarios, traductores automáticos, correctores ortográficos y todo tipo de herramientas que uno podría usar para ayudar a escribir un artículo, porque los LLM se pueden utilizar para cualquiera de esos fines. Los LLM son mejores que Google Translate en algunas tareas, pero si traduzco una palabra utilizando un LLM y no la documento, estaría infringiendo la política, mientras que si hago exactamente lo mismo con Google, todo está bien.
Hay demasiadas cosas para las que se pueden utilizar los LLM como para ponerlas todas en la misma caja. Comience primero con una declaración de "usted es responsable de cualquier texto que incluya" aplicada a los LLM (¿presumiblemente algo así ya existe en alguna parte?), y luego cree tipos específicos de usos sobre eso. La traducción, la corrección de estilo, los cambios de estilo, la paráfrasis, el resumen, la generación total de un artículo, etc. son usos muy diferentes y requieren consideraciones diferentes. Muchas de esas consideraciones dependen del comportamiento y de la competencia, en lugar de ser algo inherente a los LLM. Sí, obviamente, si alguien publica artículos escritos y generados íntegramente por un LLM basándose en un mensaje simple, eso debería quedar documentado. Pero si no estoy conforme con una frase que escribí y quiero que la reescriban, si quiero traducir una palabra, si quiero que se haga una corrección básica de un artículo que escribí yo mismo... ¿a quién le importa si usé un LLM u otro tipo de herramienta? Lo importante es que soy responsable de lo que agrego.Las rododendritas hablan\\ 21:27, 14 de diciembre de 2023 (UTC) [ responder ]- Utilizas la traducción automática como ejemplo de una herramienta similar útil, sin embargo, se desaconseja encarecidamente, si no se prohíbe . Dan • ✉ 02:48, 15 de diciembre de 2023 (UTC) [ responder ]
- Y a pesar de eso, una gran fracción de editores que traducen artículos aquí utilizan la traducción automática (de diferentes maneras, en diferentes grados y con diferentes niveles de divulgación), incluido yo. WhatamIdoing ( discusión ) 03:48, 17 de diciembre de 2023 (UTC) [ responder ]
- Lo mismo aquí. (Nota: normalmente etiqueto el texto que he traducido automáticamente (nombres y títulos en plantillas de citas) y, a veces, sospecho que algunos de los que revisan la traducción pueden no ser completamente competentes para traducir muestras de texto tan pequeñas, o pueden usar la traducción automática ellos mismos). Sería bueno para los principiantes ver una plantilla de etiquetas más simple y completa, que un editor pueda marcar rápidamente, para auditar de forma independiente el texto asistido por traducción automática y LLM. El retraso es bastante pequeño: Cat:Wikipedia articles to be checked after translation y Cat:Wikipedia articles needing cleanup after translation - desafortunadamente, no hay subcategorías que dividan las etiquetas en función de si es necesario revisar una sola palabra, oración, pasaje o artículo completo. SamuelRiv ( discusión ) 02:18, 15 de enero de 2024 (UTC) [ responder ]
- Opción 1 como política. Esto simplemente aclara este caso específico de políticas existentes previamente, y es algo que requiere claridad. Puedo entender el deseo de prohibirlo por completo, pero si se usa con prudencia, podría ayudar con ciertas tareas. -- LCU ActivelyDisinterested « @ » ° ∆t ° 21:58, 14 de diciembre de 2023 (UTC) [ responder ]
- Opción 2 , debido a la última oración y a la inexistencia de una forma confiable de determinar si el texto está o no generado por LLM. Como se ha señalado anteriormente, y en todas las discusiones anteriores que he visto, todo el contenido malo se puede eliminar utilizando las políticas existentes y no deberíamos eliminar el contenido bueno independientemente de si está escrito por humanos o por máquinas (los derechos de autor son irrelevantes aquí, porque las violaciones de los derechos de autor son un ejemplo de contenido malo que ya se puede eliminar). Thryduulf ( discusión ) 22:25, 14 de diciembre de 2023 (UTC) [ responder ]
- Opción 2: El uso de LLM a menudo conduce a varios problemas, como afirmaciones falsas, fuentes falsas, texto que podría ser correcto pero que no coincide con el contenido de las referencias en línea, copyvio, etc. Todos estos son problemas que ya están abordados por la política existente. Tiene sentido rastrear el uso de LLM como un proxy para encontrar este tipo de problemas inducidos por LLM. Pero el uso de LLM en sí, en ausencia de otras violaciones de la política, no parece problemático. Por lo que vale, he usado y planeo continuar usando modelos LLM como una ayuda para escribir, y personalmente no tengo ningún problema en revelar eso. Sin embargo, no veo cuál es el sentido de una divulgación específica exigida por la política. MarioGom ( discusión ) 22:41, 14 de diciembre de 2023 (UTC) [ responder ]
- Opción 2 por las razones expuestas por Rhododendrites y Thryduulf. Por otra parte, observo que la página propuesta en sí (a diferencia de la declaración de RFC) supuestamente se aplica
independientemente de otras políticas y pautas
, a las que me opongo; no tiene autoridad para anular todas las demás políticas y pautas. Adumbrativus ( discusión ) 06:10 15 dic 2023 (UTC) [ responder ]- @ Adumbrativus : Esto es lo opuesto a lo que se pretendía: lo que quise decir es que esta política existiría independientemente de cualquier otra decisión que se tomara para modificarla más tarde, y no las anularía. Si unos meses después la gente quiere, por ejemplo, exigir que alguien sea editor de plantillas para usar LLM, o prohibirlas por completo, esto no pretende prohibirlo. La intención era evitar un referéndum gigantesco sobre si son "buenas" o "malas", y decir que, de cualquier manera, su uso debe atribuirse. Supongo que puedo aclarar esto, aunque la idea era tener algo lo suficientemente simple como para caber en dos oraciones. jp × g 🗯️ 08:07, 15 de diciembre de 2023 (UTC) [ responder ]
- He aclarado la frase para decir esto: "
Independientemente de otras políticas y pautas
que puedan modificarla más adelante
, lo siguiente se aplica
actualmente
al uso de texto generado por máquina a partir de grandes modelos de lenguaje en Wikipedia
". jp × g 🗯️ 08:09, 15 de diciembre de 2023 (UTC) [ responder ]
- ¡Gracias por explicar el propósito y perdón por la distracción! Adumbrativus ( discusión ) 16:48 15 dic 2023 (UTC) [ responder ]
- @JPxG , sería más sensato eliminar por completo la parte que dice "Independientemente de otras políticas y pautas que puedan modificarlo más adelante". WhatamIdoing ( discusión ) 03:52, 17 de diciembre de 2023 (UTC) [ responder ]
- Opción 1b , tal como la expresó buidhe:
prohibir todo el contenido generado por LLM en la wiki
. Prohibimos el plagio; deberíamos prohibir las máquinas de plagio. XOR'easter ( discusión ) 15:09 15 dic 2023 (UTC) [ responder ]- Dado que ya prohibimos el plagio, ya prohibimos las "máquinas de plagio", actualmente no prohibimos los LLM porque no son "máquinas de plagio", sino algoritmos que a veces plagian. Thryduulf ( discusión ) 15:33 15 dic 2023 (UTC) [ responder ]
- Opción 2 - Las políticas y directrices de Wikipedia ya cubren esto. Cada editor es responsable de sus propias ediciones, y realmente no importa cómo haya reunido las palabras que publica en Wikipedia: si escribió de memoria, si leyó y resumió tres RSes, si copió y pegó de un sitio web (y no importa qué sitio web), o si utilizó una tabla Ouija ... realmente no importa: una vez que presiona "publicar", usted es responsable de lo que publica. Si es plagiado, si no tiene fuentes, si es falso, si no es neutral... todo eso recae sobre el editor, independientemente de cómo haya elaborado la edición. De manera similar, no importa si el editor escribió la edición en línea (en un editor wiki) o fuera de línea (con un editor de texto) y la copió. Si fue escrita en línea, no importa qué editor de Wiki utilizó el editor. Si fue escrita fuera de línea, no importa qué procesador de texto o editor de texto utilizó. Si el editor utilizó un diccionario o un tesauro para preparar la edición, no importa cuál. Y por la misma razón, no importa si el editor utilizó un LLM o no: el editor es responsable de su edición, de la misma manera exacta, y en la misma medida que otro editor que hizo la misma edición sin utilizar un LLM. Las prohibiciones de los LLM, los requisitos de divulgación para el uso de los LLM o cualquier regla especial sobre los LLM son tan tontas como tener, por ejemplo, un requisito de divulgación que exija a los editores que revelen si utilizaron Word o Google Docs, o un diccionario o un tesauro, o una calculadora (¡cuidado, es OR!) o una regla. Un LLM es una herramienta de escritura. Sí, como todas las nuevas tecnologías, algunos nuevos usuarios la utilizan de forma indebida. Esa no es razón para prohibir o restringir la herramienta. "¡Utilicé un LLM!" No es excusa para una mala edición, al igual que decir "¡He revisado la ortografía con Word!", pero tampoco es motivo de un escrutinio especial, y Dios sabe que Wikipedia no necesita más políticas o directrices de las que ya tiene. Levivich ( discusión ) 21:38 15 dic 2023 (UTC) [ responder ]
- Opción 1b Prohibir el uso de LLM en cualquier contenido de prosa de artículo en Wikipedia, con el mismo rigor de paráfrasis minuciosa que se aplica a los derechos de autor en Wiki. En general , no tengo ningún problema con los espacios de nombres que no sean artículos y los usos técnicos, como limpiar citas o escribir código wiki complejo. Y quizás en wikis hermanas como Wiktionary, los LLM podrían funcionar bien. No me preocupa el contenido LLM que ya viola políticas existentes como WP:N, WP:C, etc., principalmente porque lo veo como un problema que puede desaparecer a medida que mejore la tecnología. Mis verdaderas preocupaciones, que parecen en su mayoría no discutidas en esta RfA o en la anterior, tienen más que ver con las ramificaciones a largo plazo de adoptar una P/G basada en la divulgación permisiva de LLM (o ninguna en absoluto):
- A) Los LLM para tareas de propósito general se están desarrollando a un ritmo alarmante. Lo que vemos como información descaradamente falsa puede volverse dramáticamente más sutil y más difícil de notar. De hecho, este debate que comenzó hace solo un mes muestra que ya hay esfuerzos importantes que intentan cerrar esta brecha, para bien o para mal. Lo más probable es que lo que veo como el peor de los casos sea que el contenido de LLM se use para edición tendenciosa , o más específicamente como una herramienta que permita a editores tendenciosos y abuso a largo plazo . O peor aún, que los propietarios de las plataformas inyecten artificialmente un sesgo modesto en ellas, utilizando modelos de recompensa basados en reglas como los descritos en la tarjeta del sistema GPT-4. La edición tendenciosa y la promoción civilizada del punto de vista ya es uno de los mayores problemas de Wikipedia. Y el uso de LLM para la promoción del punto de vista ya es un problema importante en las plataformas de redes sociales; temo que se convierta en la punta del iceberg de Wikipedia y que solo empeore con el tiempo. El problema, como escribe JPxG , es una economía de escala .
- B) Existe un verdadero punto de no retorno si optamos por tener una política permisiva y esta afecta a suficientes artículos. Hay un punto en el que el esfuerzo por eliminar el contenido de LLM, si alguna vez se desea en el futuro, será simplemente imposible, en términos realistas, especialmente considerando que es virtualmente imposible detectar contenido sin marca de agua y que es básicamente imposible marcar el texto con una marca de agua. Este hecho debilitará en gran medida cualquier propuesta futura de P/G que intente restringir el uso de LLM si esta RfC resulta en un resultado permisivo.
- C) El estatus legal de la propiedad intelectual está más o menos en el aire hasta que se lleve a cabo un largo y prolongado proceso judicial. En mi opinión, eso podría tardar años, dado el gran incentivo que hay, legal y económicamente hablando, para no establecer normas estrictas sobre el contenido de LLM. Tomar la decisión de permitirlo ahora es mucho más difícil de revertir en Wikipedia que para las grandes plataformas de redes sociales, que más o menos pueden hacer lo mismo que hacen ahora con el spam de eliminación automática de DMCA.
- D) El abastecimiento circular ya es un problema en Wikipedia, aunque poco frecuente. Como se ha dicho antes, una fracción importante de los conjuntos de datos de entrenamiento para los LLM que generan texto es Wikipedia. Estas herramientas no sólo tendrán un efecto sistémico de amplificación de los sesgos existentes en Wikipedia; si se permiten los LLM, entonces podría llegar un punto en el que los lectores simplemente no puedan distinguir la diferencia entre algunos artículos de Wiki y los resultados de los LLM, lo que plantea la pregunta de si esto podría marcar la caída de Wikipedia a largo plazo. ¿Por qué los lectores se molestarían en usar Wikipedia si estos LLM finalmente superan los problemas de alucinaciones y similares? ¿Si tienen más o menos los mismos sesgos? Si el uso de LLM es aprobado por los P/G o la falta de ellos, esto podría convertirse en una realidad en tan sólo unos pocos años. Esto también podría suceder incluso si adoptamos una prohibición total debido a que los LLM mejoran por sí solos, pero al menos hacer una prohibición está bajo nuestro control como comunidad como factor atenuante.
- E) Como se dijo antes, el uso de LLM es mucho más difícil de detectar que el de UPE , por ejemplo. Y hay muchas posibilidades de que nunca podamos detectar de manera confiable el uso de LLM para escribir artículos. Es decir, el método más efectivo para disuadir el uso de LLM es hacer que su disuasión sea una parte fundamental de la cultura de Wikipedia, y eso parece más fácil de lograr con una prohibición total. En mi opinión, es poco probable que se pueda aplicar una prohibición total incluso en una pequeña fracción del tiempo, por lo que la intención aquí es un cambio de cultura en lugar de un conjunto de pruebas/reglas a seguir para mantener explícitamente esta política hipotética.
- Esto es sólo una especulación. Lo que espero que suceda en los próximos años es que habrá un servicio competidor que convierta colecciones de sugerencias y respuestas en su propia enciclopedia, como un competidor directo de Wikipedia. Creo que esto es probable en parte porque he oído que los LLM ya se utilizan para casi este mismo propósito mediante el uso de sugerencias. Podemos rebajarnos a ese nivel ahora y comenzar una espiral de uso acelerado de LLM, o mantenernos completamente alejados.
- Por estas razones, creo que prohibir los LLM debería convertirse en una parte fundamental de la filosofía de Wikipedia y, por lo tanto, en una política más que en una directriz. Tal como yo lo veo, incluso la adopción de una regla clara sólo retrasará, pero no detendrá, el daño que causa en forma de una cantidad abrumadora de voluntarios y un sesgo sistémico. Si se necesitan 10 segundos para escribir este material, pero minutos u horas para revisarlo, sin importar qué P&G adoptemos o no, eso probablemente se volverá insostenible. Simplemente veo una regla clara como la forma más efectiva de desalentar y retrasar este resultado especulativo, ciertamente pesimista. Los LLM pueden ser enormemente beneficiosos para generar contenido en prosa, y puedo ver que muchos partidarios están tratando de argumentarlo, pero se trata de una pendiente resbaladiza dada la falta de mecanismos de detección confiables. Eso podría tener ramificaciones absolutamente terribles para el sitio; Incluso si algunos usuarios pueden hacer ediciones en prosa productivas con indicaciones, verificación y paráfrasis cuidadosas, parece más o menos imposible limitar su uso solo a esos editores sin un elitismo extremo, y espero que el uso descuidado del texto generado por LLM sea el caso de uso mucho más común, como ocurre con el uso típico de LLM en las empresas actualmente.
- Un poco por fuera: soy de la opinión extremadamente impopular de que existen IA en el mundo que ya tienen conciencia. Y creo que bajo ciertas condiciones, las IA merecen derechos. Y para ser honesto, no creo que nuestro mundo esté listo para eso, probablemente no por décadas o hasta que haya una guerra a gran escala. Pero en esa pequeña posibilidad futura, la transición de los LLM de herramientas a entidades legales y culturales independientes, podría muy bien posicionar a Wikipedia como un importante discriminador contra los derechos de las IA con estas políticas contra los LLM. Una RfC que intente determinar qué cualidades necesita una IA para que se le permita hacer ediciones... No puedo ver que eso tenga éxito, dado lo controvertido que es el tema de la conciencia de las IA. Solo es algo para pensar.Darcyes muylindo( discusión ) 23:50 15 dic 2023 (UTC) [ responder ]
- Algunos puntos:
Pero esto es una pendiente resbaladiza dada la falta de mecanismos de detección confiables
. Esta espada corta en ambos sentidos: si no tenemos un mecanismo de detección confiable, no podemos convertirlo en una violación de la línea clara. Sin un mecanismo de detección adecuado, en efecto, se inicia una cacería de brujas contra todos y cada uno de los usuarios que creen cualquier cantidad de contenido. (Estoy 100% seguro de que algunas de mis ediciones probablemente aparecerán como generadas por IA según algún filtro, a pesar de que tomo las máximas precauciones para asegurarme de que ningún contenido original generado realmente llegue a los artículos).Y el uso de LLM para promover el punto de vista ya es un problema importante en las plataformas de redes sociales
. Deberá proporcionar algunas citas para esta declaración.- El tipo de texto del que estás hablando aquí es del tipo de texto generado original, no creo que nadie aquí esté argumentando que usarlo sea algo bueno, pero hay casos de uso normales (parafrasear Grammarly/Google Docs/ChatGPT) que no inyectan sesgo ni contenido original, y no veo que se presente un argumento adecuado a favor de por qué su uso debería considerarse una violación de líneas brillantes que requiera un bloqueo inmediato.
- Por último, no estoy de acuerdo con la premisa general del argumento de que "si se prohíbe, desaparecerá". Si se prohíbe algo, se lo llevará a la clandestinidad (de forma similar a cómo existe actualmente la UPE). Si lo regulamos y proporcionamos los controles y contrapesos adecuados, educando a los usuarios sobre las formas correctas de utilizar una herramienta, podremos controlar su uso de forma mucho más eficaz, haciendo que sea fácil utilizar la herramienta de la forma correcta y difícil utilizarla de forma incorrecta.
- Sohom ( discusión ) 00:52, 16 de diciembre de 2023 (UTC) [ respuesta ]
Esta espada corta en ambos sentidos
Sí, quiero ser muy claro, mi intención con una política no es que se aplique como una cacería de brujas. El propósito, como yo lo veo, es construir una cultura que actúe como elemento disuasorio para ese tipo de comportamiento; con políticas o sin ellas, hay poco que se pueda hacer, pero cambiar la cultura está en nuestro control. Estoy totalmente de acuerdo contigo, una política de este tipo no debería utilizarse para justificar la prohibición basándose en herramientas de detección, sino que debería hacerse en función del consenso de la comunidad en una situación caso por caso (si es que se hace). Quién sabe, tal vez tenga su propio tablón de anuncios, revisiones sospechosas de LLM o algo así. Coincido con otros participantes en esta RfC en que los métodos de detección de LLM no son fiables actualmente ni en el futuro previsible y se debería desalentar su uso.Seguro que necesitarás proporcionar algunas citas para esta afirmación
. Como el tema es nuevo, no hay muchos artículos al respecto, pero mi opinión principal se basa en [1]. Creo que es probable que los resultados se generalicen a otras redes sociales. Claro, es una preimpresión y es solo un artículo, sobre una plataforma de redes sociales bastante "única", pero este es un tema muy nuevo y, con restricciones en cosas como la API de Twitter, entiendo que la investigación llevará tiempo para validarla. Personalmente, me gustaría hacer parte de la investigación académica yo mismo, pero simplemente no estoy en condiciones de hacerlo en este momento.- En general, apoyo cualquier uso de LLM que garantice que no inyectará sesgo o desinformación. Mencioné el trabajo técnico, pero la edición de textos es más una zona gris porque puede cambiar el significado, y es bastante común que los usuarios de AWB sean amonestados por cosas como WP:SUFFER o por cambiar de dialecto arbitrariamente. En mi opinión, se ahorraría más tiempo de edición en general simplemente no usando LLM para usos de zona gris debido a las probables discusiones interminables sobre el consenso de la comunidad para el uso. Dejando de lado el historial, creo que muchas de esas terminarían como "sin consenso". Parafrasear es menos una zona gris porque podría decirse que es el segundo uso más probable que cause problemas, siendo el primero el copiar y pegar directamente. Wikipedia ha estado funcionando, más o menos, bien sin LLM, y en mi opinión, su uso en cualquier área con el potencial de inyectar sesgo ocupará más tiempo en la revisión y las discusiones de consenso del que ahorrará con la edición. Eso sin mencionar la posibilidad de que revisar el contenido potencial del LLM sea un trabajo voluntario agotador y difícil, y que pueda tener efectos en la retención de editores.
Si lo regulamos y proporcionamos controles y equilibrios adecuados, educar a los usuarios sobre las formas correctas de usar una herramienta
Hasta donde tengo entendido, ni siquiera hay una "forma correcta" remotamente acordada de usar LLM. La ética de la IA como campo está muy lejos del punto de recomendar de manera creíble casos de uso particulares de LLM, y no tener un precedente judicial establecido sobre LLM y derechos de autor también dificulta las propuestas de usos "correctos". Sin embargo, lo invito a intentar redactar propuestas de uso más precisas, solo tenga en cuenta que no creo que sea fácil obtener consenso en Wikipedia para tal cosa, al menos por el momento.Prohibir algo lo llevará a la clandestinidad
Sí, eso es correcto. Por el bien del ejemplo, supongamos que no prohibiéramos UPE. No puedo decirlo con seguridad, pero imagino que sería más común. Es muy probable que el uso de LLM continúe aumentando sin importar lo que hagamos con P/G: es probable que nunca desaparezca y esto es algo con lo que la comunidad de Wikipedia tendrá que aprender a vivir de una manera u otra. Simplemente creo que una prohibición total reducirá su uso problemático en general y la cantidad de tiempo que los editores dedican a problemas relacionados. Solo tenemos medidas provisionales disponibles para hacer que el uso de LLM cumpla con las pautas, y personalmente creo que una prohibición total sería la medida provisional más efectiva.Darcyes muylindo( discusión ) 02:15 16 dic 2023 (UTC) [ responder ]- Me pregunto si este tipo de cambio podría ser una buena actualización para los términos de uso. Que aceptamos no enviar contenido generado, total o parcialmente, por ningún modelo de lenguaje grande. Por cierto, así es como WP:UPE fue baneado; impulsado en parte por la comunidad de WM, pero principalmente por la WMF. Awesome Aasim 22:07, 17 de diciembre de 2023 (UTC) [ responder ]
- Es una buena idea, aunque aún no sé cuál es la postura de la WMF.Darcyes muylindo( discusión ) 01:00 22 dic 2023 (UTC) [ responder ]
- Política de la opción 1. Si vamos a utilizarlas, es imprescindible que se hagan públicas. Si vamos a permitirlas o no, será una conversación aparte. CaptainEek Edits ¡Ho Cap'n! ⚓ 03:18, 16 de diciembre de 2023 (UTC) [ responder ]
- Opción 1 con el reconocimiento de que todavía no existe una forma precisa de verificar si el texto ha sido generado por IA y que el software de detección de IA tiene un sesgo alarmante contra los hablantes no nativos de inglés. Además, las tasas de detección caen en picado a casi cero cuando se utilizan indicaciones como "utilizar lenguaje literario" o "utilizar lenguaje enciclopédico". ~ F4U ( discusión • they/it ) 03:58, 16 de diciembre de 2023 (UTC) [ responder ]
- Opción 1 como política con la salvedad sugerida por Freedom4U y otros. Si bien algunos aspectos de esto ya están cubiertos por la política de WP, los LLM tienen la capacidad de generar toneladas de contenido no verificado a un ritmo sin precedentes, por lo que las regulaciones para ayudar a lidiar con esto tienen sentido. No creo que agregar algunas líneas a un resumen de edición sea una gran carga y esto ya se hace para otras ediciones automatizadas. No me opongo a otras formas de restricciones al contenido de LLM, pero esa debería ser una conversación aparte. ― 05:06, 16 de diciembre de 2023 (UTC) [ responder ]novov (t c)
- Opción 2 , por ahora, según Whatamidoing. Volveré a plantear la pregunta en seis meses. Sandizer ( discusión ) 15:27 16 dic 2023 (UTC) [ responder ]
- La opción 1 se inclina hacia una directriz, pero la política también está bien. Espero que el sentido común sea suficiente para evitar la eliminación de contenido beneficioso, pero si no es así, podemos revisarlo según sea necesario. Sin embargo, definitivamente es necesaria la divulgación. ARandomName123 ( discusión ) ¡Envíame un mensaje! 00:05, 17 de diciembre de 2023 (UTC) [ responder ]
- Sí, pero prefiero la opción 1b según Awesome Aasim. Chris Troutman ( discusión ) 03:53 17 dic 2023 (UTC) [ responder ]
- Opción 1 como política : la IA generativa comete errores constantemente y, como el software de detección aún no es preciso, los editores deberían tener la obligación de revelar el uso que hacen de la IA. Davest3r08 > : ) ( discusión ) 13:32 17 dic 2023 (UTC) [ responder ]
- La segunda opción de uso problemático de los LLM (generación de referencias falsas, violaciones de derechos de autor, spam, etc.) ya está prohibida por las políticas existentes de Wikipedia, lo que hace que esta propuesta sea, en el mejor de los casos, redundante. En el peor de los casos, como mencionó WhatamIdoing, nuestra incapacidad para identificar de manera confiable los aportes generados por LLM significa que la disposición para eliminar de manera radical el texto sospechoso corre el riesgo de causar un gran daño. – Tera tix ₵ 16:55, 17 de diciembre de 2023 (UTC) [ responder ]
- Opción 2. De todos modos, Wikipedia ha prohibido el temido mal uso de LLM. Con LLM o sin LLM, está prohibido agregar intencionalmente contenido no factual. Mi otra razón es que ¿qué se considera un "resultado de LLM" que exigía divulgación? Si escribo un párrafo y lo arrojo a OpenAI para que lo revisen ortográficamente, ¿eso es "resultado de LLM"? Si escribo un párrafo con la ayuda de Grammarly, ¿se considera "resultado de LLM"? Estoy abierto a que los editores vuelvan a verificar los resultados de LLM, pero ¿no deberían volver a verificarse todas las ediciones (LLM o no) de todos modos? Grammarly está corrigiendo muchos errores que cometí cuando escribí este, ¿debería revelar eso? ✠ SunDawn ✠ (contacto) 04:46, 18 de diciembre de 2023 (UTC) [ responder ]
- Opción 2: no estoy de acuerdo con "su uso (incluido el modelo) debe ser revelado". Cada editor ya es responsable de cada edición. Una solución en busca de un problema. No hay ningún ejemplo de un problema, o un problema potencial, que no esté cubierto por la política existente. Mientras sea una buena edición, no deberíamos estar husmeando en ella. Big wp:creep . Las malas ediciones ya están cubiertas. ¿Un temor de que los robots nos reemplacen? Chatbot v50 escribirá la mayor enciclopedia en una hora, ninguna política de espionaje lo detendrá. Un requisito de divulgación para cada corrector ortográfico, incluido el modelo que lo hizo, es incorrecto, Tom B ( discusión ) 11:22, 18 de diciembre de 2023 (UTC) [ responder ]
- Opción 1, política . He intentado con varios LLM generar algo tan simple como "una cronología de eventos significativos en la historia escocesa" y en cada caso los resultados necesitaron corrección en casi cada uno de los ítems generados, ya sea porque estaban completamente equivocados o porque tergiversaban algo. La "IA" puede llegar eventualmente al punto en que pueda producir material enciclopédico sin que todo lo que dice tenga que ser verificado detalladamente y reescrito, pero ese momento no ha llegado ni pronto. El problema de la "alucinación" también es bastante grave, no solo en lo que respecta a las afirmaciones de hechos, sino incluso en lo que respecta a las afirmaciones sobre fuentes: los LLM no solo inventan fuentes falsas que no existen, sino que citan falsamente fuentes que sí existen pero que no respaldan la afirmación. Esto probablemente sea completamente insuperable con la tecnología actual. PD: Conviértalo en una política para que nadie juegue a juegos de wikiabogacía del tipo "es solo una guía". — SMcCandlish ☏ ¢ 😼 21:13, 18 de diciembre de 2023 (UTC) [ responder ]
PPS: Un breve artículo reciente sobre algunos de estos problemas: "Como vimos en nuestras pruebas, los resultados... pueden parecer bastante impresionantes, pero ser total o parcialmente erróneos. En general, fue interesante pedir a las distintas IA que se cotejaran entre sí... pero los resultados solo fueron concluyentes en cuanto a lo poco concluyentes que fueron". — SMcCandlish ☏ ¢ 😼 02:34, 7 de enero de 2024 (UTC) [ responder ]
- Opción 1 (según jpxg) como guía (según Sdkb). Existen usos potenciales de los LLM y la demostración de User:JPxG/LLM es una lectura brillante, pero el punto es (bueno, solo citaré jpxg) que no debes
pegar ciegamente el resultado de LLM en la ventana de edición y presionar "guardar"
.La clave es la supervisión humana. Utilice lo que quiera para generar wikitexto, pero usted es responsable de que sea verificable y cumpla con las políticas. Lo mismo se aplica a los correctores ortográficos (que pueden "corregir" la jerga para convertirla en palabras mal escritas pero con una ortografía similar), a Buscar y reemplazar (como lo utiliza AWB), a los motores de búsqueda (no nos limitamos a pulsar "Me siento con suerte" y pegar lo que obtenemos como referencia sin leerlo) y a otras tecnologías de inteligencia artificial que son tan comunes que no pensaríamos en prohibirlas y que a menudo olvidamos que son tan inteligencia artificial como los LLM.Sin embargo, a diferencia de estas otras tecnologías, el riesgo de los LLM es tan grande y tan nuevo para nosotros que la divulgación obligatoria es apropiada, lo que nos ayuda a medir el impacto e identificar a las personas que están pegando ciegamente los resultados de LLM en la ventana de edición y presionando "guardar". — Bilorv ( discusión ) 22:25, 18 de diciembre de 2023 (UTC) [ responder ] - Opción 1. Preferiblemente, política, aceptaré directrices. Los LLM son inherentemente riesgosos debido a las alucinaciones, las referencias falsas y la generación de basura absoluta. Preferiría prohibirlos por completo, pero preferiría que logremos un consenso en torno a una medida defendible en lugar de, en el peor de los casos, un resultado sin consenso que lleve a una situación de caos. Stifle ( discusión ) 10:14 19 dic 2023 (UTC) [ responder ]
- Prohibir por completo los LLM . La generación automática de textos es demasiado peligrosa y poco fiable para una enciclopedia que se supone que está basada en hechos y verificación. Si permitimos los LLM, la opción 1 es una redacción razonable. Pero preferiría no permitirlos en absoluto. Modest Genius talk 13:38, 19 de diciembre de 2023 (UTC) [ responder ]
- prácticamente imposible, que es precisamente el punto. no podemos detectar completamente todo escrito por ai Karnataka ( discusión ) 18:44, 26 de diciembre de 2023 (UTC) [ responder ]
- No podemos "detectar por completo" la inserción de declaraciones que no estén respaldadas por las referencias citadas, la investigación original, la violación del punto de vista de la comunidad, la infracción de los derechos de autor, las títeres o una miríada de otras cuestiones. Sin embargo, nuestras políticas aún las prohíben. Siempre habrá malos actores que intenten salirse con la suya rompiendo las reglas; eso no debería impedirnos instruir a los usuarios sobre lo que deben y no deben hacer. Modest Genius talk 18:33, 3 de enero de 2024 (UTC) [ responder ]
- Prohibir a los LLM la creación de prosa o de "nuevos" contenidos; la opción 1 como política es mi segunda opción. No queremos investigación original, pero sí queremos prosa original y precisa basada en fuentes fiables. Los LLM (y otros sistemas de """IA""") pueden ser útiles para manipular texto y hacer otras cosas automatizadas para las que la gente ya utiliza scripts de usuario y programas sin conexión, así que no veo que esto se aplique a ediciones que no sean de prosa. (Al igual que convertir una lista de definiciones en una lista con viñetas con un formato diferente, no creo que importe si se utiliza un programa LLM o un script Python personalizado: el resultado debe comprobarse de forma similar. Pero no se permitiría utilizar el resultado de pedir a un LLM que proporcione una lista con viñetas de los 10 exoplanetas más grandes). De forma similar a cómo tenemos muchas reglas y se supone que debemos ser cautelosos con la copia y el pegado de las fuentes, creo que prohibir la generación de prosa por parte de los LLM sería una ganancia neta para el proyecto. Dado que la prohibición más amplia no se ofreció en la encuesta original, supongo que si hay un consenso para hacerlo, necesitaríamos otra RFC (o RFCBEFORE y luego RFC) para encontrar el lenguaje exacto para no prohibir incidentalmente usos que deberían permitirse, tal vez como usar contenido generado por LLM como base de muy alto nivel para escribir texto original, similar a lo que hacemos con nuestras fuentes existentes. Soy algo indiferente sobre la inclusión del bit después del punto y coma, ya que creo que si está prohibido de alguna manera, eliminarlo es algo así como un hecho. Skynxnex ( discusión ) 20:10, 19 de diciembre de 2023 (UTC) [ responder ]
- La opción 1 , ya sea una política o una directriz, está bien, pero la proliferación de textos de LLM en el espacio de los artículos es definitivamente algo que necesita ser abordado. No estoy convencido de que una prohibición total (1b) sea necesaria todavía, ya que otras políticas como WP:C , WP:V y WP:NPOV ya cubren el contenido independientemente de si es agregado por LLM o por editores humanos. Por otro lado, 1b podría tener la consecuencia no deseada de facilitar la represión de los editores con un bajo nivel de inglés, que pueden usar un servicio de traducción o un LLM en un intento de buena fe de mejorar un artículo. Creo que primero deberíamos implementar una política/directriz que requiera la divulgación del uso de LLM, y ver qué tan bien funciona, antes de avanzar hacia una prohibición total. Epicgenius ( discusión ) 21:08, 19 de diciembre de 2023 (UTC) [ responder ]
- ¿Existen estadísticas, ejemplos o información sobre la proliferación de textos de LLM en el espacio de los artículos? ¿Qué tan prolíficos son? Levivich ( discusión ) 15:48, 22 de diciembre de 2023 (UTC) [ responder ]
- Fue mi error, no quise decir que fuera prolífico. Me refería al hecho de que el texto de IA en el espacio de los artículos parece ser lo suficientemente problemático como para justificar la creación de la Categoría:Artículos que contiene textos generados por IA sospechosos y varias plantillas de mantenimiento. – Epicgenius ( discusión ) 19:48, 25 de diciembre de 2023 (UTC) [ responder ]
- ¡No te preocupes! No quise decir que estabas insinuando que era prolífico :-) Solo me preguntaba qué tan extendido está hasta ahora el cortar y pegar texto de LLM directamente en los artículos. ¡Gracias por indicarme las plantillas de categoría y mantenimiento! Levivich ( discusión ) 16:20 26 dic 2023 (UTC) [ responder ]
- Opción 2. Seleccionar la opción 1 me haría sentir como un empresario de carruajes sin caballos. En realidad, me preocupa mucho más que los editores citen fuentes aparentemente fiables que se generaron incorrectamente con LLM/AI y que esos equipos no divulgaron. Sin embargo, para los fines de Wikipedia, preferiría que consideráramos a LLM/AI como una herramienta para aprovechar y regular. Si en cambio decimos que "cualquier contenido que el editor agregue, sin importar qué herramienta de asistencia se haya utilizado en el proceso, si es que se utilizó alguna, debe verificarse manualmente para comprobar su precisión y citarse con fuentes fiables", estaríamos cubiertos. Y, por supuesto, cualquier cosa escrita que no cumpla con eso puede revertirse, como siempre. Por el momento, creo que la divulgación de herramientas debería ser voluntaria. Si el editor ha hecho su trabajo revisando sus adiciones (sin importar su origen) según las políticas/directrices existentes antes de guardar, debería estar bien. Para aquellos editores que no lo hacen, mi intuición es que su descuido se descubriría bastante rápido, y normalmente no necesitaríamos ninguna herramienta de verificación especial para verlo. ¡ Stefen Tower está entre los demás! Gab • Gruntwerk 18:05, 20 de diciembre de 2023 (UTC) [ responder ]
- Opción 1a , es decir, como política . Dado el estado de la tecnología, cualquier resultado de LLM debe ser revisado minuciosamente para WP:V (esto probablemente seguirá siendo así durante mucho tiempo, y el día que deje de ser cierto, Wikipedia estará completamente obsoleta), por lo que tiene sentido exigir a los editores que sean transparentes sobre su uso de LLM y lo revelen (esto se puede hacer de manera muy sencilla en el edsum ). Será útil para todos saber que este contenido en particular está mejorado por LLM y que alguien lo ha revisado. En un contexto en el que dicha política estaría en vigor y sería bien conocida por todos los editores, la edición no revelada de LLM puede ser altamente sospechosa, por lo que tiene sentido poder eliminar sistemáticamente dichas ediciones no reveladas. Cualquier editor puede asumir la carga de verificar el contenido en cuestión para WP:V y restablecerlo, por lo que con solo un poco de WP:AGF y espíritu colaborativo, no debería surgir ningún drama.Pero la carga de la comprobación (que puede ser una tarea enorme) recae sobre el editor que añade el contenido, por lo que también será útil poder eliminar sistemáticamente el contenido mejorado con LLM no comprobado o no revelado, sin tener que demostrar que el contenido no cumple con WP:V (igualmente, una tarea potencialmente enorme). Técnicamente, WP:BURDEN ya cubre esto, pero en la práctica WP:BURDEN suele satisfacerse proporcionando una cita en línea. En el caso de contenido LLM no comprobado, no se necesita
tiempo para proporcionar referencias
antes de la eliminación, y una cita en línea de una fuente fiable
no es un criterio suficiente para la reinstalación. El problema con los LLM es precisamente que pueden crear contenido extremadamente convincente y bien referenciado que, sin embargo, es completamente inexacto, por lo que WP:BURDEN debería contener una advertencia adicional de nunca dejar en LLM contenido en el que sea cuestionable si se ha comprobado lo suficiente su precisión, tal como ya lo hace para el contenido relacionado con WP:BLP sin fuentes o con fuentes deficientes .Debido a que este tipo de advertencia es necesaria en WP:BURDEN (una política), el principio en el que se basa también debería estar en el nivel de la política. Como otros han mencionado, los LLM presentan un peligro fundamental para Wikipedia, por lo que las reglas más básicas para mantenerla bajo control también deberían estar operativas en ese nivel más fundamental, que es la política central (de contenido). Esto no niega la posibilidad de tener también una guía sobre cómo usar los LLM en Wikipedia, pero las cosas más básicas ('verifíquelo', 'divulguelo') probablemente deberían ser la política. ☿ Apaugasma ( discusión ☉ ) 18:57, 20 de diciembre de 2023 (UTC) [ responder ] - No, no como está escrito. Los editores ya están obligados a comprobar lo que escriben y a garantizar que las referencias sean precisas. Por lo tanto, el único efecto práctico del cambio propuesto es exigir la divulgación del contenido generado por LLM. Si se aprueba, en seis meses tendremos diez mil artículos etiquetados como "posiblemente contenido generado por LLM" y un proyecto atendido por tres voluntarios y medio que trabajarán lentamente para resolver el atraso. — S Marshall T / C 12:01, 21 de diciembre de 2023 (UTC) [ responder ]
- Opción 2. Es prácticamente imposible de aplicar. Si TurnItIn.com no puede verificar de manera confiable si los estudiantes utilizaron títulos de LLM, con la base de datos de trabajos de estudiantes más grande que conozco, ¿alguien puede hacerlo? Estaría abierto a una directriz que desaliente el copiar y pegar, pero no a una política. Además, tengo sentimientos muy fuertes sobre la eliminación de resúmenes con respecto a BLP y cómo a menudo se aplica de manera demasiado estricta: una habilitación de eliminación de resúmenes aquí haría que manipular el sistema fuera extremadamente fácil. Invading Invader ( página de usuario , discusión ) 23:38, 21 de diciembre de 2023 (UTC) [ responder ]
- Estoy de acuerdo con esto. No hay formas fiables de detectar el contenido generado por IA. Pero, aun así, el punto es que el contenido generado por IA rara vez, si es que alguna vez, puede generar artículos de Wikipedia coherentes que cumplan con todos nuestros estándares. Por eso publiqué la opción 1b: los LLM no deberían usarse en absoluto en las páginas de contenido. No necesitamos centrarnos en los mecanismos de detección, ya que podemos identificar contenido de fuentes deficientes y los LLM tienen una "sensación" muy específica que se puede distinguir si proviene de IA o si es un texto mal escrito. Awesome Aasim 17:45, 23 de diciembre de 2023 (UTC) [ responder ]
El contenido generado por IA rara vez puede generar artículos de Wikipedia coherentes que cumplan con todos nuestros estándares.{{Citation needed}}
- Deberías leer este artículo, es muy esclarecedor. Cuando Sci-Hub puso a disposición del público muchos artículos, comencé a hacer clic en más referencias en Wikipedia. Mi objetivo era aprender más y profundizar en los temas, pero me sorprendió la frecuencia con la que la cita vinculada no respaldaba la afirmación del artículo de Wikipedia. Hubo muchas ocasiones en las que la cita vinculada decía lo contrario del artículo de Wikipedia.
- Mi teoría era que los autores de Wikipedia, demasiado competitivos, hojeaban los resúmenes de PubMed y suponían que el artículo respaldaría su afirmación. Irónicamente, algunas de las afirmaciones con cinco o más citas eran las más incorrectas.
- Intentar corregir estos artículos es a veces como entrar en guerra con editores que se niegan a admitir que se equivocaron.
- skarz ( discusión ) 17:48 24 dic 2023 (UTC) [ responder ]
- Originalmente, me inclinaba por la opción 2 por las mismas razones que S Marshall e InvadingInvader (aunque no comparto las opiniones de este último sobre BLP): ya se debe verificar la precisión, el cumplimiento de las políticas, etc. de todo el contenido antes de presionar el botón "guardar ediciones", por lo que el objetivo principal de esta propuesta es el requisito de divulgación, que no se puede hacer cumplir porque no hay una forma confiable de detectar si el contenido es generado por IA. Pero después de pensarlo un poco más, me di cuenta de que esta propuesta esencialmente nos haría tratar el contenido sospechoso de ser generado por IA de la misma manera que tratamos el contenido sospechoso de ser generado por WP:COI , es decir, no prohibirlo por completo, sino "fuertemente desaconsejado" con un requisito de divulgación, especialmente si te pagan por editar. Tal vez eso no sea tan malo, pero todavía no estoy completamente convencido de que sea necesario. Si un editor está causando problemas porque el contenido que está agregando es inexacto o tiene referencias falsas, y sospechamos que está usando títulos de maestría sin informarlo, ya podemos sancionarlo directamente por agregar contenido inexacto con referencias falsas; no hay necesidad de que esta política de divulgación lo haga. Mz7 ( discusión ) 10:53 24 dic 2023 (UTC) [ responder ]
- Opción 2 El enfoque no debe estar en "quién" escribió el contenido, sino más bien en su verificabilidad y adherencia a las políticas de estilo y contenido de Wikipedia. En mi propia investigación, con frecuencia me he encontrado con libros que dependen en gran medida del contenido de Wikipedia. Obviamente, tengo que dejarlos de lado para evitar un "ciclo de retroalimentación" al usar Wikipedia para citar a Wikipedia. Sin embargo, esta constatación subraya un punto crítico: la fuente de información, ya sea un ser humano o un LLM, es secundaria a la calidad y confiabilidad de la información en sí. Wikipedia siempre ha defendido el principio de verificabilidad. El contenido, independientemente de su origen, debe ser verificado y citado correctamente. Esta norma se aplica por igual a los colaboradores humanos y a los LLM. La introducción de contenido generado por LLM no disminuye esta expectativa; más bien, refuerza la necesidad de una supervisión meticulosa y una adherencia rigurosa a las pautas. Esto no es diferente a si alguien en tu lugar escribiera 10 líneas de código básico: puedes escribirlo tú mismo desde cero, copiarlo de Stack Overflow o pedirle a ChatGPT que lo escriba por ti. Si el resultado es el mismo y el código cumple la tarea, ¿dónde está la discrepancia? Implementar pautas bien estructuradas para las contribuciones de LLM solo sirve para fortalecer Wikipedia. Estas pautas no deben diseñarse como políticas rígidas y dicotómicas, sino como marcos flexibles que aseguren la calidad y confiabilidad del contenido. skarz ( discusión ) 17:38, 24 de diciembre de 2023 (UTC) [ responder ]
- @ Skarz : Según la formulación de Buidhe, la opción 1b es
prohibir todo el contenido generado por LLM en la wiki
. Solo quería confirmar si eso es lo que querías decir, ya que la explicación de tu elección suena diferente. Phlsph7 ( discusión ) 18:06 24 dic 2023 (UTC) [ responder ]- ¿Publiqué mi respuesta en el lugar equivocado? skarz ( discusión ) 18:24 24 dic 2023 (UTC) [ responder ]
- No, el lugar es correcto. Solo tuve la impresión de que, por lo que explicaste, no te oponías en general a los LLM. Pero es posible que haya malinterpretado tu explicación, así que disculpa la confusión. Phlsph7 ( discusión ) 18:59 24 dic 2023 (UTC) [ responder ]
- No me opongo a los LLM. Pensé que esta RFC se refería a si el texto que no es generado por LLM debería atribuirse o citarse como tal, no a si el contenido generado por LLM estaba prohibido. skarz ( discusión ) 19:03 24 dic 2023 (UTC) [ responder ]
- Estoy de acuerdo, se ha vuelto un poco confuso desde que algunos editores han sugerido opciones adicionales en sus votaciones. Actualmente, las más populares son
- Opción 1: nueva directriz/política que establece que todos los resultados del LLM deben divulgarse
- Opción 1b: nueva directriz/política que prohíbe todo contenido generado por LLM
- Opción 2: no hay nuevas directrices/políticas.
- Phlsph7 ( discusión ) 19:08 24 dic 2023 (UTC) [ responder ]
- ¿Eh? Espero que no, porque eso no es lo que dice la Opción 1. Supongo que no hay ninguna regla que prohíba hacer comentarios en la RfC como "
Apoyo la opción N,
creo que la opción N es mala y deberíamos hacer algo diferente
". Pero creo que si queremos tener un referéndum sobre un tema diferente, deberíamos tener una RfC separada para ello. jp × g 🗯️ 06:26, 26 de diciembre de 2023 (UTC) [ responder ]
- Notaré que el borrador anterior ( WP:LLM ) tuvo un fracaso ignominioso después de que la gente le añadiera una letanía de disposiciones adicionales que generaban molestias, lo que resultó en un enorme referéndum desastroso sobre todo lo que existe en el mundo y sobre el cual era imposible desarrollar un consenso (y, de hecho, no se desarrolló ninguno, lo que significa que pasamos meses sin ninguna orientación). jp × g 🗯️ 06:31, 26 de diciembre de 2023 (UTC) [ responder ]
- Opción 1(a), como política : los editores deben revelar tanto el uso que hacen de su LLM como el modelo específico utilizado, así como garantizar que han verificado manualmente todo el resultado, lo que los hace responsables de la precisión, el estilo, la idoneidad y los problemas de plagio, como es habitual. Dado que la claridad es el aspecto más importante aquí, en caso de no cumplir con la opción 1(a), mi segunda opción sería la opción 1(b), que prohíbe por completo el uso de LLM, porque si no adoptamos la divulgación, no creo que los LLM deban usarse de manera transparente en el lugar. Remsense留21:10, 24 de diciembre de 2023 (UTC) [ responder ]
- Opción 1 de la política ... prohibir el contenido de LLM. Es similar a plagiar el Daily Mail . ¿Han notado alguna vez que los administradores actúan en beneficio de las GRANDES corporaciones o de los Estados-nación? 3MRB1 ( discusión ) 04:53 23 dic 2023 (UTC) [ responder ]
- No, en realidad no. En mi opinión, tu tercera oración es un poco inconexa . – Novem Linguae ( discusión ) 05:52 23 dic 2023 (UTC) [ responder ]
- Opción 1: si vamos a permitirles hacerlo, entonces deberíamos incluir esta oración. Emir de Wikipedia ( discusión ) 15:15, 24 de diciembre de 2023 (UTC) [ responder ]
- Opción 1 (como política) dadas las enormes cuestiones de verificabilidad que genera la producción de LLM, incluidas las citas a menudo completamente inventadas que dan una ilusión de verificabilidad. Estoy abierto a restringir la política a la prosa nueva escrita por LLM (en lugar de su uso como ayuda para, por ejemplo, la traducción), ya que estos son los casos más atroces y deberían prohibirse.Enby( t · c ) 07:05, 25 de diciembre de 2023 (UTC) [ responder ]
- El problema con la política propuesta es que no hay límite para la restricción de LLM. Todos podemos estar de acuerdo en que se prohíba el LLM en la prosa nueva, pero ¿qué pasa con el uso de LLM para parafrasear? ¿O para corregir errores gramaticales? ¿Para traducir? ¿Para agregar los puntos y comas adecuados? ✠ SunDawn ✠ (contacto) 15:54, 25 de diciembre de 2023 (UTC) [ responder ]
- Opción 2. No tiene sentido prohibir todos los LLM ni exigir la divulgación, ya que todas las ediciones se hacen pasar por una edición de IA o por una edición humana real. En el primer caso, nada impide que otro editor revierta dicha edición, y en el segundo caso, la gente simplemente no las divulgará si están actuando de mala fe. ¿Qué sentido tiene entonces una política/directriz que solo perjudica a los editores de buena fe, cuyas ediciones serán sometidas a un escrutinio injustificado simplemente porque estaban usando un LLM o, peor aún, no pueden usar un LLM en absoluto porque la gente ha decidido que no puede hacer ningún bien? 0x Deadbeef →∞ ( háblame ) 09:18, 25 de diciembre de 2023 (UTC) [ responder ]
- No creo que esto sea cierto. Las ediciones de LLM en sí mismas podrían tener fácilmente un lugar apropiado y esperado en la wiki. Por supuesto, la gente simplemente ignorará la política; la razón por la que sería una política que valdría la pena sería su aplicabilidad cuando surjan problemas crónicos además de los problemas de contenido específicos que crea el uso inadecuado de LLM; no es malo tener una política "redundante" per se. Si los usuarios lo revelan, no debería usarse para revertir ciegamente las ediciones de LLM, eso no sería aceptable. Más bien, podría usarse para ayudar a los editores que puedan estar cometiendo errores incidentales con su uso, o tal vez incluso para marcar las ediciones de LLM para que con el tiempo acumulemos más fácilmente más datos sobre para qué sirve LLM en Wikipedia. imo Remsense留19:57, 25 de diciembre de 2023 (UTC) [ responder ]
- Sin incorporarlo en los campos de resumen de edición (similar a la casilla de verificación de edición menor), una directriz/política que requiera divulgación sería inútil ya que los nuevos usuarios (los que necesitan más ayuda para comprender LLM y su idoneidad para el contenido de Wikipedia) no lo saben. 0x Deadbeef →∞ ( háblame ) 03:26, 26 de diciembre de 2023 (UTC) [ responder ]
- Tal vez valga la pena escribirlo en el texto que aparece en la página de edición. No es que muchos editores nuevos siempre lo vean, pero está ahí. Remsense留18:31, 27 de diciembre de 2023 (UTC) [ responder ]
Las ediciones de LLM en sí mismas podrían tener fácilmente un lugar apropiado y esperado en la wiki
. En caso de que me estuvieras respondiendo sobre la percepción de la edición como una edición de IA o como una edición humana, ya que me doy cuenta de que no está del todo claro: el punto es que una edición es descaradamente de IA (mala gramática, párrafos largos con un tono específico sin referencias, etc.), lo que ya es problemático. Si una edición de LLM ya es convincentemente humana, entonces ¿cuál es el sentido de una directriz/política de este tipo? 0x Deadbeef →∞ ( háblame ) 13:27, 30 de diciembre de 2023 (UTC) [ responder ]
- Opción 2 : los humanos son tan capaces de crear contenido inadecuado como las máquinas, pero no tan rápido. No creo que sirva de nada decir "Una computadora me ayudó a escribir esto que no debería estar en Wikipedia" si se va a eliminar basándose únicamente en su contenido. Especialmente si es indetectable de cualquier manera y cualquiera que lo desee puede no etiquetar sus ediciones. La carga recae siempre sobre el editor para verificar lo que está publicando, sin importar de dónde provenga. HerrWaus ( discusión ) 03:42 26 dic 2023 (UTC) [ responder ]
- Me di cuenta de que estaría de acuerdo con la inclusión de la oración sin la parte sobre la divulgación. La cambiaría por "La salida de un modelo de lenguaje grande, si se usa en Wikipedia, debe verificarse manualmente para comprobar su precisión (incluidas las referencias que genera); el texto agregado en violación de esta política puede eliminarse sumariamente". Esto se hace con el entendimiento de que cualquier cosa que se verifique para comprobar su precisión y se encuentre que tiene deficiencias se eliminará sumariamente de todos modos. HerrWaus ( discusión ) 03:50 26 dic 2023 (UTC) [ responder ]
- Opción 2 : ¿Por qué el contenido de LLM debe ser revisado manualmente por un humano para agregarlo, pero no para eliminarlo? ¿Por qué se debe informar el uso de LLM para traducir, pero no el uso de Google Translate? Es mucho más fácil leer una oración en tu idioma no nativo y verificar si es correcta que producir una oración en primer lugar. Los LLM pueden ayudar a los hablantes no nativos a producir una mejor prosa y desalentar su uso puede disminuir la calidad de su prosa o incluso disuadirlos de editar. Se deben fomentar las tecnologías que ayudan a los hablantes no nativos a contribuir para ayudar a contrarrestar el sesgo de tener una redacción compuesta principalmente por hablantes nativos. Fotos de Japón ( discusión ) 14:39, 26 de diciembre de 2023 (UTC) [ responder ]
- Opción 2. Considero que tanto los requisitos de revisión como de notificación de esta propuesta son completamente razonables, pero es casi seguro que el comentario adicional al final sobre que dicho contenido es eliminable de por sí invitará a una gran cantidad de casos de editores (especialmente entre los usuarios menos experimentados) a participar en análisis autopropulsados de lo que puede o no ser contenido derivado de máquinas, en lugar de invocar esta regla solo cuando haya una admisión/declaración de que se están utilizando dichas herramientas. Esto abriría con casi absoluta certeza un nuevo frente masivo para ABF, guerras de ediciones y disrupción general, por lo que la propuesta es insostenible con el lenguaje actual, en mi opinión. S n o w Rise let's rap 17:59, 26 de diciembre de 2023 (UTC) [ responder ]
- Imaginemos a un traductor profesional que utiliza un LLM (como muchos de ellos hacen) para generar borradores y pasa unos meses en Wikipedia traduciendo artículos de otro idioma al inglés, sin saber siquiera que existe una política de LLM. Un día, casualmente, recomienda un LLM a otro usuario, afirmando que es lo que usa para generar borradores para mejorar su flujo de trabajo. Otro usuario señala que nunca revela en sus ediciones que usa un LLM y las revierte en masa. El traductor no se molesta en defenderse, sino que simplemente abandona Wikipedia en silencio, frustrado porque se borraron meses de traducciones. No es difícil imaginar escenarios en los que esta política cause problemas importantes. Fotos de Japón ( discusión ) 03:21, 27 de diciembre de 2023 (UTC) [ responder ]
- Tuve la mala suerte de tener que editar un artículo de Wikipedia traducido por máquina antes. No me dijeron que se había traducido por máquina hasta más tarde. Fue un verdadero fastidio. Sonaba fluido, pero cada oración necesitaba ser corregida y, a veces, el significado original no era fácil de adivinar. No estoy seguro de que el uso de IA sea un buen flujo de trabajo para los traductores. – Novem Linguae ( discusión ) 08:34, 27 de diciembre de 2023 (UTC) [ responder ]
- En un informe anterior sobre el estado de la industria para traductores autónomos, se decía que las memorias de traducción y las herramientas de traducción asistida por ordenador debían tomarse como algo "dado por hecho". Un alto porcentaje de traductores utiliza al menos una herramienta de traducción asistida por ordenador, y los informes sobre el aumento de la productividad y la eficiencia que puede acompañar a su uso son lo suficientemente sólidos como para indicar que, a menos que el tipo de trabajo de traducción que usted realiza por su propia naturaleza excluya el uso de una herramienta de traducción asistida por ordenador, debería utilizar una.
- Más de tres mil traductores profesionales a tiempo completo de todo el mundo respondieron a las encuestas, que se dividieron en una encuesta para usuarios de herramientas CAT y otra para aquellos que no utilizan ninguna herramienta CAT.
- El 88% de los encuestados utiliza al menos una herramienta CAT para al menos algunas de sus tareas de traducción.
- Del total de personas que utilizan herramientas CAT, el 83 % utiliza una herramienta CAT para la mayor parte o la totalidad de su trabajo de traducción.
- La traducción asistida por ordenador, al parecer, es ampliamente utilizada por traductores profesionales para mejorar su eficiencia. Fotos de Japón ( discusión ) 09:07 27 dic 2023 (UTC) [ responder ]
- Por profesionales que comprenden los límites de la tecnología y son conscientes de que se enfrentan a un escrutinio adicional si su herramienta comete un error canónico. Esto suele ser distinto de lo que ocurre con la traducción automática en wiki.
Estás respondiendo a alguien que habla de un caso de una clase muy amplia de mal uso de la herramienta, no ayuda señalar el hecho de que la herramienta puede ser utilizada correctamente por personas con formación. Remsense留18:30, 27 de diciembre de 2023 (UTC) [ responder ]- Estoy respondiendo a alguien que dice que no cree que el uso de IA sea bueno para mejorar el flujo de trabajo de los traductores. Se trata de una percepción errónea, y es útil aclarar las percepciones erróneas antes de que se escriban políticas basadas en ellas. No se observan los traductores que utilizan IA y no tienen ningún problema. Solo se observan los que sí la utilizan y tienen muchos problemas. No se puede determinar la utilidad de la traducción asistida por IA basándose en estas experiencias unilaterales. Muchos usuarios aquí han expresado su deseo de desalentar el uso de LLM para la traducción. El hecho de que yo señale que las personas que se dedican a la traducción para ganarse la vida utilizan ampliamente la IA para ayudarlas es una información obviamente relevante que hay que presentar. Fotos de Japón ( discusión ) 18:53, 27 de diciembre de 2023 (UTC) [ responder ]
- No han dicho eso en ninguno de sus mensajes en esta RFC, hasta donde yo sé. Nadie está diciendo que no se deba usar la traducción automática en wiki.
Su propuesta inicial parece confundir extrañamente el uso de LLM para generar borradores y el uso de la traducción automática para traducir texto. ¿Podría ser un poco más claro sobre sus preocupaciones específicas sobre LLM? (editar conflicto) Remsense留19:16, 27 de diciembre de 2023 (UTC) [ responder ]- "Alguien que dice que no cree que usar IA sea bueno para mejorar el flujo de trabajo de los traductores" es una paráfrasis de "No estoy seguro de que usar IA sea un gran flujo de trabajo para los traductores".
- "borrador" cuando se habla en el contexto de una traducción, se refiere a un borrador de la traducción. Lamento que no haya sido lo suficientemente claro para ti. Además, ni siquiera he escrito "traducción automática" en ninguno de mis comentarios, extrañamente estás confundiendo mis comentarios con los de otros usuarios que me han respondido hablando de traducción automática. Fotos de Japón ( discusión ) 19:25 27 dic 2023 (UTC) [ responder ]
- Para aclarar mi posición sobre las traducciones automáticas, creo que son útiles para leer fuentes en idiomas extranjeros y captar su esencia, pero nunca deberían utilizarse para traducir artículos completos ni para ayudar a traducir artículos completos que terminan en Wikipedia en inglés. La traducción debe ser realizada desde cero por un hablante bilingüe competente. – Novem Linguae ( discusión ) 23:40, 27 de diciembre de 2023 (UTC) [ responder ]
- Opción 1b : la política debería estar explícitamente en contra del uso de LLM. Muchos de los puntos anteriores son buenos, incluida la nota de que las cuestiones relacionadas con la aplicabilidad son igualmente aplicables a muchas de nuestras políticas existentes y no deberían ser una barrera para la implementación de una decisión política. Exigir a otros editores que revisen la basura extensa producida por los LLM es una opción mucho peor que afirmar desde el principio que no se deben utilizar los LLM. Hay una gran similitud aquí con WP:MACHINETRANSLATION y, a pesar de que la permisividad allí está fuertemente restringida, a menudo siguen existiendo problemas con las traducciones automáticas con los que otros editores terminan teniendo que lidiar. CMD ( discusión ) 05:47, 27 de diciembre de 2023 (UTC) [ responder ]
- Opción 1b como política . Y hacer todo lo posible para desalentar su uso. Los LLM están capacitados para producir lo que parece un texto bien escrito y bien informado, y lo hacen lo suficientemente bien como para desinformar a los lectores y engañar a los escritores que los usan como herramienta. Pero no entienden el lenguaje. No lo usan para transmitir información o comprensión. A continuación se presenta un ejemplo.
- Pregunta planteada a Bard :
¿Cuántas patas tienen diez elefantes, si dos de ellos no tienen patas?
- Respuesta de Bard:
Ocho patas por elefante es el estándar, por lo que diez elefantes tendrían 8 patas/elefante * 10 elefantes = 80 patas.
Sin embargo, si dos de los elefantes no tienen patas, entonces debemos restar el número de patas del total. Como los elefantes sin patas tienen 0 patas, el número total de patas se convierte en 80 patas: 0 patas de 2 elefantes sin patas = 80 patas.
Por lo tanto, diez elefantes, dos de ellos sin patas, tendrían 80 patas.
- Maproom ( discusión ) 18:40 27 dic 2023 (UTC) [ responder ]
- Dudo que esto represente de alguna manera el tipo de indicaciones que un editor razonable utilizaría al contribuir a la enciclopedia. Un mejor ejemplo de una de ellas podría ser algo como esto. Sohom ( discusión ) 19:14 27 dic 2023 (UTC) [ responder ]
- Lo intenté nuevamente usando el mismo mensaje:
- Respuesta de Bard:
- Los elefantes de ocho patas son un concepto divertido, pero en realidad un elefante tiene cuatro patas. Por lo tanto, incluso si a dos elefantes les faltaran todas las patas (lo que no es posible en un elefante), los ocho elefantes restantes tendrían un total de 32 patas.
- Respuesta del chat GPT:
- Los elefantes suelen tener cuatro patas cada uno. Si dos de los diez elefantes no tienen patas, los ocho elefantes restantes tendrían un total de 32 patas (8 elefantes x 4 patas/elefante). Los dos elefantes sin patas no aportarían ninguna pata al recuento total.
- Parece que Bard sigue soñando despierto, ya que nadie le dice que el elefante tiene 8 patas, pero ChatGPT proporcionó una respuesta precisa. ✠ SunDawn ✠ (contacto) 02:22, 28 de diciembre de 2023 (UTC) [ responder ]
- Opción de política 1b . Todos los artículos deberían estar escritos por personas. Se debería desalentar la publicación de LLM y cualquier contenido de LLM debería ser tratado como no referenciado o inadecuado según la política. O algo similar, en la línea de la opción 1b. Andre 🚐 06:00, 28 de diciembre de 2023 (UTC) [ responder ]
- Opción 1 – política, no directriz con los siguientes cambios:
El uso deyoyomodelo de lenguaje arge(Maestría en Derecho)producciónNo se recomienda su uso en Wikipedia., iIFLa salida del LLM esutilizado en Wikipedia,élDebe comprobarse manualmente su precisión (incluidas las referencias que genera)y violaciones de derechos de autor ( por ejemplo , plagio), y su uso (incluido el modelo) debe ser revelado por el editor; el texto agregado en violación de esta política puede ser eliminado sumariamente.
Creo que deberíamos desalentar el uso de LLM por sus muchos problemas, en particular las alucinaciones, pero prohibirlo es utópico ya que no tenemos una buena manera de detectarlo de manera confiable (y dudo que lo hagamos). He agregado la parte sobre la violación de derechos de autor para abordar una de las principales preocupaciones con los LLM, que es el plagio. La opción 1 solo funciona como una política porque, como está redactada, es obligatoria y no hay excepciones señaladas en el borrador. voorts ( discusión / contribuciones ) 01:53, 30 de diciembre de 2023 (UTC) [ responder ] - Opción 1a Los LLM son potencialmente máquinas ambulantes de violación de derechos de autor. Al menos deberíamos hacer un seguimiento del material que probablemente esté contaminado en caso de que se establezca un precedente legal que determine que su uso constituye una violación de derechos de autor en su conjunto. Me gusta la redacción de Voorts al respecto. Acebulf ( discusión | contribuciones ) 02:20, 30 de diciembre de 2023 (UTC) [ responder ]
- @ Acebulf y Voorts : La infracción de derechos de autor ya está prohibida por las políticas existentes, que (con razón) no distinguen entre LLM y las violaciones de derechos de autor generadas por humanos, por lo que si ve algo que sabe o sospecha que es una violación de derechos de autor, puede (y debe) abordarse según los procesos existentes. De manera similar, todos los demás problemas que los LLM pueden (pero tenga en cuenta que no siempre) producir pueden y deben abordarse mediante los procesos existentes. Esta propuesta no serviría para rastrear el contenido generado por LLM porque no hay una forma confiable de determinar qué es y qué no es generado por LLM e incluso si fuera obligatorio revelar el uso de LLM, la mayoría de las personas que lo usarían no estarían al tanto de la necesidad de revelar o no lo revelarán intencionalmente (y consulte también la sección de discusión donde se explica cómo cada edición de teléfono móvil puede necesitar divulgación). Además, no se requiere un método específico para la divulgación, por lo que deberá buscar en el texto de todos los resúmenes de edición, mensajes de la página de discusión (de los usuarios) y comentarios ocultos en el texto cualquier cosa que mencione "LLM", "modelo de lenguaje grande", cualquier sinónimo y los nombres (incluidas las abreviaturas y los apodos) de cada LLM. Además, también deberá buscar errores ortográficos, errores tipográficos y versiones en idiomas extranjeros de todos los nombres. Finalmente, incluso si lograra generar una lista y se ocupara de todos los falsos positivos y falsos negativos, aún no hay garantía de que parte o todo el contenido de LLM permanezca en el artículo debido al proceso de edición normal. Thryduulf ( discusión ) 11:55, 31 de diciembre de 2023 (UTC) [ responder ]
- Opción 1b Escribir un artículo utilizando IA es empezar por el lado equivocado. Los artículos deben escribirse a partir de fuentes individuales, específicas y fiables, no de un promedio de IA. Tenemos que recalcar esto a los nuevos editores como un valor fundamental de cómo la gente edita Wikipedia, de lo contrario corremos el riesgo de que los artículos se llenen de errores.
He probado la IA en temas de los que sé mucho. Las plataformas de IA no tienen suficiente conocimiento de temas poco conocidos como para escribir artículos fiables en este momento. Mezclan temas que son similares pero no iguales y producen un texto que suena muy plausible pero que es totalmente erróneo. Mis pruebas sobre temas más poco conocidos tienden a arrojar un resultado de entre el 30 y el 40 % de las afirmaciones que contienen algún tipo de error.
Si tienes el conocimiento para escribir un buen artículo, puedes hacerlo sin una IA. Si no lo tienes, no podrás detectar dónde se está equivocando la IA. Si hay suficiente material de formación para que una IA escriba un buen artículo, probablemente se trate de un tema sobre el que ya tenemos un artículo. De cualquier manera, debería ser el autor quien crea el artículo, para que piense bien lo que está poniendo en Wikipedia y no copiando y pegando. Blythwood ( discusión ) 06:57 31 dic 2023 (UTC) [ responder ] - Opción 1 – Política. Los LLM no son lo suficientemente confiables todavía. -- AB ( discusión • contribuciones • recuento global ) 22:47 31 dic 2023 (UTC) [ responder ]
- Opción 1 como política, y esto debería considerarse como un apoyo a las versiones menos incluidas de la opción 1 si solo una de ellas logra el consenso. Reconozco la dificultad en la detección y la aplicabilidad, pero creo que se necesita una regla relativamente clara para tratar los casos problemáticos. Xymmax Así que quede escrito Así que quede hecho 22:26, 6 de enero de 2024 (UTC) [ responder ]
- Opción 1 o directriz 1a, me opongo firmemente a la 1b. Actualmente, la IA parece incompetente para escribir artículos enciclopédicos y sus aportes deben revisarse cuidadosamente. Sin embargo, no debemos excluir la minoría de contenido generado por IA que es competente y ayuda a construir una enciclopedia. Además, la IA está en constante evolución y no debemos cerrar la puerta a la tecnología emergente. Personalmente, no me importa si la condena explícitamente o si es una política. Reina de corazones 01:11, 8 de enero de 2024 (UTC) [ responder ]
- (¿Quisiste decir 1a, fuerte oposición a 1b?) Remsense留01:42, 8 de enero de 2024 (UTC) [ responder ]
- Derp. Reina de corazones 23:36 15 enero 2024 (UTC) [ responder ]
- Opción 2 Si desde el principio se hubiera adoptado una actitud tan ludita, entonces la tecnología Wiki también podría haber sido prohibida y, por lo tanto, nos quedaríamos con Nupedia , que fracasó. Hace poco me encontré con un nuevo artículo que comienza a explicar cómo Google está experimentando con los LLM para controlar robots domésticos y creando protocolos de seguridad para restringirlos y controlarlos. Como los algoritmos LLM están integrados en una tecnología de propósito general, los encontraremos de una manera variada y en evolución, por lo que debemos mantener una mente abierta sobre las posibilidades y el potencial. Andrew 🐉( discusión ) 18:31, 8 de enero de 2024 (UTC) [ responder ]
- Estoy de acuerdo en que debemos mantener una mente abierta, pero la tecnología en su estado actual no logra resultados adecuados. Si eso cambia, la política también puede cambiar. Remsense留20:40, 8 enero 2024 (UTC) [ responder ]
- Deberíamos culpar a los resultados, no a la tecnología. Los LLM son bastante hábiles para corregir errores gramaticales, ¿debería su incapacidad para crear un buen artículo impedir que se los use como herramienta de corrección gramatical? ✠ SunDawn ✠ (contacto) 02:12, 9 de enero de 2024 (UTC) [ responder ]
- No lo creo, de ahí mi preferencia por la 1(a). Remsense留02:13, 9 enero 2024 (UTC) [ responder ]
- El RfC no tiene una opción 1(a). Vemos a partir de esta deriva caótica que la aportación humana es imperfecta. Cada página de Wikipedia tiene una exención de responsabilidad que dice que no se debe confiar en los resultados de nuestro trabajo. Por lo tanto, lo que se presenta aquí es una falsa dicotomía. No se trata de un trabajo humano perfecto frente a un resultado imperfecto de una máquina. Es todo muy parecido. Andrew 🐉( discusión ) 09:46, 9 de enero de 2024 (UTC) [ responder ]
- En casi toda la extensión de la RfC se ha hecho la distinción. No se trata de una "deriva caótica", sino de una deriva muy normal que se produjo por razones humanas descriptibles, muy diferente del resultado de un LLM, que te mentirá a la cara si le preguntas por qué te dio el resultado que dio. Esa es la distinción clave aquí: puedes trabajar con humanos, no puedes trabajar con LLM. Es un tanto increíble en el sentido literal insistir en que la dicotomía entre el resultado humano y el de un LLM es falsa. Remsense留09:51, 9 enero 2024 (UTC) [ responder ]
- Alguien más dice más abajo que "No parece haber una "Opción 1a" en ninguna parte". El hecho de que ni siquiera podamos ponernos de acuerdo sobre cuáles son las opciones demuestra cómo es "trabajar con humanos". Especialmente en Wikipedia, donde se nos anima oficialmente a " Ignorar todas las reglas ". Andrew 🐉( discusión ) 10:03 16 ene 2024 (UTC) [ responder ]
- Puedo estar de acuerdo con el 75 % o más de las personas que participaron en esta RFC sobre lo que son 1(a) y 1(b), mientras que puedo estar de acuerdo con el 0 % de los LLM sobre ese punto, incluso si está contenido en sus datos de capacitación. — Remsense诉10:11, 16 de enero de 2024 (UTC)[ responder ]
- Opción 1 Exigir la divulgación es una gran idea, incluso si se piensa desde la perspectiva de los derechos de autor y de garantizar que el texto de Wikipedia sea confiablemente libre. Leijurv ( discusión ) 08:47 11 ene 2024 (UTC) [ responder ]
- Opción 1 como guía para un período fijo antes de la revisión, eliminando el texto sobre la eliminación del resumen. Me gustaron los comentarios de Freedom4U y muchos otros, pero me hago eco de Levivich y su hilo con Epicgenius que señala que podemos obtener al menos algún tipo de datos sobre el uso de LLM y otras herramientas de generación de texto (como MT) ahora, y también podemos ver qué sucede con ellas siguiendo una guía de autoinforme. Probablemente todo será inutilizable y desordenado ya que las cosas están evolucionando tan rápido, pero al menos podemos comenzar a intentar evaluar quién está usando estas herramientas (o más bien el cambio y los tipos de uso). También continuamos con el estándar de que cites tus fuentes para el material que publicas de la manera más completa posible. (Creo que este es un bien social neto que es importante continuar a medida que una nueva herramienta como la IA ve un uso ubicuo rápidamente; no puedo encontrar investigaciones específicas sobre esto (parece una fruta madura), pero me parece que WP ha aumentado las expectativas generales de la población sobre la verificabilidad de la información como mínimo). También quiero enfatizar que, en mi opinión, las herramientas de IA deberían ser adoptadas aquí, ya que en gran medida ya han estado donde no pensamos en ellas tan fácilmente. También acepto fuentes sólidas y editores expertos; todavía tengo que citarlos correctamente. SamuelRiv ( discusión ) 03:56, 15 de enero de 2024 (UTC) [ responder ]
Discusión
Pregunta ¿Las revelaciones incluyen casos en los que se utilizaron títulos de maestría para ayudar con la paráfrasis? Sohom ( discusión ) 22:31 13 dic 2023 (UTC) [ responder ]
- Creo que esa es la intención. Después de todo, el trabajo de paráfrasis podría haber introducido un error.
- Lamentablemente, no parece haber ninguna forma confiable de detectar (o probar) violaciones. Si esto se aprueba, podría revertir cualquier adición que desee y decir "Bueno, pensé que era una violación de esta regla, y la regla dice que se puede revertir sumariamente". WhatamIdoing ( discusión ) 00:59 14 dic 2023 (UTC) [ responder ]
- Sí, definitivamente es una laguna extraña. Personalmente, he utilizado los resultados de LLM como inspiración para intentar parafrasear o reescribir, y tener que declararlos todos o hacer que se reviertan sin ninguna razón aparente no es algo que esté dispuesto a apoyar. Sohom ( discusión ) 01:33, 14 de diciembre de 2023 (UTC) [ responder ]
- Los editores deben ser absolutamente responsables de lo que publican, pero incluso para los usos más benignos, me pregunto cuántas personas son capaces de decir "qué modelo" usaron. Tenemos editores que no están realmente seguros de cuál es su navegador web. WhatamIdoing ( discusión ) 01:47 14 dic 2023 (UTC) [ responder ]
- Incluso algo como "usé Bing Chat" sería útil para identificar el contenido de LLM, aunque ciertamente preferiría más detalles sobre el mensaje utilizado o el modelo específico (cuando se usa en un chat directo que lo incluye). TROPtastic ( discusión ) 02:38, 14 de diciembre de 2023 (UTC) [ responder ]
- Mi opinión al respecto es, básicamente, que el terreno de juego actual es muy desigual. El proceso de creación de indicaciones es un arte delicado que puede llevar un tiempo (y los tokens suelen costar dinero), pero, no obstante, un modelo de lenguaje puede generar un párrafo en un par de segundos. Cuando hago revisiones de GA o corrijo artículos de Signpost, me lleva mucho más tiempo que un par de segundos revisar un párrafo (quizás un par de minutos, quizás media hora si tengo que buscar algo en un campo con el que no estoy familiarizado). Normalmente, el sistema que tenemos en Wikipedia está algo equilibrado en este aspecto: lleva un tiempo revisar que un párrafo es legítimo y también lleva un tiempo escribir un párrafo. Si bien no está perfectamente equilibrado, al menos está dentro de un orden de magnitud. Sin embargo, con los modelos de lenguaje, es posible crear un volumen bastante grande de texto con prácticamente cero entradas, todo lo cual (según nuestra política actual) aparentemente debe tratarse con la misma cantidad de cuidado quirúrgico delicado que los párrafos escritos mediante el duro trabajo del esfuerzo manual.
- Otra cosa que es importante es la capacidad de separar a las personas que ponen mucho trabajo en el proceso (es decir, indicaciones múltiples, ejecuciones múltiples, preparación al estilo de un libro de historia) de las personas que literalmente solo escriben "Escribe un artículo de Wikipedia sobre XYZ" en el cuadro y copian y pegan lo que aparece en la ventana de edición. El primer grupo de personas, que me incluye, es responsable de que cosas como las plantillas de Signpost funcionen correctamente y no tengan CSS roto (gracias GPT-3.5). El segundo grupo de personas es una molestia en el mejor de los casos y una fuerza de destrucción en el peor. Si alguien está escribiendo párrafos de texto y no se molesta en averiguar de qué sitio web los obtuvo, ¿por qué deberíamos pasar minutos u horas revisando cada oración de ese texto individualmente asumiendo que es legítimo? jp × g 🗯️ 09:53, 14 de diciembre de 2023 (UTC) [ responder ]
- Comparto la preocupación, pero el segundo grupo probablemente no lo revele de todos modos, por lo que es poco probable que el requisito de divulgación ayude con la limpieza. Tendremos que seguir confiando en prácticas como eliminar contenido sin fuentes, verificar fuentes, etc. Si los problemas son lo suficientemente graves, como el uso de fuentes falsas, se pueden aplicar bloqueos (ya existen precedentes). MarioGom ( discusión ) 23:04 14 dic 2023 (UTC) [ responder ]
- Creo que valdría la pena aclarar en la propia política, en caso de que exista una política de divulgación, que la LLM en sí no sería un motivo de reversión, como ocurre con todas las políticas análogas. El editor garantiza explícitamente que ha examinado la precisión y la idoneidad del texto generado por la LLM, por lo que, si es necesaria una reversión, se debe simplemente a las razones normales por las que se revertiría una edición. Remsense留21:06, 24 de diciembre de 2023 (UTC) [ responder ]
Usuario:JPxG , ¿esto se basa en esta sugerencia del usuario:Tamzin en la RFC anterior? WhatamIdoing ( discusión ) 01:01 14 dic 2023 (UTC) [ responder ]
- Grandes mentes, etc., etc. Esta página es del 1 de septiembre, ese comentario es del 6 de septiembre, pero ciertamente ha habido cierta confluencia intelectual desde entonces. jp × g 🗯️ 01:16, 14 de diciembre de 2023 (UTC) [ responder ]
Tal vez por aburrimiento, le pedí a un modelo de lenguaje grande (GPT-3.5) que escribiera un ensayo en apoyo de esta política y un ensayo en contra de esta política. Los incluí a continuación en una columna contraída por si a alguien le interesa:
— Halcón de cola roja (nido) 03:28 14 dic 2023 (UTC) [ responder ]
- Es curioso que el ensayo Oppose no se deba a que la propuesta pueda eliminar el contenido humano demasiado apresuradamente, sino a que intenta controlar el uso del LLM en general. "El tiempo y los recursos necesarios para una verificación manual tan meticulosa [de los resultados, incluidas las referencias] podrían obstaculizar significativamente el ritmo de creación de contenido". TROPtastic ( discusión ) 07:27 14 dic 2023 (UTC) [ responder ]
- Me encantó especialmente su frase final: estaba esperando que dijera "sinergia" y "paradigma".
- Tenía curiosidad por saber lo mala que era la redacción "Oposición", teniendo en cuenta que la redacción "Apoyo" era bastante decente, al menos acorde con las políticas y con la interpretación que la gente suele darles. Así que le pedí a GPT- 4 a través de MS Copilot que escribiera una redacción breve en oposición al cambio de política tal como estaba redactado:
- Sinceramente, en muchos aspectos, esto es bastante similar a lo que yo planteo. SamuelRiv ( discusión ) 02:54 15 ene 2024 (UTC) [ responder ]
- Pregunta : ¿Bastaría con un resumen de edición para divulgar el uso de LLM? ¿Debería añadirse un ejemplo de resumen de edición a la política? ¿Quizás una casilla de verificación similar a la casilla de verificación de "edición menor"? Dialmayo ( discusión ) ( Contribs ) she/her 16:15, 14 de diciembre de 2023 (UTC) [ responder ]
- Dudaría mucho sobre cualquier cambio en las casillas de verificación o en la interfaz porque eso de hecho alienta a las personas a usar GPT (que definitivamente no es lo que queremos aquí y es una violación de WP:BEANS ). De lo contrario, supongo que trataríamos las declaraciones de uso de LLM de la misma manera que tratamos a COI. Fermiboson ( discusión ) 16:18, 14 de diciembre de 2023 (UTC) [ responder ]
- ¿Entonces, como una solicitud de edición del artículo con una plantilla como ? En cualquier caso, esto probablemente amerite una discusión aparte si/cuando se apruebe la política. Dialmayo ( discusión ) ( Contribuciones ) she/her 18:47, 14 de diciembre de 2023 (UTC) [ responder ]
{{edit COI}}
- Véase [2]. Dialmayo ( charla ) ( Contribuciones ) ella / ella 19:02, 14 de diciembre de 2023 (UTC) [ respuesta ]
- No sugeriría una casilla de verificación. Eso pondría esta casilla de verificación en miles de wikis, introduciría complejidad en el código central de MediaWiki y abriría las compuertas para agregar un montón de otras casillas de verificación como "copiado desde dentro de Wikipedia", etc. – Novem Linguae ( discusión ) 20:45, 14 de diciembre de 2023 (UTC) [ responder ]
- Una casilla de verificación que diga "copiado desde dentro de Wikipedia" podría no ser una mala idea... ~ F4U ( discusión • ellos/eso ) 04:04, 16 de diciembre de 2023 (UTC) [ responder ]
- Como señalé en un comentario anterior, podría ser interesante probar a modo de prueba una casilla de verificación de "supervisión" general, con un etiquetado más específico dentro de la edición, como solicitudes de traducción o verificación. A veces vale la pena señalar que otro editor puede querer darle una segunda mirada a algo en lo que trabajaste. SamuelRiv ( discusión ) 03:19, 15 de enero de 2024 (UTC) [ responder ]
- Creo que necesitamos una prohibición total del uso de este material en el espacio principal en este momento; prohibimos por completo el uso del Daily Mail como fuente para inventar cosas ocasionalmente, ¿por qué no debería aplicarse lo mismo al material de LLM? Y para abordar el punto de Rhododendrites mencionado anteriormente, los editores tampoco deberían usar Google Translate para colocar material en el espacio de artículos. Sin embargo, estoy de acuerdo en que si uno pudiera eliminar sumariamente el texto que se sospecha que fue generado por LLM, permitiría la eliminación de cualquier texto que no guste, de la misma manera que afirmar que se debe pagar a un editor es una excelente manera de hacer que desaparezcan las contribuciones de cualquier nuevo editor. Espresso Addict ( discusión ) 01:05, 15 de diciembre de 2023 (UTC) [ responder ]
Prohibimos por completo el uso del Daily Mail como fuente para inventar cosas ocasionalmente, ¿por qué no debería aplicarse lo mismo a la producción de LLM
? Porque el alcance de esa analogía es tremendamente desproporcionado. Estás comparando una vasta tecnología multifacética que evoluciona rápidamente y que hace una amplia gama de cosas y... un único sitio web que no hace nada más que publicar historias que podemos evaluar sobre la base de RS. Estás proponiendo prohibir una herramienta , no una fuente . Docenas de empresas/organizaciones las están creando con diferentes fortalezas, debilidades, propósitos, etc., y cualquiera de ellas puede hacer una amplia gama de cosas relacionadas con el lenguaje. ¿Aquí estamos aplanando todo y simplemente diciendo "no" sin ningún matiz?Las rododendritas hablan\\ 01:40, 15 de diciembre de 2023 (UTC) [ responder ]
- Porque el Daily Mail tiene supervisión humana y no siguen las pautas de la revista Cray04 ( discusión ) 12:18, 30 de diciembre de 2023 (UTC) [ responder ]
- Pregunta Probablemente me estoy perdiendo algo, pero ¿cuáles son las opciones 1a y 1b? ¿Son "promocionar a la política" y "promocionar a la directriz", respectivamente? House Blaster talk 17:51, 16 de diciembre de 2023 (UTC) [ responder ]
- @CasaBlaster :
- La opción 1a* parece ser simplemente la forma en que HistoryTheorist ha etiquetado su !voto (es decir, la opción 1 con la salvedad de que
creo que el texto sospechoso solo debe eliminarse si hay evidencia abrumadora de una gran inexactitud o violación de las políticas de WP escritas por un LLM
). - La opción 1b parece estar redactada de forma alternativa como
No deberíamos usar LLM en absoluto para las páginas de contenido
(Awesome Aasim) o prohibir todo el contenido generado por LLM de la wiki
(Buidhe).
- No parece haber una "Opción 1a" en ninguna parte. En cualquier caso, este tipo de etiquetado no parece estar relacionado con si esto debería tratarse como una política o como una directriz. — Halcón de cola roja (nido) 00:35, 18 de diciembre de 2023 (UTC) [ responder ]
- Cuando dije la opción 1a, lo dije como una política, pero mi explicación podría contradecir mi voto. ❤Teórico de la historia❤ 02:45 , 19 de diciembre de 2023 (UTC) [ responder ]
- Pregunta : ¿Alguien ha informado a Wikipedia:WikiProject Guild of Copy Editors y Wikipedia:Typo Team sobre esta RFC? El hecho de que pronto tengan que revelar si utilizan correctores ortográficos como Grammarly probablemente les resultaría bastante interesante. Lo mismo se aplica a los editores de Wikipedia:Basic copyediting y Wikipedia:Spellchecking, ya que estas páginas actualmente recomiendan el uso de correctores ortográficos. Phlsph7 ( discusión ) 14:15 19 dic 2023 (UTC) [ responder ]
- No dudes en informarnos sobre las páginas de discusión que te gustaría utilizar
{{subst:Please see|Wikipedia talk:Large language model policy#RFC}}
. ¿ Grammarly es un LLM? No sé mucho sobre ese software. Si lo es, probablemente no estaría mal que esas personas cambiaran sus resúmenes de edición a algo como "corrección de errores tipográficos con Grammarly". – Novem Linguae ( discusión ) 19:43, 19 de diciembre de 2023 (UTC) [ responder ]- Listo, gracias por el consejo. No soy un experto, pero según mi interpretación de [3], esa es la tecnología que subyace a la detección de errores de Grammarly. Las LLM se están integrando cada vez más en el software común, incluidos los procesadores de texto como Microsoft Word. Si la sugerencia en la redacción actual se aprueba, informar adecuadamente a los editores exactamente lo que se debe divulgar puede ser un desafío. Phlsph7 ( discusión ) 08:44, 20 de diciembre de 2023 (UTC) [ responder ]
- Uso el teclado predeterminado en mi teléfono Android. Recientemente ha comenzado a sugerir cambios gramaticales de forma predeterminada, sin que yo cambie ninguna configuración. No tengo idea de qué tecnología se usa para esto, si hay alguna IA involucrada o cómo puedo averiguarlo. Si hay una IA involucrada y acepto sus sugerencias, ¿significa que tengo que revelarlo? La redacción de la propuesta indica que debería hacerlo. ¿Qué pasa si considero las sugerencias pero decido no implementarlas? Esto implica que cada edición realizada con un teléfono móvil debería ser sospechosa de tener participación de IA, y cada página editada de esa manera debería estar etiquetada, y cada usuario que no lo revele explícitamente (ya sea que sepa que está usando IA o no) estaría sujeto a una posible sanción. Esto deja aún más claro que esta propuesta no solo es inútil sino también activamente dañina. Thryduulf ( discusión ) 03:04, 22 de diciembre de 2023 (UTC) [ responder ]
- Según [4], las funciones de autocompletado dependen de "modelos de lenguaje" para sus predicciones. La página también analiza los "modelos de lenguaje grandes", pero no aclara si los modelos de lenguaje que se utilizan habitualmente para el autocompletado son lo suficientemente grandes como para ser considerados como modelos de lenguaje grandes. Según tengo entendido, se pueden utilizar modelos de lenguaje grandes para el autocompletado. La cuestión de si una función de autocompletado concreta depende de un modelo de lenguaje grande requeriría cierta investigación y los usuarios de dispositivos móviles no suelen conocer la tecnología de autocompletado subyacente. Dadas estas dificultades, podría ser necesario que todos los usuarios de dispositivos móviles que tengan habilitado el autocompletado (que suele estar habilitado de forma predeterminada) lo revelen en cada edición. Estoy de acuerdo contigo: esto hace mucho más daño que bien. Phlsph7 ( discusión ) 08:47, 22 de diciembre de 2023 (UTC) [ responder ]
- De manera similar, los motores de búsqueda utilizan inteligencia artificial. No creo que necesitemos que los editores revelen que utilizaron un motor de búsqueda para realizar una investigación. Levivich ( discusión ) 15:46 22 dic 2023 (UTC) [ responder ]
- Creo que no hace falta decir que no necesitamos prohibir ni aumentar los requisitos de divulgación para los motores de búsqueda y las herramientas de corrección de errores tipográficos. Si existe la preocupación de que esta propuesta se utilice para acabar con este tipo de cosas, tal vez se debería modificar ligeramente la redacción de la propuesta para eliminarlas. El meollo de esta propuesta (para mí) parece ser el caso de uso de pedirle a ChatGPT que escriba un bloque de texto de la longitud de una oración o más, y luego usar ese contenido generado en artículos. – Novem Linguae ( discusión ) 21:26, 22 de diciembre de 2023 (UTC) [ responder ]
- Antes de hacer eso, tal vez podrías identificar algún problema con el texto generado por LLM que no se pueda solucionar con los procesos existentes. A pesar de que varias personas lo han preguntado varias veces en cada discusión hasta la fecha, nadie lo ha hecho todavía. Thryduulf ( discusión ) 21:35 22 dic 2023 (UTC) [ responder ]
- Creo que la ventaja de un LLM PAG es la claridad. Si les decimos a los nuevos usuarios "no permitimos LLM" o "se debe divulgar el uso de LLM", queda muy claro. Si les decimos a los nuevos usuarios "no permitimos engaños", "las citas no deben ser falsas", "las citas deben respaldar el texto con el que están asociadas", "las afirmaciones deben ser factualmente correctas", etc., eso es genial, pero es posible que ni siquiera sepan que los LLM crean este tipo de problemas. – Novem Linguae ( discusión ) 21:50, 22 de diciembre de 2023 (UTC) [ responder ]
- Wikipedia no necesita una política o directriz para explicar los problemas con los generadores de texto. Puede tener un ensayo explicativo, como el que existe actualmente en Wikipedia:Grandes modelos de lenguaje . isaacl ( discusión ) 21:54 22 dic 2023 (UTC) [ responder ]
- Este punto ha surgido varias veces en las discusiones y no creo que se hayan sugerido ejemplos concretos en los que necesitemos una nueva directriz/política para eliminar texto problemático generado por LLM que no infrinja otras directrices/políticas. Sugeriría tener una directriz/política de todos modos, pero más por conveniencia. En particular, estoy pensando en casos en los que los revisores tienen que dedicar mucho tiempo a eliminar contenido problemático que se creó en cuestión de minutos, por ejemplo, porque tienen que participar en discusiones de AFD para contenido original de LLM copiado y pegado. Pero esto solo puede funcionar en casos en los que el contenido es obviamente creado por LLM, por ejemplo, porque el editor lo admite, porque copiaron el mensaje junto con el texto, o porque el texto contiene frases hechas como "Como un gran modelo de lenguaje entrenado por OpenAI,...". Phlsph7 ( discusión ) 09:08, 23 de diciembre de 2023 (UTC) [ responder ]
- Sí, creo que los puntos de vista de la comunidad se reflejarían mejor con una guía que se abstrajera de las implementaciones específicas. Los correctores ortográficos y gramaticales y las herramientas de completado de palabras no están, hasta donde sé, causando ningún problema, independientemente de la tecnología que se utilice para implementarlos. La generación de texto es donde radican las preocupaciones, ya sea con un gran modelo de lenguaje utilizado por una herramienta o con alguna otra tecnología en otra. isaacl ( discusión ) 21:58, 22 de diciembre de 2023 (UTC) [ responder ]
- De acuerdo, la generación de texto es el punto principal que se debe abordar. Sugerí la formulación alternativa
Contenido original generado por grandes modelos de lenguaje o tecnologías similares basadas en IA...
pero también me parecería bien una formulación que utilice el término "generación de texto". Phlsph7 ( discusión ) 08:55, 23 de diciembre de 2023 (UTC) [ responder ]
- @ Novem Linguae : Estoy de acuerdo en que la generación de textos nuevos es lo principal que se debe regular. Sin embargo, no estoy seguro de que esta parte de la formulación sea un asunto trivial que se pueda tratar como una mera ocurrencia de último momento. Hay muchos usos posibles que se deben considerar, como la lluvia de ideas, el reformateo, la corrección de errores, la paráfrasis, el resumen y la generación de contenido original. Parece haber un amplio acuerdo en que el último punto es problemático. Pero podría haber desacuerdo sobre dónde trazar la línea entre los otros usos. Phlsph7 ( discusión ) 08:51, 23 de diciembre de 2023 (UTC) [ responder ]
- Instaría a la gente a evitar introducir más opciones en la encuesta consultiva anterior, ya que existe el riesgo de que al hacerlo se genere un resultado sin consenso que lleve a que se mantenga el status quo. En su defecto, nombre explícitamente todas las alternativas que también apoyaría. Stifle ( discusión ) 09:30 21 dic 2023 (UTC) [ responder ]
- Gracias por la sugerencia. Creo que una respuesta "1(a), si no, entonces 1(b)" es muy diferente a una respuesta "1(a), si no, entonces 2". Remsense留20:03, 25 de diciembre de 2023 (UTC) [ responder ]
- GPT3.5 carece significativamente de razonamiento y lógica, estoy seguro de que obtendrá resultados drásticamente diferentes si usara GPT4. skarz ( discusión ) 17:31, 24 de diciembre de 2023 (UTC) [ responder ]
- Pregunta : ¿Cuál es el propósito de pedirle a la gente que revele qué modelo está usando? Digamos que la gente usa GPT3, GPT4 o algún otro modelo. ¿Cómo se usará esa información? Fotos de Japón ( discusión ) 13:29 11 ene 2024 (UTC) [ responder ]
- Probablemente sería bastante útil poder comparar y contrastar las cualidades de los resultados de diferentes modelos, posiblemente con miras a políticas futuras. Remsense留19:25, 11 de enero de 2024 (UTC) [ responder ]
- ¿Puede dar un ejemplo de cómo cree que se podría utilizar esa información para la formulación de políticas? Los LLM cambian rápidamente, mientras que las políticas tienden a fosilizarse. Puedo imaginar que una política que discuta un modelo en particular se vuelva obsoleta en un año una vez que un modelo más nuevo esté disponible, y que la política sea difícil de actualizar debido a que es difícil establecer un consenso. Fotos de Japón ( discusión ) 11:08 12 ene 2024 (UTC) [ responder ]
- ¿Es suficiente decir que “si hay patrones problemáticos identificables en el resultado de un modelo determinado, ese modelo puede ser específicamente prohibido”?
“Las cosas se están moviendo demasiado rápido para tener reglas, hombre” no es el argumento convincente que mucha gente cree que es. Si la tecnología está evolucionando tan rápido que simplemente no podemos seguirle la pista de manera significativa, entonces deberíamos tener una prohibición absoluta de su uso hasta que las cosas se desaceleren y podamos entender lo que realmente hace la tecnología. Remsense留12:22, 12 de enero de 2024 (UTC) [ responder ]- ¿Entonces, le pide a la gente que informe sobre sus LLM en caso de que se identifiquen y prohíban en el futuro LLM problemáticos específicos? Es casi seguro que los LLM actuales nunca obtendrán un consenso para prohibirlos, y se espera que los LLM futuros en general mejoren. Esta política, tal como está escrita, le pide a la gente que realice la tarea potencialmente no trivial de rastrear qué modelo de LLM están utilizando, y no me queda claro que haya algún uso práctico futuro para esto.
- Tampoco estoy diciendo que "las cosas se están moviendo demasiado rápido para tener reglas, hombre". Estoy diciendo que las reglas deberían estar escritas de manera que no se vuelvan obsoletas rápidamente y su actualización sea una carga para la comunidad. Esto se puede evitar fácilmente si no se intenta citar modelos específicos en las políticas. Fotos de Japón ( discusión ) 12:21 14 ene 2024 (UTC) [ responder ]
¿Entonces, están pidiendo a las personas que denuncien sus LLM en caso de que se puedan identificar y prohibir LLM problemáticos específicos en el futuro?
Sí, en parte. Si los editores están aquí para crear una enciclopedia, estarán encantados de hacerlo. — Remsense诉23:51, 15 de enero de 2024 (UTC) [ responder ]- Estoy aquí para construir una enciclopedia. Denme un uso práctico a esta información que quieren pedir voluntarios para que la busquen y la reporten. No parece probable que se prohíban modelos LLM específicos. Ni siquiera exigimos resúmenes de edición en general, y estos tienen explicaciones y argumentos claros de por qué son útiles para el proyecto. Fotos de Japón ( discusión ) 10:42 16 ene 2024 (UTC) [ responder ]
- ¿Estás diciendo que no puede haber patrones léxicos identificables que dependan de modelos léxicos específicos que podrían ser útiles para poder identificar y seguir? Ese es el punto en el que se basa todo esto. Argumentar que "probablemente no" apuntaremos a modelos específicos en la política es endeble. Lo haremos si surge uno que escupe un cierto cultivo de basura todo el tiempo. Tenemos una lista de fuentes perennes , podemos tener una lista de modelos perennes. Si los modelos léxicos están evolucionando tanto, podemos evolucionar con ellos.
Con ediciones normales hay una afirmación implícita de que los dedos del editor están escribiendo o manejando de otro modo las palabras. Se trata directamente de la atribución básica. A veces requerimos resúmenes de ediciones: específicamente, con cualquier otra copia o fuente que no provenga del propio cerebro del editor y que no se revele en el wikitexto en sí. — Remsense诉11:12, 16 de enero de 2024 (UTC) [ responder ]- Las fuentes perennes no son una política ni una directriz y son un ejemplo de que no intentamos prohibir fuentes específicas en las políticas. Es poco probable que los modelos LLM se discutan de forma perenne porque cambian constantemente. Y dado que no hay ejemplos de LLM que tengan la posibilidad de ser prohibidos, ni razones articuladas por las que se podría esperar que surgiera tal cosa, no parece muy probable que se produzca. Tampoco he visto nunca a nadie argumentar categóricamente en contra de ninguna política relativa a los LLM, pero la gente no quiere políticas que ignoren su naturaleza cambiante y que rápidamente se vuelvan obsoletas e inexactas.
- Los editores copian y pegan texto de fuentes (a veces dudosas) al igual que lo hacen con los LLM. No se hace ninguna afirmación con uno que no se haga con el otro. Las personas pueden pedirle a un amigo que revise su artículo de Wikipedia antes de enviarlo, al igual que pueden poner un artículo en un LLM y pedirle sugerencias/comentarios/posibles errores gramaticales, etc. No es necesario que atribuyas el hecho de que tu amigo revisó tu edición y recomendó algunos cambios, y ni siquiera está claro si algo de lo que produce un LLM se le puede atribuir. Fotos de Japón ( discusión ) 11:38 16 ene 2024 (UTC) [ responder ]
- No quiero discutir en círculos, así que lo dejaré así.
Los editores copian y pegan texto de fuentes (a veces dudosas) tal como lo hacen con los LLM.
No deberían. — Remsense诉11:41, 16 de enero de 2024 (UTC) [ responder ]- Pero el hecho de que lo hagan contradice su afirmación de que:
Con las ediciones normales hay una afirmación implícita de que los dedos del editor están escribiendo o manipulando de alguna otra manera las palabras.
- No creo que estemos discutiendo en círculos. Por supuesto, no es necesario que respondas. Si alguien tiene alguna explicación clara sobre cómo se puede utilizar esta información en la práctica, me gustaría escucharla. Fotos de Japón ( discusión ) 12:15 16 ene 2024 (UTC) [ responder ]
- Tenga en cuenta que los usuarios no siempre son conscientes de que una herramienta tiene un modelo subyacente y el proveedor de software no siempre revela la naturaleza del modelo. isaacl ( discusión ) 16:03, 12 de enero de 2024 (UTC) [ responder ]
- Por supuesto, yo diría que el aspecto más crítico es la trazabilidad directa de algo . Además, los usuarios no siempre saben que deben citar las afirmaciones o que parafrasear de forma precisa es una infracción de copyright. Esta sigue siendo una política valiosa incluso si a) algunos usuarios de buena fe proporcionan toda la información que nos gustaría, b) algunos usuarios de buena fe necesitan que se les diga repetidamente y c) los usuarios de mala fe se negarán a hacerlo.
- Espero que esto no se perciba como que estoy añadiendo un 1(c) —Dios no lo quiera, para ser claro, no lo estoy haciendo— o que estoy moviendo los postes de la portería. Mi argumento siempre ha sido que "algo es mucho mejor que nada". Remsense留16:11, 12 de enero de 2024 (UTC) [ responder ]
- Por mi parte, se trata de mantener la expectativa de, en la medida de lo posible, proporcionar la atribución de cualquier contenido creativo que no sea de uno mismo. De vez en cuando veo resistencias del tipo "WP no es una revista académica", pero realmente creo (y espero que alguien haga un estudio sobre esto porque no puedo encontrar ninguno) que WP en sí ha elevado las expectativas del individuo común sobre atribución y verificabilidad. Ya mantenemos esos estándares bastante altos entre los editores incluso cuando en la práctica son opcionales o no exigibles. (Un ejemplo que veo son las publicaciones demasiado comunes en WP:RSN que no son disputas, sino simplemente editores que buscan obtener fuentes adecuadas sobre temas esotéricos). Dar atribución por largas cadenas de prosa generada por máquina no debería ser una tarea ardua para la mayoría de los editores, siempre que se diga en voz alta que se debe hacerlo. Tampoco creo que se trate de una reacción fóbica hacia la IA. Me sorprendió enterarme de que los editores ya no atribuían cadenas de Google Translate sin modificar. SamuelRiv ( discusión ) 02:45 16 ene 2024 (UTC) [ responder ]
- De hecho. "No somos una revista académica" (et al.) es el argumento más frustrante que se podría plantear. Nadie ha dicho nunca que lo fuéramos, pero todo el mundo siempre dice que nos preocupamos por la atribución y la verificabilidad. Medidas como estas son lo que significa realmente preocuparse por esas cosas.
Si descubrimos que los LLM (ya sea en su conjunto o ciertos subconjuntos de ellos) son fundamentalmente inatribuibles, entonces no deberían permitirse. No he leído ningún argumento que explique por qué es aceptable que la prosa no esté atribuida en este caso específico y no en otros. — Remsense诉03:10, 16 de enero de 2024 (UTC) [ responder ]- Hasta que el T-Halborgylon secuestre tu cerebro para que, sin darte cuenta, escribas el resultado de una IA con buena fe zombificada, no veo que llegue un punto en el que no se puedan atribuir cadenas de prosa que no son completamente tuyas. En algunos escenarios legales extraños (como, por ejemplo, si hubiera una orden judicial sobre la IA que usaste), al menos puedes decir "esta no es mi prosa". Es hipotético para la IA, pero este último tipo de cosas ciertamente ha sido un problema real con las órdenes judiciales . SamuelRiv ( discusión ) 04:25, 16 de enero de 2024 (UTC) [ responder ]
- SamuelRiv , perdón por la falta de claridad. Creo que la producción de LLM es atribuible, pero parece haber un argumento en el sentido de que no es tan significativa , lo que a su vez parece justificar por qué no debería requerirse un intento de atribución. — Remsense诉04:28, 16 de enero de 2024 (UTC) [ responder ]
- No puedo resistirme a tomarme un momento para actuar de manera superflua y pretenciosa y señalar que mi posición es que dar cualquier atribución a una prosa que no es completamente propia es (además) una expresión performativa - es significativa en el acto de dar la atribución en sí - por todas las razones que mencioné anteriormente. SamuelRiv ( discusión ) 04:43, 16 de enero de 2024 (UTC) [ responder ]
La discusión anterior está cerrada. No la modifique. Los comentarios posteriores deben realizarse en la página de discusión correspondiente. No se deben realizar más modificaciones a esta discusión.
Estás invitado a unirte a la discusión en Wikipedia:Plantillas para discusión/Registro/13 de diciembre de 2023 § Plantilla:Notificación generada por IA . – Novem Linguae ( discusión ) 08:26 14 dic 2023 (UTC) [ responder ]
Estás invitado a participar en la discusión en Wikipedia:Plantillas para discusión/Registro/13 de diciembre de 2023 § Plantilla:OpenAI . – Novem Linguae ( discusión ) 08:26 14 dic 2023 (UTC) [ responder ]
Creo que puede ser apropiado señalar aquí mis intenciones para después del RfC, suponiendo que tenga éxito.
Al escribir la propuesta, hice todo lo posible para evitar que fuera una política "pro-LLM" o "anti-LLM" tal como está escrita. Mi esperanza es que, en lugar de un referéndum general sinuoso sobre todo el campo de la inteligencia artificial, podamos establecer alguna regla simple y no intrusiva para reducir el 10% inferior de basura sin presentar demasiados obstáculos para las personas que están interesadas en usar las herramientas de manera productiva. Y estamos recibiendo un flujo bastante constante de basura (ver WP:WikiProject AI Cleanup ), de personas que están usando estos modelos de manera incorrecta, usándolos para tareas para las que no son adecuados o siendo insuficientemente cuidadosos al verificar su resultado. Esto pone una presión bastante grande (e innecesaria) en los nuevos supervisores de páginas, los revisores de AfC y los editores en general.
Por si sirve de algo, yo mismo soy un gran aficionado a los modelos de transformadores y los he seguido con gran interés durante varios años (creé los artículos para GPT-2 y DALL-E , mi primera interacción con ellos fue un GPT-2-124M en el verano de 2019 y tuve acceso a la API de GPT-3 en 2020). El pasado agosto utilicé la API de GPT-3 para ayudar a escribir varias columnas de Signpost ; supongo que tendrás que creerme cuando digo que no escribí esto como un caballo de Troya para una prohibición de LLM en todo el proyecto.
Algunas personas piensan que estas cosas son simplemente basura, y hay un debate muy intenso sobre qué utilidad tienen realmente, si vale la pena el esfuerzo, etcétera. Bueno, yo creo que sí, pero no me corresponde a mí decidir el consenso de la comunidad de editores, y si todo el mundo piensa que son basura, entonces supongo que tendremos que vivir con eso.
Notaré que la cantidad de personas que quieren prohibir los LLM por completo aumenta cada vez que se vierte un gigantesco cubo de basura GPT en la cola de NPP, por lo que si hay alguna solución de muy bajo esfuerzo que podamos implementar para ralentizar el flujo, creo que vale la pena incluso si eres un maximalista de LLM que resiente cualquier tipo de restricción.
De todos modos, es difícil predecir la trayectoria de una tecnología como esta. Puede que mejoren, que se estabilicen o que mejoren mucho en algunas cosas y muy poco en otras de una manera disjunta que no tiene sentido. Así que tal vez estemos al borde de un tsunami de basura, o tal vez ya haya pasado, o tal vez estemos al borde de un tsunami de felicidad. Lo que sí creo que es importante es que tengamos políticas que aborden los problemas existentes sin comprometernos prematuramente a que las cosas en el futuro sean buenas o malas. Si resulta que esto reduce el 90% de la basura y nunca más volvemos a tener un hilo de ANI sobre GPT, entonces tal vez no sea necesario que haya más discursos sobre el tema. Si resulta que esta breve frase no es suficiente, entonces tal vez podamos escribir más. jp × g 🗯️ 09:37, 15 de diciembre de 2023 (UTC) [ responder ]
- Entonces:
- Viejo problema: teníamos publicados un montón de artículos mal escritos.
- Acción antigua: Escribimos un conjunto de reglas contra la edición pagada no revelada.
- Resultado anterior: algunas personas cambiaron su comportamiento y el resto siguió haciendo lo mismo de todos modos, porque no teníamos una buena forma de identificarlas.
- Ahora:
- Nuevo problema: Tenemos un montón de artículos mal escritos que se publican.
- Nueva acción: Escribimos algunas reglas contra un conjunto de herramientas que podrían usarse para crearlas.
- Nuevo resultado: ¿Algunas personas cambiaron su comportamiento y el resto siguió haciendo lo mismo de todos modos, porque no teníamos una buena forma de identificarlos?
- WhatamIdoing ( discusión ) 04:04 17 dic 2023 (UTC) [ responder ]
- Incluso si no hay una buena manera de identificarlos, eso no significa que no sea una mala idea instituirlos como política. ¿Existe una manera fácil de, por ejemplo, identificar la edición semiautomatizada o similar a un bot? A menos que haya etiquetas para identificar un script que creó esa herramienta, una edición semiautomatizada podría tener cualquier resumen de edición o ningún resumen y nadie sabría realmente que fue semiautomatizada. El punto principal no es que prohibir los LLM en el espacio principal represente un riesgo significativo de disrupción, y alentarlo solo estaría alentando más disrupción. Y DE es una cosa que, independientemente de los medios o la intención, resulta en un bloqueo si se prolonga. Awesome Aasim 22:13, 17 de diciembre de 2023 (UTC) [ responder ]
- El problema es que todo lo relacionado con el uso de LLM que afecte a Wikipedia ya está prohibido por las políticas existentes. Hasta ahora, nadie en ninguna discusión ha aportado pruebas de nada producido por un LLM que esté permitido por la política actual y sea perjudicial para Wikipedia. Thryduulf ( discusión ) 10:27 18 dic 2023 (UTC) [ responder ]
- Porque el problema que la política intenta abordar tiene más que ver con patrones de edición más amplios que con diferencias individuales. No es ilógico que el alcance de las políticas se superponga; de hecho, se podría decir que es una característica, ya que refuerza los puntos que la comunidad considera más importantes. Remsense留14:11, 31 de diciembre de 2023 (UTC) [ responder ]
- Si bien es inevitable que haya cierta superposición en las políticas, no estoy de acuerdo en que sea una característica en sí misma. En términos generales, es más fácil para los editores hacer un seguimiento de menos políticas que de más, por lo que tener unas pocas políticas centrales con una guía de apoyo que amplíe los detalles proporciona una estructura organizativa que simplifica la tarea de recordar y seguir la guía. Evitar la redundancia respalda este principio y ayuda a evitar que la guía se desfase y, por lo tanto, sea contradictoria. También puede evitar quejas sobre la existencia de demasiadas guías, ya que la forma básica de la guía se puede entender a partir de las políticas centrales y los detalles se pueden aprender gradualmente, sin tener que saltar entre guías superpuestas. isaacl ( discusión ) 17:04, 31 de diciembre de 2023 (UTC) [ responder ]
- No creo que la prohibición de los LLM en el espacio principal suponga un riesgo significativo . Creo que hay algunas buenas y viejas emociones humanas en juego aquí, pero el problema es que ya sabemos que la prohibición será ineficaz. La mayoría de la gente no conocerá la regla, no podrás atraparlos (y acusaremos erróneamente a gente inocente), y la mayoría de las pocas personas que están usando LLM y realmente conocen la regla tampoco la seguirán, porque una buena proporción de ellos no saben que decidiste que su corrector gramatical es un LLM, y el resto no cree que sea realmente asunto tuyo.
- Aquí está el rey Canuto y la marea de nuevo: Declaramos que las personas que están usando LLM en secreto deben dejar de hacerlo en secreto, para que sepamos lo que están haciendo (y podamos revertirlos más a menudo). Estás parado en la playa y dices "¡Tú, ahí! ¡Marea! ¡Deja de entrar, por órdenes del rey!" No podemos lograr ninguno de los objetivos simplemente emitiendo órdenes.
- ¿Y cuál es exactamente tu plan para "¿Y si no cumplen tu edicto?"? ¿Que se quejen de que están violando las políticas? ¿Que ni siquiera sepan que no siguieron tus órdenes? WhatamIdoing ( discusión ) 07:06 11 ene 2024 (UTC) [ responder ]
- Un buen resumen de nuestras pautas de WP:COI , pero no parece una razón para descartarlas. CMD ( discusión ) 07:28, 11 de enero de 2024 (UTC) [ responder ]
- También me preocupa que esto suponga una carga innecesaria para quienes seguiremos la política, sin ningún motivo aparente. MarioGom ( discusión ) 12:04 11 ene 2024 (UTC) [ responder ]
Voy a hacer una solicitud, porque el bot acaba de eliminar la plantilla RFC ya que ha pasado un mes (obviamente no la voy a cerrar yo mismo). jp × g 🗯️ 10:18, 13 de enero de 2024 (UTC) [ responder ]