stringtranslate.com

Pornografía deepfake

La pornografía deepfake , o simplemente pornografía falsa , es un tipo de pornografía sintética que se crea alterando fotografías o vídeos ya existentes aplicando tecnología deepfake a las imágenes de los participantes. El uso de pornografía deepfake ha provocado controversia porque implica la realización y el intercambio de vídeos realistas en los que aparecen personas sin consentimiento, normalmente celebridades femeninas, y a veces se utiliza para la pornografía de venganza . Se están realizando esfuerzos para combatir estas preocupaciones éticas mediante la legislación y soluciones basadas en la tecnología.

Historia

El término "deepfake" se acuñó en 2017 en un foro de Reddit en el que los usuarios compartían vídeos pornográficos alterados creados mediante algoritmos de aprendizaje automático. Es una combinación de la palabra "aprendizaje profundo", que se refiere al programa utilizado para crear los vídeos, y "fake", que significa que los vídeos no son reales. [1]

El porno deepfake se creó originalmente a pequeña escala individual utilizando una combinación de algoritmos de aprendizaje automático , técnicas de visión artificial y software de inteligencia artificial . El proceso comenzó reuniendo una gran cantidad de material fuente (incluidas imágenes y videos) del rostro de una persona y luego utilizando un modelo de aprendizaje profundo para entrenar una red generativa antagónica para crear un video falso que intercambia de manera convincente el rostro del material fuente con el cuerpo de un actor porno. Sin embargo, el proceso de producción ha evolucionado significativamente desde 2018, con la llegada de varias aplicaciones públicas que han automatizado en gran medida el proceso. [2]

La pornografía deepfake a veces se confunde con la fotografía falsa de desnudos , pero en general son dos cosas diferentes. La fotografía falsa de desnudos suele utilizar imágenes no sexuales y simplemente hace que parezca que las personas que aparecen en ellas están desnudas.

Casos notables

La tecnología deepfake se ha utilizado para crear imágenes y vídeos pornográficos y no consensuales de mujeres famosas. Uno de los primeros ejemplos ocurrió en 2017, cuando un usuario de Reddit creó un vídeo pornográfico deepfake de Gal Gadot y se difundió rápidamente en Internet. Desde entonces, ha habido numerosos casos de contenido deepfake similar dirigido a otras celebridades femeninas, como Emma Watson , Natalie Portman y Scarlett Johansson . [3] Johansson habló públicamente sobre el tema en diciembre de 2018, condenando la práctica pero también negándose a emprender acciones legales porque considera que el acoso es inevitable. [4]

Rana Ayyub

En 2018, Rana Ayyub , periodista de investigación india, fue objeto de una campaña de odio en línea a raíz de su condena al gobierno indio, en particular por su denuncia de la violación de una niña de ocho años de Cachemira. Ayyub recibió numerosas amenazas de violación y muerte, y un vídeo pornográfico manipulado de ella circuló en Internet. [5] En un artículo del Huffington Post , Ayyub habló de los efectos psicológicos y sociales duraderos que esta experiencia ha tenido en ella. Explicó que seguía teniendo problemas de salud mental y que las imágenes y los vídeos seguían apareciendo cada vez que se hacía cargo de un caso de alto perfil. [6]

Controversia sobre Atrioc

En 2023, el streamer de Twitch Atrioc generó controversia cuando reveló accidentalmente material pornográfico deepfake en el que aparecían streamers femeninas de Twitch mientras estaba en vivo. Desde entonces, el influencer admitió haber pagado por pornografía generada por IA y se disculpó con las mujeres y sus fans. [7] [8]

Taylor Swift

En enero de 2024, imágenes sexualmente explícitas generadas por IA de la cantante estadounidense Taylor Swift se publicaron en X (anteriormente Twitter) y se difundieron a otras plataformas como Facebook , Reddit e Instagram . [9] [10] [11] Un tuit con las imágenes fue visto más de 45 millones de veces antes de ser eliminado. [12] [10] Un informe de 404 Media descubrió que las imágenes parecían haberse originado en un grupo de Telegram , cuyos miembros usaban herramientas como Microsoft Designer para generar las imágenes, usando errores ortográficos y hacks de palabras clave para sortear los filtros de contenido de Designer. [13] [14] Después de que se publicó el material, los fans de Swift publicaron imágenes y metraje de conciertos para enterrar las imágenes deepfake y denunciaron las cuentas que publicaban las deepfakes. [15] Las búsquedas del nombre de Swift se deshabilitaron temporalmente en X , devolviendo un mensaje de error en su lugar. [16] Graphika , una empresa de investigación de desinformación, rastreó la creación de las imágenes hasta una comunidad de 4chan . [17] [18]

Una fuente cercana a Swift le dijo al Daily Mail que estaría considerando tomar acciones legales y dijo: "Se está decidiendo si se tomarán o no acciones legales, pero hay una cosa que está clara: estas imágenes falsas generadas por IA son abusivas, ofensivas, explotadoras y se hicieron sin el consentimiento y/o conocimiento de Taylor". [15] [19]

La controversia provocó la condena de la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre , [20] el director ejecutivo de Microsoft, Satya Nadella , [21] la Red Nacional de Violación, Abuso e Incesto , [22] y SAG-AFTRA . [23] Varios políticos estadounidenses pidieron una legislación federal contra la pornografía deepfake. [24] Más tarde en el mes, los senadores estadounidenses Dick Durbin , Lindsey Graham , Amy Klobuchar y Josh Hawley presentaron un proyecto de ley bipartidista que permitiría a las víctimas demandar a las personas que produjeron o poseyeron "falsificaciones digitales" con la intención de distribuirlas, o aquellos que recibieron el material sabiendo que se hizo sin consentimiento. [25]

Escándalo de deepfake en Telegram de 2024

En agosto de 2024, se supo en Corea del Sur que muchos profesores y estudiantes eran víctimas de imágenes deepfake creadas por usuarios que utilizaban tecnología de IA. La periodista Ko Narin de Hankyoreh descubrió las imágenes deepfake a través de los chats de Telegram. [26] [27] [28] En Telegram, se crearon chats grupales específicamente para el abuso sexual basado en imágenes de mujeres, incluidas estudiantes de secundaria y preparatoria, maestros e incluso miembros de la familia. Las mujeres con fotos en plataformas de redes sociales como KakaoTalk , Instagram y Facebook también suelen ser el objetivo. Los perpetradores usan bots de IA para generar imágenes falsas, que luego se venden o se comparten ampliamente, junto con las cuentas de redes sociales de las víctimas, los números de teléfono y los nombres de usuario de KakaoTalk. Según se informa, un grupo de Telegram atrajo a unos 220.000 miembros, según un informe de Guardian.

Las investigaciones revelaron numerosos grupos de chat en Telegram donde los usuarios, principalmente adolescentes, crean y comparten imágenes deepfake explícitas de compañeros de clase y profesores. El problema surgió a raíz de una preocupante historia de delitos sexuales digitales, en particular el notorio caso Nth Room en 2019. El Sindicato de Maestros de Corea estimó que más de 200 escuelas se habían visto afectadas por estos incidentes. Los activistas pidieron una declaración de "emergencia nacional" para abordar el problema. [29] La policía de Corea del Sur informó de más de 800 casos de delitos sexuales deepfake a finales de septiembre de 2024, un marcado aumento respecto de los 156 casos de 2021, y la mayoría de las víctimas y los agresores eran adolescentes. [30]

El 21 de septiembre, 6.000 personas se reunieron en el parque Marronnier, en el noreste de Seúl, para exigir medidas legales más contundentes contra los delitos de deepfake dirigidos contra las mujeres. [31] El 26 de septiembre, tras la indignación generalizada por el escándalo de Telegram, los legisladores surcoreanos aprobaron un proyecto de ley que penaliza la posesión o visualización de imágenes y vídeos de deepfake sexualmente explícitos, imponiendo sanciones que incluyen penas de prisión y multas. Según la nueva ley, quienes sean sorprendidos comprando, guardando o viendo ese material podrían enfrentarse a hasta tres años de prisión o multas de hasta 30 millones de wones (22.600 dólares). En el momento en que se propuso el proyecto de ley, la creación de deepfakes sexualmente explícitos para su distribución conllevaba una pena máxima de cinco años, pero la nueva legislación la aumentaría a siete años, independientemente de la intención. [30]

Se estimó que para octubre de 2024 los bots deep fake "nudify" en Telegram sumaban hasta cuatro millones de usuarios mensuales. [32]

Consideraciones éticas

Abuso sexual por parte de los usuarios (CSAM)

La tecnología deepfake ha hecho que la creación de material de abuso sexual infantil (CSAM), también conocido como pornografía infantil, sea más rápida, segura y fácil que nunca. Los deepfakes se pueden utilizar para producir nuevo CSAM a partir de material ya existente o para crear CSAM a partir de niños que no han sido sometidos a abuso sexual. Sin embargo, el CSAM deepfake puede tener implicaciones reales y directas para los niños, como la difamación, el acoso, la extorsión y el acoso. [33]

Consentir

La mayor parte del porno deepfake se hace con rostros de personas que no dieron su consentimiento para que su imagen se usara de manera tan sexual. En 2023, Sensity, una empresa de verificación de identidad, descubrió que "el 96% de los deepfakes son sexualmente explícitos y presentan a mujeres que no dieron su consentimiento para la creación del contenido". [34] A menudo, el porno deepfake se usa para humillar y acosar principalmente a las mujeres de formas similares al porno de venganza .

La lucha contra la pornografía deepfake

Enfoque técnico

La detección de deepfakes se ha convertido en un área de investigación cada vez más importante en los últimos años a medida que la propagación de videos e imágenes falsos se ha vuelto más frecuente. Un enfoque prometedor para detectar deepfakes es mediante el uso de redes neuronales convolucionales (CNN), que han demostrado una alta precisión para distinguir entre imágenes reales y falsas. Un algoritmo basado en CNN que se ha desarrollado específicamente para la detección de deepfakes es DeepRhythm, que ha demostrado una puntuación de precisión impresionante de 0,98 ( es decir, un éxito en la detección de imágenes deepfake el 98% del tiempo). Este algoritmo utiliza una CNN preentrenada para extraer características de las regiones faciales de interés y luego aplica un nuevo mecanismo de atención para identificar discrepancias entre las imágenes originales y manipuladas. Si bien el desarrollo de tecnología deepfake más sofisticada presenta desafíos continuos para los esfuerzos de detección, la alta precisión de algoritmos como DeepRhythm ofrece una herramienta prometedora para identificar y mitigar la propagación de deepfakes dañinos. [1]

Además de los modelos de detección, también hay herramientas de autenticación de vídeo disponibles para el público. En 2019, Deepware lanzó la primera herramienta de detección disponible públicamente que permitía a los usuarios escanear y detectar fácilmente vídeos deepfake. De manera similar, en 2020 Microsoft lanzó un autenticador de vídeo gratuito y fácil de usar. Los usuarios cargan un vídeo sospechoso o introducen un enlace y reciben una puntuación de confianza para evaluar el nivel de manipulación de un deepfake.

Enfoque jurídico

A partir de 2023, no existe una legislación que aborde específicamente la pornografía deepfake. En cambio, los tribunales están abordando el daño causado por su creación y distribución a través de las leyes civiles y penales existentes. Nudify Me: las implicaciones legales de la pornografía vengativa generada por IA

Las víctimas de pornografía deepfake a menudo presentan demandas por venganza , agravios y acoso. [35] Las consecuencias legales de la pornografía vengativa varían de un estado a otro y de un país a otro. [35] [36] Por ejemplo, en Canadá, la pena por publicar imágenes íntimas no consensuadas es de hasta 5 años de prisión, [37] mientras que en Malta es una multa de hasta 5.000 €. [38]

La "Ley de Responsabilidad por las Falsificaciones Profundas" se presentó al Congreso de los Estados Unidos en 2019, pero se suspendió en 2020. [39] Su objetivo era convertir en delito penal la producción y distribución de medios visuales alterados digitalmente que no se revelaran como tales. El título especifica que realizar cualquier medio sexual alterado no consensual con la intención de humillar o dañar de otro modo a los participantes puede ser multado, encarcelado por hasta 5 años o ambas cosas. [36] En 2021 se presentó una versión más nueva del proyecto de ley que habría requerido que cualquier "registro de suplantación de identidad tecnológica avanzada" contuviera una marca de agua y una divulgación audiovisual para identificar y explicar cualquier elemento de audio y visual alterado. El proyecto de ley también incluye que no revelar esta información con la intención de acosar o humillar a una persona con un "registro de suplantación de identidad tecnológica avanzada" que contenga contenido sexual "será multado en virtud de este título, encarcelado por no más de 5 años, o ambas cosas". Sin embargo, este proyecto de ley ya no se aplica en 2023. [40]

En el Reino Unido, la Comisión de Derecho de Inglaterra y Gales recomendó una reforma para penalizar el intercambio de pornografía deepfake en 2022. [41] En 2023, el gobierno anunció modificaciones al Proyecto de Ley de Seguridad en Línea con ese fin. La Ley de Seguridad en Línea de 2023 modifica la Ley de Delitos Sexuales de 2003 para penalizar el intercambio de imágenes íntimas que muestren o "parezcan mostrar" a otra persona (incluidas las imágenes deepfake) sin consentimiento. [42] En 2024, el Gobierno anunció que se incluiría un delito que penalizara la producción de imágenes pornográficas deepfake en el Proyecto de Ley de Justicia Penal de 2024. [43] [44] El proyecto de ley no se aprobó antes de que el Parlamento se disolviera antes de las elecciones generales .

Control de la distribución

Si bien el panorama legal aún no está desarrollado, las víctimas de pornografía deepfake tienen varias herramientas disponibles para contener y eliminar contenido, incluida la eliminación mediante una orden judicial, herramientas de propiedad intelectual como la eliminación de DMCA, la denuncia de violaciones de los términos y condiciones de la plataforma de alojamiento y la eliminación mediante el informe del contenido a los motores de búsqueda. [45]

Varias plataformas en línea importantes han tomado medidas para prohibir la pornografía deepfake. A partir de 2018, gfycat , reddit , Twitter , Discord y Pornhub han prohibido la carga y el intercambio de contenido pornográfico deepfake en sus plataformas. [46] [47] En septiembre de ese mismo año, Google también agregó "imágenes pornográficas sintéticas involuntarias" a su lista de prohibiciones, lo que permite a las personas solicitar la eliminación de dicho contenido de los resultados de búsqueda. [48]

Véase también

Referencias

  1. ^ ab Gaur, Loveleen; Arora, Gursimar Kaur (27 de julio de 2022), DeepFakes, Nueva York: CRC Press, págs. 91–98, doi :10.1201/9781003231493-7, ISBN 978-1-003-23149-3, archivado desde el original el 6 de marzo de 2024 , consultado el 20 de abril de 2023
  2. ^ Azmoodeh, Amin y Ali Dehghantanha. "Detección, disuasión y respuesta a las falsificaciones profundas: desafíos y oportunidades". arXiv.org, 2022.
  3. ^ Roettgers, Janko (21 de febrero de 2018). "Productores de pornografía ofrecen ayuda a Hollywood para eliminar los vídeos deepfake". Variety . Archivado desde el original el 10 de junio de 2019. Consultado el 20 de abril de 2023 .
  4. ^ Harwell, Drew (31 de diciembre de 2018). «Scarlett Johansson sobre los vídeos sexuales falsos generados por inteligencia artificial: 'Nada puede impedir que alguien corte y pegue mi imagen'». The Washington Post . ISSN  0190-8286. Archivado desde el original el 13 de junio de 2019. Consultado el 20 de abril de 2023 .
  5. ^ Maddocks, Sophie (4 de junio de 2020). «'Una trama pornográfica deepfake destinada a silenciarme': exploración de las continuidades entre las falsificaciones pornográficas y 'políticas'». Porn Studies . 7 (4): 415–423. doi :10.1080/23268743.2020.1757499. ISSN  2326-8743. S2CID  219910130. Archivado desde el original el 6 de marzo de 2024 . Consultado el 20 de abril de 2023 .
  6. ^ Ayyub, Rana (21 de noviembre de 2018). "Fui víctima de un complot de pornografía deepfake destinado a silenciarme". HuffPost UK . Archivado desde el original el 20 de abril de 2023. Consultado el 20 de abril de 2023 .
  7. ^ Middleton, Amber (10 de febrero de 2023). "Un streamer de Twitch fue descubierto viendo pornografía deepfake de mujeres gamers. Las imágenes sexuales realizadas sin consentimiento pueden ser traumáticas y abusivas, dicen los expertos, y las mujeres son las mayores víctimas". Insider . Archivado desde el original el 6 de marzo de 2024. Consultado el 20 de abril de 2023 .
  8. ^ Patterson, Calum (30 de enero de 2023). «El streamer de Twitch Atrioc se disculpa entre lágrimas tras pagar por deepfakes de streamers femeninas». Dexerto . Archivado desde el original el 9 de mayo de 2023 . Consultado el 14 de junio de 2023 .
  9. ^ Stokel-Walker, Chris (25 de enero de 2024). «Las imágenes explícitas de Taylor Swift creadas por IA que inundan Internet ponen de relieve un problema importante con la IA generativa». Fast Company . Archivado desde el original el 26 de enero de 2024. Consultado el 26 de enero de 2024 .
  10. ^ ab Belanger, Ashley (25 de enero de 2024). "X no puede detener la difusión de imágenes falsas y explícitas de Taylor Swift realizadas por IA". Ars Technica . Archivado desde el original el 25 de enero de 2024 . Consultado el 25 de enero de 2024 .
  11. ^ Kelly, Samantha Murphy (25 de enero de 2024). «Imágenes explícitas de Taylor Swift generadas por IA se difunden rápidamente en las redes sociales | CNN Business». CNN . Archivado desde el original el 25 de enero de 2024 . Consultado el 25 de enero de 2024 .
  12. ^ Weatherbed, Jess (25 de enero de 2024). "Los trolls han inundado X con falsificaciones gráficas de Taylor Swift realizadas con inteligencia artificial". The Verge . Archivado desde el original el 25 de enero de 2024. Consultado el 25 de enero de 2024 .
  13. ^ Maiberg, Emanuel; Cole ·, Samantha (25 de enero de 2024). "La pornografía de Taylor Swift generada por inteligencia artificial se volvió viral en Twitter. Así es como llegó allí". 404 Media . Archivado desde el original el 25 de enero de 2024 . Consultado el 25 de enero de 2024 .
  14. ^ Belanger, Ashley (29 de enero de 2024). «Las medidas drásticas de X hacen que Microsoft no detenga la difusión de pornografía falsa de Taylor Swift». Ars Technica . Archivado desde el original el 29 de enero de 2024. Consultado el 30 de enero de 2024 .
  15. ^ ab Zhang, Cat (26 de enero de 2024). "La lucha de Swiftie para proteger a Taylor Swift de la IA". The Cut . Archivado desde el original el 30 de enero de 2024. Consultado el 6 de marzo de 2024 .
  16. ^ Spangler, Todd (27 de enero de 2024). "X/Twitter bloquea las búsquedas de 'Taylor Swift' como una 'acción temporal para priorizar la seguridad' después de una avalancha de falsificaciones explícitas de IA". Variety . Archivado desde el original el 28 de enero de 2024 . Consultado el 29 de enero de 2024 .
  17. ^ Hsu, Tiffany (5 de febrero de 2024). «Un estudio afirma que aparecieron imágenes falsas y explícitas de Taylor Swift en 4chan». The New York Times . Archivado desde el original el 9 de febrero de 2024. Consultado el 10 de febrero de 2024 .
  18. ^ Belanger, Ashley (5 de febrero de 2024). «El desafío diario de 4chan provocó una avalancha de imágenes explícitas de Taylor Swift realizadas por IA». Ars Technica . Archivado desde el original el 9 de febrero de 2024 . Consultado el 9 de febrero de 2024 .
  19. ^ Specter, Emma (26 de enero de 2024). «Si alguien puede detener el inminente infierno de la IA, esa es Taylor Swift». Vogue . Archivado desde el original el 6 de febrero de 2024. Consultado el 6 de marzo de 2024 .
  20. ^ "Bloquean las búsquedas de Taylor Swift en X tras la difusión de imágenes explícitas falsas de la cantante pop". The Guardian . Reuters . 2024-01-29. Archivado desde el original el 2024-01-29 . Consultado el 2024-01-29 .
  21. ^ Spangler, Todd (26 de enero de 2024). "Las falsificaciones explícitas generadas por inteligencia artificial de Taylor Swift son 'alarmantes y terribles', dice el director ejecutivo de Microsoft: 'Tenemos que actuar'". Variety . Archivado desde el original el 28 de enero de 2024 . Consultado el 29 de enero de 2024 .
  22. ^ Travers, Karen; Saliba, Emmanuelle (27 de enero de 2024). «Imágenes falsas y explícitas de Taylor Swift: la Casa Blanca está 'alarmada'». ABC News . Archivado desde el original el 28 de enero de 2024. Consultado el 29 de enero de 2024 .
  23. ^ Millman, Ethan (26 de enero de 2024). «Las imágenes explícitas de Taylor Swift generadas por IA «deben ser ilegales», dice SAG-AFTRA». Rolling Stone . Archivado desde el original el 29 de enero de 2024. Consultado el 29 de enero de 2024 .
  24. ^ Beaumont-Thomas, Ben (27 de enero de 2024). «La pornografía deepfake de Taylor Swift genera nuevos pedidos de legislación en Estados Unidos». The Guardian . Archivado desde el original el 29 de enero de 2024. Consultado el 29 de enero de 2024 .
  25. ^ Montgomery, Blake (31 de enero de 2024). «Las imágenes de Taylor Swift con inteligencia artificial impulsan un proyecto de ley en Estados Unidos para abordar las falsificaciones sexuales no consensuales». The Guardian . Archivado desde el original el 31 de enero de 2024. Consultado el 31 de enero de 2024 .
  26. ^ "Dentro de la crisis de pornografía deepfake que afecta a las escuelas coreanas". BBC News.
  27. ^ "La policía de Corea del Sur inicia una investigación sobre si Telegram incita a delitos sexuales en línea, informa Yonhap". reuters.
  28. ^ "De las cámaras espía al porno deepfake: furia en Corea del Sur porque las mujeres vuelven a ser blanco de ataques". The Guardian.
  29. ^ "Corea del Sur se enfrenta a una 'emergencia' de pornografía deepfake". BBC . Consultado el 27 de septiembre de 2024 .
  30. ^ ab "Corea del Sur criminalizará la visualización o posesión de deepfakes sexualmente explícitos". CNN . 2024-09-26 . Consultado el 2024-09-27 .
  31. ^ "Miles de personas se manifiestan en Seúl para exigir medidas más contundentes contra los delitos de deepfake". Korea Times . 2024-09-22 . Consultado el 2024-09-27 .
  32. ^ Caramela, Sammi (16 de octubre de 2024). «Los bots deepfake 'Nudify' en Telegram tienen hasta 4 millones de usuarios mensuales» . Consultado el 16 de octubre de 2024 .
  33. ^ Kirchengast, T (2020). «Deepfakes y manipulación de imágenes: criminalización y control». Derecho de las Tecnologías de la Información y las Comunicaciones . 29 (3): 308–323. doi :10.1080/13600834.2020.1794615. S2CID  221058610.
  34. ^ "Encontrado a través de Google, comprado con Visa y Mastercard: dentro de la economía del porno deepfake". NBC News . 2023-03-27. Archivado desde el original el 2023-11-29 . Consultado el 2023-11-30 .
  35. ^ ab "Nudify Me: Las implicaciones legales de la pornografía vengativa generada por IA". JD Supra . Archivado desde el original el 2024-03-14 . Consultado el 2024-03-14 .
  36. ^ ab Kirchengast, Tyrone (16 de julio de 2020). «Deepfakes y manipulación de imágenes: criminalización y control». Derecho de las Tecnologías de la Información y las Comunicaciones . 29 (3): 308–323. doi :10.1080/13600834.2020.1794615. ISSN  1360-0834. S2CID  221058610. Archivado desde el original el 26 de enero de 2024. Consultado el 20 de abril de 2023 .
  37. ^ Branch, Legislative Services (16 de enero de 2023). «Leyes federales consolidadas de Canadá, Código Penal». laws-lois.justice.gc.ca . Archivado desde el original el 3 de junio de 2023 . Consultado el 20 de abril de 2023 .
  38. ^ Mania, Karolina (2022). "Protección legal de las víctimas de venganza y pornografía deepfake en la Unión Europea: hallazgos de un estudio jurídico comparativo". Trauma, violencia y abuso . 25 (1): 117–129. doi :10.1177/15248380221143772. PMID  36565267. S2CID  255117036. Archivado desde el original el 26 de enero de 2024 . Consultado el 20 de abril de 2023 .
  39. ^ "Defendiendo a cada persona de las apariencias falsas al mantener la explotación sujeta a la ley de rendición de cuentas de 2019 (2019 - HR 3230)". GovTrack.us . Archivado desde el original el 2023-12-03 . Consultado el 2023-11-27 .
  40. ^ "Ley de rendición de cuentas por falsificaciones profundas (2021 - HR 2395)". GovTrack.us . Archivado desde el original el 2023-12-03 . Consultado el 2023-11-27 .
  41. ^ Hill, Amelia (7 de julio de 2022). "Las reformas penales apuntan a las imágenes pornográficas no consentidas y a las 'deepfake'". The Guardian . ISSN  0261-3077 . Consultado el 18 de agosto de 2024 .
  42. ^ "Ley de seguridad en línea de 2023: artículo 188", Legislation.gov.uk , The National Archives , 2023 c. 50 (s. 188)
  43. ^ "El Gobierno toma medidas enérgicas contra la creación de 'deepfakes'". GOV.UK . Consultado el 18 de agosto de 2024 .
  44. ^ "La creación de deepfakes sexualmente explícitos se convertirá en un delito penal". BBC News . 2024-04-16 . Consultado el 2024-08-18 .
  45. ^ "Desnúdame: opciones de eliminación para víctimas de pornografía deepfake". JD Supra . Archivado desde el original el 2024-03-14 . Consultado el 2024-03-14 .
  46. ^ Kharpal, Arjun (8 de febrero de 2018). «Reddit y Pornhub prohíben los vídeos que utilizan inteligencia artificial para superponer la cara de una persona sobre la de un actor porno». CNBC . Archivado desde el original el 10 de abril de 2019. Consultado el 20 de abril de 2023 .
  47. ^ Cole, Samantha (31 de enero de 2018). "Los creadores de pornografía falsa generada por inteligencia artificial han sido expulsados ​​de su anfitrión favorito". Vice . Archivado desde el original el 20 de abril de 2023. Consultado el 20 de abril de 2023 .
  48. ^ Harwell, Drew (30 de diciembre de 2018). "Los videos pornográficos falsos se están utilizando como arma para acosar y humillar a las mujeres: 'Todo el mundo es un objetivo potencial'". The Washington Post . ISSN  0190-8286. Archivado desde el original el 14 de junio de 2019. Consultado el 20 de abril de 2023 .