stringtranslate.com

Pornografía falsa

La pornografía deepfake , o simplemente pornografía falsa , es un tipo de pornografía sintética que se crea alterando material pornográfico ya existente mediante la aplicación de tecnología deepfake a los rostros de los actores. El uso de pornografía deepfake ha generado controversia porque implica hacer y compartir videos realistas con personas sin su consentimiento, generalmente celebridades femeninas, y a veces se usa para pornografía de venganza . Se están realizando esfuerzos para combatir estas preocupaciones éticas a través de legislación y soluciones basadas en tecnología.

Historia

El término "deepfake" se acuñó en 2017 en un foro de Reddit donde los usuarios compartían videos pornográficos alterados creados mediante algoritmos de aprendizaje automático. Es una combinación de la palabra "aprendizaje profundo", que se refiere al programa utilizado para crear los vídeos, y "falso", que significa que los vídeos no son reales. [1]

La pornografía deepfake se creó originalmente a pequeña escala individual utilizando una combinación de algoritmos de aprendizaje automático , técnicas de visión por computadora y software de inteligencia artificial . El proceso comenzó reuniendo una gran cantidad de material fuente (incluidas imágenes y videos) del rostro de una persona y luego usando un modelo de aprendizaje profundo para entrenar una Red Generativa Adversaria (GAN) para crear un video falso que intercambie de manera convincente el rostro de el material original en el cuerpo de un actor porno. Sin embargo, el proceso de producción ha evolucionado significativamente desde 2018, con la llegada de varias aplicaciones públicas que han automatizado en gran medida el proceso. [2]

Desnudo profundo

En junio de 2019, se lanzó una aplicación descargable para Windows y Linux llamada DeepNude que utilizaba GAN para eliminar la ropa de imágenes de mujeres. La aplicación tenía una versión paga y otra gratuita, y la versión paga costaba 50 dólares. [3] El 27 de junio, los creadores eliminaron la aplicación y reembolsaron a los consumidores, aunque siguen existiendo varias copias de la aplicación, tanto gratuitas como de pago. [4] En GitHub , se eliminó la versión de código abierto de este programa llamada "open-deepnude". [5] La versión de código abierto tenía la ventaja de permitir entrenar en un conjunto de datos más grande de imágenes de desnudos para aumentar el nivel de precisión de la imagen de desnudos resultante. [6]

Bot de Telegram falso

En julio de 2019 se lanzó un servicio de bot deepfake en la aplicación de mensajería Telegram que utiliza tecnología de inteligencia artificial para crear imágenes de mujeres desnudas. El servicio es gratuito y tiene una interfaz fácil de usar, que permite a los usuarios enviar fotografías y recibir imágenes de desnudos manipuladas en cuestión de minutos. El servicio está conectado a siete canales de Telegram, incluido el canal principal que aloja el bot, soporte técnico y canales para compartir imágenes. Si bien se desconoce el número total de usuarios, el canal principal tiene más de 45.000 miembros. En julio de 2020, se estima que se han compartido aproximadamente 24.000 imágenes manipuladas a través de los canales para compartir imágenes. [7]

Casos notables

La tecnología deepfake se ha utilizado para crear imágenes y vídeos pornográficos y no consentidos de mujeres famosas. Uno de los primeros ejemplos ocurrió en 2017, cuando un usuario de Reddit creó un video pornográfico deepfake de Gal Gadot y se difundió rápidamente en línea. Desde entonces, ha habido numerosos casos de contenido deepfake similar dirigido a otras celebridades femeninas, como Emma Watson , Natalie Portman y Scarlett Johansson . [8] Johansson habló públicamente sobre el tema en diciembre de 2018, condenando la práctica pero también rechazando acciones legales porque considera que el acoso es inevitable. [9]

Rana Ayubb

En 2018, Rana Ayyub , una periodista de investigación india, fue blanco de una campaña de odio en línea derivada de su condena al gobierno indio, específicamente por su denuncia de la violación de una niña cachemira de ocho años. Ayyub fue bombardeada con violaciones y amenazas de muerte, y un video pornográfico manipulado de ella circuló en línea. [10] En un artículo del Huffington Post , Ayyub analizó los efectos psicológicos y sociales duraderos que esta experiencia ha tenido en ella. Explicó que seguía luchando con su salud mental y que las imágenes y vídeos seguían resurgiendo cada vez que tomaba un caso de alto perfil. [11]

Controversia atrioca

En 2023, el transmisor de Twitch Atrioc generó controversia cuando reveló accidentalmente material pornográfico deepfake en el que aparecían transmisoras femeninas de Twitch mientras estaba en vivo. Desde entonces, el influencer admitió haber pagado por pornografía generada por IA y se disculpó con las mujeres y sus fanáticos. [12] [13]

Taylor Swift

En enero de 2024, imágenes sexualmente explícitas de la cantante estadounidense Taylor Swift generadas por IA se publicaron en X (anteriormente Twitter) y se difundieron a otras plataformas como Facebook , Reddit e Instagram . [14] [15] [16] Un tweet con las imágenes fue visto más de 45 millones de veces antes de ser eliminado. [17] [15] Un informe de 404 Media encontró que las imágenes parecían haberse originado en un grupo de Telegram , cuyos miembros usaron herramientas como Microsoft Designer para generar las imágenes, usando errores ortográficos y trucos de palabras clave para evitar los filtros de contenido de Designer. [18] [19] Después de que se publicó el material, las búsquedas del nombre de Swift se desactivaron temporalmente en X , devolviendo en su lugar un mensaje de error. Después de que se difundieron las imágenes, Swift anunció que consideraría emprender acciones legales contra los creadores de las imágenes, así como contra Celeb Jihad , otro sitio web especializado en la creación de contenido pornográfico de celebridades femeninas generado por IA . Swifties (los fans de Swift) también intentaron combatir la difusión de las imágenes publicando vídeos e imágenes de sus conciertos. [20] Graphika, una empresa de investigación de desinformación, rastreó la creación de las imágenes hasta una comunidad de 4chan . [21] [22]

La controversia provocó la condena de la secretaria de prensa de la Casa Blanca , Karine Jean-Pierre , [23] el director ejecutivo de Microsoft , Satya Nadella , [24] la Red Nacional de Violación, Abuso e Incesto , [25] y SAG-AFTRA . [26] Varios políticos estadounidenses pidieron una legislación federal contra la pornografía deepfake. [27] Más tarde ese mes, los senadores estadounidenses Dick Durbin , Lindsey Graham , Amy Klobuchar y Josh Hawley presentaron un proyecto de ley bipartidista que permitiría a las víctimas demandar a personas que produjeron o poseyeron "falsificaciones digitales" con la intención de distribuirlas, o a aquellos que recibieron el material sabiendo que fue hecho sin consentimiento. [28]

Consideraciones éticas

CSAM falso

La tecnología deepfake ha hecho que la creación de material de abuso sexual infantil (CSAM), a menudo denominado pornografía infantil, sea más rápida, segura y sencilla que nunca. Los deepfakes se pueden utilizar para producir nuevo CSAM a partir de material ya existente o crear CSAM a partir de niños que no han sido sometidos a abuso sexual. Sin embargo, el CSAM deepfake puede tener implicaciones reales y directas en los niños, como difamación, acoso, extorsión e intimidación. [29]

Consentir

La mayor parte del porno deepfake está hecho con rostros de personas que no dieron su consentimiento para que su imagen se usara de manera tan sexual. En 2023, Sensity, una empresa de verificación de identidad, descubrió que "el 96% de los deepfakes son sexualmente explícitos y presentan a mujeres que no dieron su consentimiento para la creación del contenido". [30] A menudo, la pornografía deepfake se utiliza para humillar y acosar principalmente a mujeres de manera similar a la pornografía de venganza .

Luchar contra la pornografía deepfake

Enfoque técnico

La detección de deepfake se ha convertido en un área de investigación cada vez más importante en los últimos años a medida que la difusión de vídeos e imágenes falsos se ha vuelto más frecuente. Un enfoque prometedor para detectar deepfakes es mediante el uso de redes neuronales convolucionales (CNN), que han demostrado una gran precisión a la hora de distinguir entre imágenes reales y falsas. Un algoritmo basado en CNN que se ha desarrollado específicamente para la detección de deepfake es DeepRhythm, que ha demostrado una impresionante puntuación de precisión de 0,98 ( es decir, tiene éxito en la detección de imágenes deepfake el 98% de las veces). Este algoritmo utiliza una CNN previamente entrenada para extraer características de regiones faciales de interés y luego aplica un mecanismo de atención novedoso para identificar discrepancias entre las imágenes originales y las manipuladas. Si bien el desarrollo de tecnología deepfake más sofisticada presenta desafíos continuos para los esfuerzos de detección, la alta precisión de algoritmos como DeepRhythm ofrece una herramienta prometedora para identificar y mitigar la propagación de deepfakes dañinos. [31]

Además de los modelos de detección, también existen herramientas de autenticación por vídeo disponibles para el público. En 2019, Deepware lanzó la primera herramienta de detección disponible públicamente que permitía a los usuarios escanear y detectar fácilmente vídeos deepfake. De manera similar, en 2020 Microsoft lanzó un autenticador de video gratuito y fácil de usar. Los usuarios suben un vídeo sospechoso o ingresan un enlace y reciben una puntuación de confianza para evaluar el nivel de manipulación en un deepfake.

Enfoque jurídico

A partir de 2023, falta legislación que aborde específicamente la pornografía deepfake. En cambio, los tribunales están abordando el daño causado por su creación y distribución a través de las leyes penales y civiles existentes.

El recurso legal más común para las víctimas de pornografía deepfake es presentar un reclamo de pornografía de venganza porque las imágenes no son consensuadas y son de naturaleza íntima. Las consecuencias legales del porno de venganza varían de un país a otro. [32] Por ejemplo, en Canadá, la pena por publicar imágenes íntimas no consentidas es de hasta cinco años de prisión, [33] mientras que en Malta es una multa de hasta 5.000 euros. [34]

La "Ley de Responsabilidad Deepfake" se presentó en el Congreso de los Estados Unidos en 2019, pero desapareció en 2020. [35] Su objetivo era convertir en delito la producción y distribución de medios visuales alterados digitalmente que no se revelara como tales. El título especifica que realizar cualquier alteración sexual no consensuada de los medios con la intención de humillar o dañar a los participantes puede ser multado, encarcelado por hasta 5 años o ambas cosas. [32] En 2021 se introdujo una versión más nueva del proyecto de ley que habría requerido que cualquier "registro tecnológico avanzado de personificación falsa" contuviera una marca de agua y una divulgación audiovisual para identificar y explicar cualquier elemento visual y de audio alterado. El proyecto de ley también incluye que no revelar esta información con la intención de acosar o humillar a una persona con un "antecedente tecnológico avanzado de personificación falsa" que contenga contenido sexual "será multado bajo este título, encarcelado por no más de 5 años, o ambas". Sin embargo, este proyecto de ley murió en 2023. [36]

Controlando la distribución

Varias plataformas en línea importantes han tomado medidas para prohibir la pornografía deepfake. A partir de 2018, gfycat , reddit , Twitter , Discord y Pornhub han prohibido cargar y compartir contenido pornográfico deepfake en sus plataformas. [37] [38] En septiembre de ese mismo año, Google también agregó "imágenes pornográficas sintéticas involuntarias" a su lista de prohibiciones, lo que permite a las personas solicitar la eliminación de dicho contenido de los resultados de búsqueda. [ 39] Sin embargo, vale la pena señalar que, si bien Pornhub ha adoptado una postura contra el contenido no consensuado, la búsqueda de "deepfake" en su sitio web aún produce resultados y continúa publicando anuncios de sitios web y contenido deepfake.

Ver también

Referencias

  1. ^ Gaur, Loveleen; Arora, Gursimar Kaur (27 de julio de 2022), DeepFakes, Nueva York: CRC Press, págs. 91–98, doi :10.1201/9781003231493-7, ISBN 978-1-003-23149-3, recuperado el 20 de abril de 2023
  2. ^ Azmoodeh, Amin y Ali Dehghantanha. "Detección, disuasión y respuesta de deep fake: desafíos y oportunidades". arXiv.org, 2022.
  3. ^ Cole, Samantha; Maiberg, Emanuel; Koebler, Jason (26 de junio de 2019). "Esta horrible aplicación desnuda una foto de cualquier mujer con un solo clic". Vicio . Archivado desde el original el 2 de julio de 2019 . Consultado el 2 de julio de 2019 .
  4. ^ Vincent, James (3 de julio de 2019). "Copias de DeepNude AI fácilmente accesibles en línea". El borde . Archivado desde el original el 8 de febrero de 2021 . Consultado el 11 de agosto de 2023 .
  5. ^ Cox, Joseph (9 de julio de 2019). "GitHub eliminó las versiones de código abierto de DeepNude". Vicemedios . Archivado desde el original el 24 de septiembre de 2020 . Consultado el 15 de diciembre de 2019 .
  6. ^ Redmon, Jennifer (7 de julio de 2019). "DeepNude, la IA que 'desnuda' a las mujeres, ha vuelto. ¿Y ahora qué?". Cisco . Archivado desde el original el 1 de marzo de 2023 . Consultado el 11 de marzo de 2023 .
  7. ^ Hao, Karen (20 de octubre de 2020). "Se está utilizando un robot deepfake para" desnudar "a niñas menores de edad". Revisión de tecnología del MIT . Archivado desde el original el 2023-04-20 . Consultado el 20 de abril de 2023 .
  8. ^ Roettgers, Janko (21 de febrero de 2018). "Los productores de pornografía se ofrecen para ayudar a Hollywood a eliminar los videos deepfake". Variedad . Archivado desde el original el 10 de junio de 2019 . Consultado el 20 de abril de 2023 .
  9. ^ Harwell, Drew (31 de diciembre de 2018). "Scarlett Johansson sobre videos sexuales falsos generados por IA: 'Nada puede impedir que alguien corte y pegue mi imagen'". El Washington Post . ISSN  0190-8286. Archivado desde el original el 13 de junio de 2019 . Consultado el 20 de abril de 2023 .
  10. ^ Maddocks, Sophie (4 de junio de 2020). "'Una trama porno deepfake destinada a silenciarme ': explorando las continuidades entre las falsificaciones profundas pornográficas y 'políticas' ". Estudios de pornografía . 7 (4): 415–423. doi : 10.1080/23268743.2020.1757499. ISSN  2326-8743. S2CID  219910130.
  11. ^ Ayyub, Rana (21 de noviembre de 2018). "Fui víctima de un complot porno deepfake destinado a silenciarme". HuffPost Reino Unido . Archivado desde el original el 2023-04-20 . Consultado el 20 de abril de 2023 .
  12. ^ Middleton, ámbar (10 de febrero de 2023). "Un transmisor de Twitch fue sorprendido viendo pornografía deepfake de jugadoras. Las imágenes sexuales tomadas sin consentimiento pueden ser traumáticas y abusivas, dicen los expertos, y las mujeres son las mayores víctimas". Información privilegiada . Consultado el 20 de abril de 2023 .
  13. ^ Patterson, Calum (30 de enero de 2023). "El streamer de Twitch Atrioc se disculpa entre lágrimas después de pagar por deepfakes de streamers femeninas". Dexerto . Archivado desde el original el 9 de mayo de 2023 . Consultado el 14 de junio de 2023 .
  14. ^ Stokel-Walker, Chris (25 de enero de 2024). "Las imágenes explícitas de Taylor Swift creadas por IA que inundan Internet resaltan un problema importante con la IA generativa". Empresa Rápida . Archivado desde el original el 26 de enero de 2024 . Consultado el 26 de enero de 2024 .
  15. ^ ab Belanger, Ashley (25 de enero de 2024). "X no puede detener la difusión de imágenes explícitas y falsas de IA Taylor Swift". Ars Técnica . Archivado desde el original el 25 de enero de 2024 . Consultado el 25 de enero de 2024 .
  16. ^ Kelly, Samantha Murphy (25 de enero de 2024). "Las imágenes explícitas de Taylor Swift generadas por IA se difunden rápidamente en las redes sociales | CNN Business". CNN . Archivado desde el original el 25 de enero de 2024 . Consultado el 25 de enero de 2024 .
  17. ^ Cama meteorológica, Jess (25 de enero de 2024). "Los trolls han inundado X con falsificaciones gráficas de IA de Taylor Swift". El borde . Archivado desde el original el 25 de enero de 2024 . Consultado el 25 de enero de 2024 .
  18. ^ Maiberg, Emanuel; Cole ·, Samantha (25 de enero de 2024). "El porno de Taylor Swift generado por IA se volvió viral en Twitter. Así es como llegó allí". 404 Medios . Archivado desde el original el 25 de enero de 2024 . Consultado el 25 de enero de 2024 .
  19. ^ Belanger, Ashley (29 de enero de 2024). "Movimientos drásticos de X, es posible que Microsoft no detenga la difusión de pornografía falsa de Taylor Swift". Ars Técnica . Archivado desde el original el 29 de enero de 2024 . Consultado el 30 de enero de 2024 .
  20. ^ Spangler, Todd (27 de enero de 2024). "X/Twitter bloquea las búsquedas de 'Taylor Swift' como una 'acción temporal para priorizar la seguridad' después de una avalancha de falsificaciones explícitas de IA". Variedad . Archivado desde el original el 28 de enero de 2024 . Consultado el 29 de enero de 2024 .
  21. ^ Hsu, Tiffany (5 de febrero de 2024). "Imágenes falsas y explícitas de Taylor Swift comenzaron en 4chan, según un estudio". Los New York Times . Archivado desde el original el 9 de febrero de 2024 . Consultado el 10 de febrero de 2024 .
  22. ^ Belanger, Ashley (5 de febrero de 2024). "El desafío diario de 4chan provocó una avalancha de imágenes explícitas de IA Taylor Swift". Ars Técnica . Archivado desde el original el 9 de febrero de 2024 . Consultado el 9 de febrero de 2024 .
  23. ^ "Las búsquedas de Taylor Swift se bloquearon en X después de que se difundieran imágenes explícitas falsas de la cantante pop". El guardián . Reuters . 2024-01-29. Archivado desde el original el 29 de enero de 2024 . Consultado el 29 de enero de 2024 .
  24. ^ Spangler, Todd (26 de enero de 2024). "Los deepfakes explícitos generados por IA de Taylor Swift son 'alarmantes y terribles', dice el director ejecutivo de Microsoft: 'Tenemos que actuar'". Variedad . Archivado desde el original el 28 de enero de 2024 . Consultado el 29 de enero de 2024 .
  25. ^ Travers, Karen; Saliba, Emmanuelle (27 de enero de 2024). "Imágenes falsas y explícitas de Taylor Swift: la Casa Blanca está 'alarmada'". ABC Noticias . Archivado desde el original el 28 de enero de 2024 . Consultado el 29 de enero de 2024 .
  26. ^ Millman, Ethan (26 de enero de 2024). "Las imágenes explícitas de Taylor Swift generadas por IA 'deben ser ilegales', dice SAG-AFTRA". Piedra rodante . Archivado desde el original el 29 de enero de 2024 . Consultado el 29 de enero de 2024 .
  27. ^ Beaumont-Thomas, Ben (27 de enero de 2024). "La pornografía deepfake de Taylor Swift genera nuevos pedidos de legislación estadounidense". El guardián . Archivado desde el original el 29 de enero de 2024 . Consultado el 29 de enero de 2024 .
  28. ^ Montgomery, Blake (31 de enero de 2024). "Las imágenes de IA de Taylor Swift impulsan un proyecto de ley estadounidense para abordar los deepfakes sexuales no consensuados". El guardián . Archivado desde el original el 31 de enero de 2024 . Consultado el 31 de enero de 2024 .
  29. ^ Kirchengast, T (2020). "Deepfakes y manipulación de imágenes: criminalización y control". Ley de Tecnologías de la Información y las Comunicaciones . 29 (3): 308–323. doi : 10.1080/13600834.2020.1794615. S2CID  221058610.
  30. ^ "Encontrado a través de Google, comprado con Visa y Mastercard: Dentro de la economía del porno deepfake". Noticias NBC . 2023-03-27. Archivado desde el original el 29 de noviembre de 2023 . Consultado el 30 de noviembre de 2023 .
  31. ^ Gaur, Loveleen; Arora, Gursimar Kaur (27 de julio de 2022), DeepFakes, Nueva York: CRC Press, págs. 91–98, doi :10.1201/9781003231493-7, ISBN 978-1-003-23149-3, archivado desde el original el 26 de enero de 2024 , recuperado el 20 de abril de 2023
  32. ^ ab Kirchengast, Tyrone (16 de julio de 2020). "Deepfakes y manipulación de imágenes: criminalización y control". Ley de Tecnologías de la Información y las Comunicaciones . 29 (3): 308–323. doi : 10.1080/13600834.2020.1794615. ISSN  1360-0834. S2CID  221058610. Archivado desde el original el 26 de enero de 2024 . Consultado el 20 de abril de 2023 .
  33. ^ Rama, Servicios Legislativos (16 de enero de 2023). "Leyes federales consolidadas de Canadá, Código Penal". leyes-lois.justice.gc.ca . Archivado desde el original el 3 de junio de 2023 . Consultado el 20 de abril de 2023 .
  34. ^ Manía, Karolina (2022). "Protección legal de las víctimas de venganza y pornografía profunda en la Unión Europea: resultados de un estudio legal comparativo". Trauma, violencia y abuso . doi :10.1177/15248380221143772. PMID  36565267. S2CID  255117036. Archivado desde el original el 26 de enero de 2024 . Consultado el 20 de abril de 2023 .
  35. ^ "Defender a todas y cada una de las personas de apariencias falsas manteniendo la explotación sujeta a la Ley de Responsabilidad de 2019 (2019 - HR 3230)". GovTrack.us . Archivado desde el original el 3 de diciembre de 2023 . Consultado el 27 de noviembre de 2023 .
  36. ^ "Ley de Responsabilidad DE FALSIFICACIONES PROFUNDAS (2021 - HR 2395)". GovTrack.us . Archivado desde el original el 3 de diciembre de 2023 . Consultado el 27 de noviembre de 2023 .
  37. ^ Kharpal, Arjun. "Reddit y Pornhub prohíben los videos que utilizan inteligencia artificial para superponer el rostro de una persona sobre un actor con clasificación X". CNBC . Archivado desde el original el 10 de abril de 2019 . Consultado el 20 de abril de 2023 .
  38. ^ Cole, Samantha (31 de enero de 2018). "Los creadores de pornografía falsa generada por IA han sido expulsados ​​de su presentador favorito". Vicio . Archivado desde el original el 2023-04-20 . Consultado el 20 de abril de 2023 .
  39. ^ Harwell, Drew (30 de diciembre de 2018). "Los vídeos porno falsos se están utilizando como arma para acosar y humillar a las mujeres: 'Todo el mundo es un objetivo potencial'". El Washington Post . ISSN  0190-8286. Archivado desde el original el 14 de junio de 2019 . Consultado el 20 de abril de 2023 .
  40. ^ Cole, Samantha (6 de febrero de 2018). "Pornhub está prohibiendo los vídeos porno falsos generados por IA, dice que no son consensuales". Vicio . Archivado desde el original el 1 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .