La pornografía deepfake , o simplemente pornografía falsa , es un tipo de pornografía sintética que se crea alterando material pornográfico ya existente mediante la aplicación de tecnología deepfake a los rostros de los actores. El uso de pornografía deepfake ha generado controversia porque implica hacer y compartir videos realistas con personas sin su consentimiento, generalmente celebridades femeninas, y a veces se usa para pornografía de venganza . Se están realizando esfuerzos para combatir estas preocupaciones éticas a través de legislación y soluciones basadas en tecnología.
El término "deepfake" se acuñó en 2017 en un foro de Reddit donde los usuarios compartían videos pornográficos alterados creados mediante algoritmos de aprendizaje automático. Es una combinación de la palabra "aprendizaje profundo", que se refiere al programa utilizado para crear los vídeos, y "falso", que significa que los vídeos no son reales. [1]
La pornografía deepfake se creó originalmente a pequeña escala individual utilizando una combinación de algoritmos de aprendizaje automático , técnicas de visión por computadora y software de inteligencia artificial . El proceso comenzó reuniendo una gran cantidad de material fuente (incluidas imágenes y videos) del rostro de una persona y luego usando un modelo de aprendizaje profundo para entrenar una Red Generativa Adversaria (GAN) para crear un video falso que intercambie de manera convincente el rostro de el material original en el cuerpo de un actor porno. Sin embargo, el proceso de producción ha evolucionado significativamente desde 2018, con la llegada de varias aplicaciones públicas que han automatizado en gran medida el proceso. [2]
En junio de 2019, se lanzó una aplicación descargable para Windows y Linux llamada DeepNude que utilizaba GAN para eliminar la ropa de imágenes de mujeres. La aplicación tenía una versión paga y otra gratuita, y la versión paga costaba 50 dólares. [3] El 27 de junio, los creadores eliminaron la aplicación y reembolsaron a los consumidores, aunque siguen existiendo varias copias de la aplicación, tanto gratuitas como de pago. [4] En GitHub , se eliminó la versión de código abierto de este programa llamada "open-deepnude". [5] La versión de código abierto tenía la ventaja de permitir entrenar en un conjunto de datos más grande de imágenes de desnudos para aumentar el nivel de precisión de la imagen de desnudos resultante. [6]
En julio de 2019 se lanzó un servicio de bot deepfake en la aplicación de mensajería Telegram que utiliza tecnología de inteligencia artificial para crear imágenes de mujeres desnudas. El servicio es gratuito y tiene una interfaz fácil de usar, que permite a los usuarios enviar fotografías y recibir imágenes de desnudos manipuladas en cuestión de minutos. El servicio está conectado a siete canales de Telegram, incluido el canal principal que aloja el bot, soporte técnico y canales para compartir imágenes. Si bien se desconoce el número total de usuarios, el canal principal tiene más de 45.000 miembros. En julio de 2020, se estima que se han compartido aproximadamente 24.000 imágenes manipuladas a través de los canales para compartir imágenes. [7]
La tecnología deepfake se ha utilizado para crear imágenes y vídeos pornográficos y no consentidos de mujeres famosas. Uno de los primeros ejemplos ocurrió en 2017, cuando un usuario de Reddit creó un video pornográfico deepfake de Gal Gadot y se difundió rápidamente en línea. Desde entonces, ha habido numerosos casos de contenido deepfake similar dirigido a otras celebridades femeninas, como Emma Watson , Natalie Portman y Scarlett Johansson . [8] Johansson habló públicamente sobre el tema en diciembre de 2018, condenando la práctica pero también rechazando acciones legales porque considera que el acoso es inevitable. [9]
En 2018, Rana Ayyub , una periodista de investigación india, fue blanco de una campaña de odio en línea derivada de su condena al gobierno indio, específicamente por su denuncia de la violación de una niña cachemira de ocho años. Ayyub fue bombardeada con violaciones y amenazas de muerte, y un video pornográfico manipulado de ella circuló en línea. [10] En un artículo del Huffington Post , Ayyub analizó los efectos psicológicos y sociales duraderos que esta experiencia ha tenido en ella. Explicó que seguía luchando con su salud mental y que las imágenes y vídeos seguían resurgiendo cada vez que tomaba un caso de alto perfil. [11]
En 2023, el transmisor de Twitch Atrioc generó controversia cuando reveló accidentalmente material pornográfico deepfake en el que aparecían transmisoras femeninas de Twitch mientras estaba en vivo. Desde entonces, el influencer admitió haber pagado por pornografía generada por IA y se disculpó con las mujeres y sus fanáticos. [12] [13]
En enero de 2024, imágenes sexualmente explícitas de la cantante estadounidense Taylor Swift generadas por IA se publicaron en X (anteriormente Twitter) y se difundieron a otras plataformas como Facebook , Reddit e Instagram . [14] [15] [16] Un tweet con las imágenes fue visto más de 45 millones de veces antes de ser eliminado. [17] [15] Un informe de 404 Media encontró que las imágenes parecían haberse originado en un grupo de Telegram , cuyos miembros usaron herramientas como Microsoft Designer para generar las imágenes, usando errores ortográficos y trucos de palabras clave para evitar los filtros de contenido de Designer. [18] [19] Después de que se publicó el material, las búsquedas del nombre de Swift se desactivaron temporalmente en X , devolviendo en su lugar un mensaje de error. Después de que se difundieron las imágenes, Swift anunció que consideraría emprender acciones legales contra los creadores de las imágenes, así como contra Celeb Jihad , otro sitio web especializado en la creación de contenido pornográfico de celebridades femeninas generado por IA . Swifties (los fans de Swift) también intentaron combatir la difusión de las imágenes publicando vídeos e imágenes de sus conciertos. [20] Graphika, una empresa de investigación de desinformación, rastreó la creación de las imágenes hasta una comunidad de 4chan . [21] [22]
La controversia provocó la condena de la secretaria de prensa de la Casa Blanca , Karine Jean-Pierre , [23] el director ejecutivo de Microsoft , Satya Nadella , [24] la Red Nacional de Violación, Abuso e Incesto , [25] y SAG-AFTRA . [26] Varios políticos estadounidenses pidieron una legislación federal contra la pornografía deepfake. [27] Más tarde ese mes, los senadores estadounidenses Dick Durbin , Lindsey Graham , Amy Klobuchar y Josh Hawley presentaron un proyecto de ley bipartidista que permitiría a las víctimas demandar a personas que produjeron o poseyeron "falsificaciones digitales" con la intención de distribuirlas, o a aquellos que recibieron el material sabiendo que fue hecho sin consentimiento. [28]
La tecnología deepfake ha hecho que la creación de material de abuso sexual infantil (CSAM), a menudo denominado pornografía infantil, sea más rápida, segura y sencilla que nunca. Los deepfakes se pueden utilizar para producir nuevo CSAM a partir de material ya existente o crear CSAM a partir de niños que no han sido sometidos a abuso sexual. Sin embargo, el CSAM deepfake puede tener implicaciones reales y directas en los niños, como difamación, acoso, extorsión e intimidación. [29]
La mayor parte del porno deepfake está hecho con rostros de personas que no dieron su consentimiento para que su imagen se usara de manera tan sexual. En 2023, Sensity, una empresa de verificación de identidad, descubrió que "el 96% de los deepfakes son sexualmente explícitos y presentan a mujeres que no dieron su consentimiento para la creación del contenido". [30] A menudo, la pornografía deepfake se utiliza para humillar y acosar principalmente a mujeres de manera similar a la pornografía de venganza .
La detección de deepfake se ha convertido en un área de investigación cada vez más importante en los últimos años a medida que la difusión de vídeos e imágenes falsos se ha vuelto más frecuente. Un enfoque prometedor para detectar deepfakes es mediante el uso de redes neuronales convolucionales (CNN), que han demostrado una gran precisión a la hora de distinguir entre imágenes reales y falsas. Un algoritmo basado en CNN que se ha desarrollado específicamente para la detección de deepfake es DeepRhythm, que ha demostrado una impresionante puntuación de precisión de 0,98 ( es decir, tiene éxito en la detección de imágenes deepfake el 98% de las veces). Este algoritmo utiliza una CNN previamente entrenada para extraer características de regiones faciales de interés y luego aplica un mecanismo de atención novedoso para identificar discrepancias entre las imágenes originales y las manipuladas. Si bien el desarrollo de tecnología deepfake más sofisticada presenta desafíos continuos para los esfuerzos de detección, la alta precisión de algoritmos como DeepRhythm ofrece una herramienta prometedora para identificar y mitigar la propagación de deepfakes dañinos. [31]
Además de los modelos de detección, también existen herramientas de autenticación por vídeo disponibles para el público. En 2019, Deepware lanzó la primera herramienta de detección disponible públicamente que permitía a los usuarios escanear y detectar fácilmente vídeos deepfake. De manera similar, en 2020 Microsoft lanzó un autenticador de video gratuito y fácil de usar. Los usuarios suben un vídeo sospechoso o ingresan un enlace y reciben una puntuación de confianza para evaluar el nivel de manipulación en un deepfake.
A partir de 2023, falta legislación que aborde específicamente la pornografía deepfake. En cambio, los tribunales están abordando el daño causado por su creación y distribución a través de las leyes penales y civiles existentes.
El recurso legal más común para las víctimas de pornografía deepfake es presentar un reclamo de pornografía de venganza porque las imágenes no son consensuadas y son de naturaleza íntima. Las consecuencias legales del porno de venganza varían de un país a otro. [32] Por ejemplo, en Canadá, la pena por publicar imágenes íntimas no consentidas es de hasta cinco años de prisión, [33] mientras que en Malta es una multa de hasta 5.000 euros. [34]
La "Ley de Responsabilidad Deepfake" se presentó en el Congreso de los Estados Unidos en 2019, pero desapareció en 2020. [35] Su objetivo era convertir en delito la producción y distribución de medios visuales alterados digitalmente que no se revelara como tales. El título especifica que realizar cualquier alteración sexual no consensuada de los medios con la intención de humillar o dañar a los participantes puede ser multado, encarcelado por hasta 5 años o ambas cosas. [32] En 2021 se introdujo una versión más nueva del proyecto de ley que habría requerido que cualquier "registro tecnológico avanzado de personificación falsa" contuviera una marca de agua y una divulgación audiovisual para identificar y explicar cualquier elemento visual y de audio alterado. El proyecto de ley también incluye que no revelar esta información con la intención de acosar o humillar a una persona con un "antecedente tecnológico avanzado de personificación falsa" que contenga contenido sexual "será multado bajo este título, encarcelado por no más de 5 años, o ambas". Sin embargo, este proyecto de ley murió en 2023. [36]
Varias plataformas en línea importantes han tomado medidas para prohibir la pornografía deepfake. A partir de 2018, gfycat , reddit , Twitter , Discord y Pornhub han prohibido cargar y compartir contenido pornográfico deepfake en sus plataformas. [37] [38] En septiembre de ese mismo año, Google también agregó "imágenes pornográficas sintéticas involuntarias" a su lista de prohibiciones, lo que permite a las personas solicitar la eliminación de dicho contenido de los resultados de búsqueda. [ 39] Sin embargo, vale la pena señalar que, si bien Pornhub ha adoptado una postura contra el contenido no consensuado, la búsqueda de "deepfake" en su sitio web aún produce resultados y continúa publicando anuncios de sitios web y contenido deepfake.