stringtranslate.com

Falsificación profunda

Un video deepfake de Kim Jong Un creado en 2020 por un grupo de defensa no partidista, RepresentUs

Los deepfakes (una combinación de las palabras deep learning y fake [ 1 ] ) son imágenes, vídeos o audios editados o generados mediante herramientas de inteligencia artificial , que pueden representar personas reales o inexistentes. Son un tipo de medios sintéticos . [2]

Si bien el acto de crear contenido falso no es nuevo, los deepfakes aprovechan de manera única las herramientas y técnicas tecnológicas del aprendizaje automático y la inteligencia artificial , [3] [4] [5] incluidos los algoritmos de reconocimiento facial y las redes neuronales artificiales como los autocodificadores variacionales (VAE) y las redes generativas adversarias (GAN). [4] [6] A su vez, el campo de la ciencia forense de imágenes desarrolla técnicas para detectar imágenes manipuladas . [7] Los deepfakes han ganado una amplia atención por su posible uso en la creación de material de abuso sexual infantil , videos pornográficos de celebridades , pornografía de venganza , noticias falsas , engaños , acoso y fraude financiero . [8] [9] [10] [11]

Los académicos han expresado su preocupación por la posibilidad de que las falsificaciones profundas se utilicen para promover la desinformación y el discurso de odio, e interferir en las elecciones. La industria de la tecnología de la información y los gobiernos han respondido con recomendaciones para detectar y limitar su uso.

Desde el entretenimiento tradicional hasta los juegos , la tecnología deepfake ha evolucionado para ser cada vez más convincente [12] y estar disponible para el público, lo que ha permitido revolucionar las industrias del entretenimiento y los medios de comunicación . [13]

Historia

Retrato de la actriz Sydney Sweeney generado por Stable Diffusion

La manipulación fotográfica se desarrolló en el siglo XIX y pronto se aplicó a las películas. La tecnología mejoró de forma constante durante el siglo XX y, más rápidamente, con la llegada del vídeo digital .

La tecnología deepfake fue desarrollada por investigadores de instituciones académicas a partir de los años 1990, y luego por aficionados en comunidades en línea. [14] [15] Más recientemente, estos métodos fueron adoptados por la industria. [16]

Investigación académica

La investigación académica relacionada con los deepfakes se divide entre el campo de la visión por computadora , un subcampo de la informática [14], que desarrolla técnicas para crear e identificar deepfakes, y los enfoques de las humanidades y las ciencias sociales que estudian las implicaciones sociales, éticas y estéticas de los deepfakes.

Enfoques de las ciencias sociales y las humanidades sobre los deepfakes

En los estudios cinematográficos, los deepfakes demuestran cómo "el rostro humano está emergiendo como un objeto central de ambivalencia en la era digital". [17] Los artistas de video han usado deepfakes para "reescribir lúdicamente la historia del cine al readaptar el cine canónico con nuevos intérpretes estrella". [18] El académico de cine Christopher Holliday analiza cómo cambiar el género y la raza de los intérpretes en escenas de películas familiares desestabiliza las clasificaciones y categorías de género. [18] La idea de " queerizar " los deepfakes también se analiza en el análisis de Oliver M. Gingrich sobre las obras de arte de los medios que usan deepfakes para replantear el género, [19] incluida Zizi: Queering the Dataset del artista británico Jake Elwes , una obra de arte que usa deepfakes de drag queens para jugar intencionalmente con el género. También se están empezando a explorar los potenciales estéticos de los deepfakes. El historiador de teatro John Fletcher señala que las primeras demostraciones de deepfakes se presentan como performances, y las sitúa en el contexto del teatro, analizando "algunos de los cambios de paradigma más preocupantes" que representan los deepfakes como género escénico. [20]

Los filósofos y los expertos en medios de comunicación han debatido sobre la ética de los deepfakes, especialmente en relación con la pornografía. [21] La especialista en medios de comunicación Emily van der Nagel recurre a la investigación en estudios de fotografía sobre imágenes manipuladas para analizar los sistemas de verificación que permiten a las mujeres dar su consentimiento para el uso de sus imágenes. [22]

Más allá de la pornografía, los filósofos han definido a los deepfakes como una "amenaza epistémica" para el conocimiento y, por lo tanto, para la sociedad. [23] Hay muchas otras sugerencias sobre cómo lidiar con los riesgos que los deepfakes generan más allá de la pornografía, pero también para las corporaciones, los políticos y otros, de "explotación, intimidación y sabotaje personal", [24] y hay varias discusiones académicas sobre posibles respuestas legales y regulatorias tanto en estudios legales como en estudios de medios. [25] En psicología y estudios de medios, los académicos discuten los efectos de la desinformación que utiliza deepfakes, [26] [27] y el impacto social de los deepfakes. [28]

Mientras que la mayoría de los estudios académicos en inglés sobre deepfakes se centran en las ansiedades occidentales sobre la desinformación y la pornografía, el antropólogo digital Gabriele de Seta ha analizado la recepción china de los deepfakes, que se conocen como huanlian , que se traduce como "caras cambiantes". El término chino no contiene la palabra "fake" del término inglés deepfake, y de Seta sostiene que este contexto cultural puede explicar por qué la respuesta china ha sido más sobre respuestas regulatorias prácticas a "riesgos de fraude, derechos de imagen, ganancias económicas y desequilibrios éticos". [29]

Investigación informática sobre deepfakes

Un proyecto pionero fue el programa Video Rewrite, publicado en 1997. El programa modificaba secuencias de vídeo existentes de una persona hablando para mostrar a esa persona pronunciando las palabras contenidas en una pista de audio diferente. [30] Fue el primer sistema en automatizar completamente este tipo de reanimación facial, y lo hizo utilizando técnicas de aprendizaje automático para hacer conexiones entre los sonidos producidos por el sujeto de un vídeo y la forma de su rostro. [30]

Los proyectos académicos contemporáneos se han centrado en crear vídeos más realistas y en mejorar las técnicas. [31] [32] El programa "Synthesizing Obama", publicado en 2017, modifica secuencias de vídeo del expresidente Barack Obama para mostrarlo articulando las palabras contenidas en una pista de audio separada. [31] El proyecto enumera como principal contribución de investigación su técnica fotorrealista para sintetizar formas de boca a partir de audio. [31] El programa Face2Face, publicado en 2016, modifica secuencias de vídeo del rostro de una persona para mostrarla imitando las expresiones faciales de otra persona en tiempo real. [32] El proyecto enumera como principal contribución de investigación el primer método para recrear expresiones faciales en tiempo real utilizando una cámara que no captura profundidad, lo que hace posible que la técnica se realice utilizando cámaras de consumo comunes. [32]

En agosto de 2018, investigadores de la Universidad de California, Berkeley, publicaron un artículo que presenta una aplicación de baile falso que puede crear la impresión de una habilidad magistral para bailar utilizando IA. [33] Este proyecto amplía la aplicación de deepfakes a todo el cuerpo; trabajos anteriores se centraron en la cabeza o partes de la cara. [34]

Los investigadores también han demostrado que los deepfakes se están expandiendo a otros dominios, como la manipulación de imágenes médicas. [35] En este trabajo, se demostró cómo un atacante puede inyectar o eliminar automáticamente cáncer de pulmón en la tomografía computarizada 3D de un paciente . El resultado fue tan convincente que engañó a tres radiólogos y a una IA de detección de cáncer de pulmón de última generación. Para demostrar la amenaza, los autores realizaron con éxito el ataque a un hospital en una prueba de penetración de sombrero blanco . [36]

Una encuesta sobre deepfakes, publicada en mayo de 2020, ofrece una cronología de cómo ha avanzado la creación y detección de deepfakes en los últimos años. [37] La ​​encuesta identifica que los investigadores se han centrado en resolver los siguientes desafíos de la creación de deepfakes:

En general, se espera que los deepfakes tengan varias implicaciones en los medios y la sociedad, la producción de medios, las representaciones de los medios, las audiencias de los medios, el género, las leyes y regulaciones, y la política. [38]

Desarrollo amateur

El término deepfakes se originó a fines de 2017 a partir de un usuario de Reddit llamado "deepfakes". [39] Él, así como otros en la comunidad de Reddit r/deepfakes, compartieron deepfakes que crearon; muchos videos involucraban rostros de celebridades intercambiados con los cuerpos de actores en videos pornográficos, [39] mientras que el contenido no pornográfico incluía muchos videos con el rostro del actor Nicolas Cage intercambiado en varias películas. [40]

Existen otras comunidades en línea, incluidas las comunidades de Reddit que no comparten pornografía, como r/SFWdeepfakes (abreviatura de "safe for work deepfakes"), en la que los miembros de la comunidad comparten deepfakes que representan a celebridades, políticos y otras personas en escenarios no pornográficos. [41] Otras comunidades en línea continúan compartiendo pornografía en plataformas que no han prohibido la pornografía deepfake. [42]

Desarrollo comercial

En enero de 2018, se lanzó una aplicación de escritorio patentada llamada FakeApp. [43] Esta aplicación permite a los usuarios crear y compartir fácilmente videos con sus caras intercambiadas entre sí. [44] A partir de 2019, FakeApp ha sido reemplazada por alternativas de código abierto como Faceswap, DeepFaceLab basado en línea de comandos y aplicaciones basadas en la web como DeepfakesWeb.com [45] [46] [47]

Las empresas más grandes comenzaron a utilizar deepfakes. [16] Se pueden crear videos de capacitación corporativa utilizando avatares deepfake y sus voces, por ejemplo Synthesia , que utiliza tecnología deepfake con avatares para crear videos personalizados. [48] La aplicación móvil Momo creó la aplicación Zao que permite a los usuarios superponer su rostro en clips de televisión y películas con una sola imagen. [16] A partir de 2019, la empresa japonesa de inteligencia artificial DataGrid creó un deepfake de cuerpo completo que podía crear una persona desde cero. [49]

A partir de 2020, también existen deepfakes de audio y software de inteligencia artificial capaz de detectar deepfakes y clonar voces humanas después de 5 segundos de tiempo de escucha. [50] [51] [52] [53] [54] [55] En marzo de 2020 se lanzó una aplicación móvil de deepfakes, Impressions. Fue la primera aplicación para la creación de videos deepfake de celebridades desde teléfonos móviles. [56] [57]

Resurrección

La capacidad de la tecnología Deepfake para fabricar mensajes y acciones de otros puede incluir a personas fallecidas. El 29 de octubre de 2020, Kim Kardashian publicó un video que mostraba un holograma de su difunto padre Robert Kardashian creado por la empresa Kaleida, que utilizó una combinación de tecnologías de performance, seguimiento de movimiento, efectos especiales, efectos visuales y DeepFake para crear la ilusión. [58] [59]

En 2020, se creó un video deepfake de Joaquín Oliver, una víctima del tiroteo de Parkland , como parte de una campaña de seguridad de armas. Los padres de Oliver se asociaron con la organización sin fines de lucro Change the Ref y McCann Health para producir un video en el que Oliver alentaba a las personas a apoyar la legislación de seguridad de armas y a los políticos que la respaldaban a que también lo hicieran. [60]

En 2022, se utilizó un vídeo deepfake de Elvis Presley en el programa America's Got Talent 17. [ 61]

Un anuncio de televisión utilizó un video deepfake del miembro de los Beatles John Lennon , quien fue asesinado en 1980. [62]

Técnicas

Los deepfakes se basan en un tipo de red neuronal llamada autocodificador . [63] Estos consisten en un codificador, que reduce una imagen a un espacio latente de menor dimensión , y un decodificador, que reconstruye la imagen a partir de la representación latente. [64] Los deepfakes utilizan esta arquitectura al tener un codificador universal que codifica a una persona en el espacio latente. [ cita requerida ] La representación latente contiene características clave sobre sus rasgos faciales y postura corporal. Esto luego se puede decodificar con un modelo entrenado específicamente para el objetivo. Esto significa que la información detallada del objetivo se superpondrá a las características faciales y corporales subyacentes del video original, representado en el espacio latente. [ cita requerida ]

Una actualización popular de esta arquitectura conecta una red generativa adversaria al decodificador. Una GAN entrena un generador, en este caso el decodificador, y un discriminador en una relación adversaria. El generador crea nuevas imágenes a partir de la representación latente del material de origen, mientras que el discriminador intenta determinar si la imagen se genera o no. [ cita requerida ] Esto hace que el generador cree imágenes que imitan la realidad extremadamente bien, ya que cualquier defecto sería detectado por el discriminador. [65] Ambos algoritmos mejoran constantemente en un juego de suma cero . Esto hace que los deepfakes sean difíciles de combatir, ya que evolucionan constantemente; cada vez que se determina un defecto, se puede corregir. [65]

Aplicaciones

Interino

Los clones digitales de actores profesionales han aparecido en películas antes, y se espera que el progreso en la tecnología deepfake fomente la accesibilidad y la eficacia de dichos clones. [66] El uso de tecnología de IA fue un tema importante en la huelga SAG-AFTRA de 2023 , ya que las nuevas técnicas permitieron la capacidad de generar y almacenar una imagen digital para usarla en lugar de los actores. [67]

Disney ha mejorado sus efectos visuales utilizando tecnología de intercambio de rostros deepfake de alta resolución. [68] Disney mejoró su tecnología a través de un entrenamiento progresivo programado para identificar expresiones faciales, implementando una función de intercambio de rostros e iterando para estabilizar y refinar el resultado. [68] Esta tecnología deepfake de alta resolución ahorra costos operativos y de producción significativos. [69] El modelo de generación deepfake de Disney puede producir medios generados por IA con una resolución de 1024 x 1024, a diferencia de los modelos comunes que producen medios con una resolución de 256 x 256. [69] La tecnología le permite a Disney rejuvenecer personajes o revivir actores fallecidos. [70] Los fanáticos utilizaron inicialmente una tecnología similar para insertar rostros de manera no oficial en medios existentes, como superponer el rostro joven de Harrison Ford sobre el rostro de Han Solo en Solo: A Star Wars Story . [71] Disney usó deepfakes para los personajes de la Princesa Leia y el Gran Moff Tarkin en Rogue One . [72] [73]

El documental de 2020 Welcome to Chechnya utilizó tecnología deepfake para ocultar la identidad de las personas entrevistadas, a fin de protegerlas de represalias. [74]

La Agencia de Artistas Creativos ha desarrollado una herramienta para capturar la imagen de un actor "en un solo día", para desarrollar un clon digital del actor, que sería controlado por el actor o su patrimonio junto con otros derechos de personalidad . [75]

Entre las empresas que han utilizado clones digitales de actores profesionales en sus anuncios se incluyen Puma , Nike y Procter & Gamble . [76]

Un deepfake permitió que la imagen de David Beckham fuera publicada en una campaña en casi nueve idiomas para crear conciencia sobre la lucha contra la malaria. [77]

En el thriller de acción y ciencia ficción indio tamil de 2024 The Greatest of All Time , la versión adolescente del personaje de Vijay , Jeevan, es interpretada por Ayaz Khan. El rostro adolescente de Vijay fue obtenido luego mediante una falsificación profunda con inteligencia artificial . [78]

Arte

En marzo de 2018, el artista multidisciplinario Joseph Ayerle publicó la obra de arte en video Un'emozione per sempre 2.0 (título en inglés: The Italian Game ). El artista trabajó con tecnología Deepfake para crear un actor de IA, una versión sintética de la estrella de cine de los 80 Ornella Muti . Los deepfakes también se están utilizando en educación y medios para crear videos realistas y contenido interactivo, que ofrecen nuevas formas de involucrar a las audiencias. Sin embargo, también conllevan riesgos, especialmente para difundir información falsa, lo que ha llevado a llamados a un uso responsable y reglas claras. viajando en el tiempo desde 1978 hasta 2018. El Instituto Tecnológico de Massachusetts se refirió a esta obra de arte en el estudio "Collective Wisdom". [79] El artista usó el viaje en el tiempo de Ornella Muti para explorar reflexiones generacionales, al mismo tiempo que investigaba preguntas sobre el papel de la provocación en el mundo del arte. [80] Para la realización técnica, Ayerle usó escenas de la modelo fotográfica Kendall Jenner . El programa sustituyó el rostro de Jenner por el rostro calculado por IA de Ornella Muti. Como resultado, la actriz de IA tiene el rostro de la actriz italiana Ornella Muti y el cuerpo de Kendall Jenner.

Los deepfakes se han utilizado ampliamente en sátira o para parodiar a celebridades y políticos. La serie web de 2020 Sassy Justice , creada por Trey Parker y Matt Stone , presenta en gran medida el uso de figuras públicas deepfakes para satirizar eventos actuales y generar conciencia sobre la tecnología deepfake. [81]

Chantaje

Los deepfakes pueden utilizarse para generar material de chantaje que incrimine falsamente a una víctima. Un informe del Servicio de Investigación del Congreso de Estados Unidos advirtió que los deepfakes podrían utilizarse para chantajear a funcionarios electos o a quienes tienen acceso a información clasificada con fines de espionaje o influencia . [82]

Por otra parte, dado que las falsificaciones no se pueden distinguir de manera fiable de los materiales genuinos, las víctimas de chantaje real pueden ahora afirmar que los artefactos verdaderos son falsificaciones, lo que les otorga una negación plausible. El efecto es anular la credibilidad de los materiales de chantaje existentes, lo que elimina la lealtad a los chantajistas y destruye el control del chantajista. Este fenómeno puede denominarse "inflación del chantaje", ya que "devalúa" el chantaje real, haciéndolo inútil. [83] Es posible utilizar hardware GPU comercial con un pequeño programa de software para generar este contenido de chantaje para cualquier número de sujetos en grandes cantidades, lo que aumenta la oferta de contenido de chantaje falso de manera ilimitada y de manera altamente escalable. [84]

Entretenimiento

El 8 de junio de 2022, [85] Daniel Emmet, un exconcursante de AGT , se asoció con la startup de inteligencia artificial [86] [87] Metaphysic AI, para crear un deepfake hiperrealista para que pareciera Simon Cowell . Cowell, notoriamente conocido por criticar severamente a los concursantes, [88] estaba en el escenario interpretando " You're The Inspiration " de Chicago . Emmet cantó en el escenario mientras una imagen de Simon Cowell emergía en la pantalla detrás de él en una sincronicidad impecable. [89]

El 30 de agosto de 2022, Metaphysic AI hizo que Simon Cowell , Howie Mandel y Terry Crews cantaran ópera en el escenario. [90]

El 13 de septiembre de 2022, Metaphysic AI actuó con una versión sintética de Elvis Presley para la final de America's Got Talent . [91]

El proyecto de inteligencia artificial 15.ai del MIT se ha utilizado para la creación de contenido para múltiples fandoms de Internet , particularmente en las redes sociales. [92] [93] [94]

En 2023, las bandas ABBA y KISS se asociaron con Industrial Light & Magic y Pophouse Entertainment para desarrollar avatares deepfake capaces de realizar conciertos virtuales . [95]

Fraudes y estafas

Los estafadores y los defraudadores utilizan deepfakes para engañar a las personas con esquemas de inversión falsos, fraudes financieros , criptomonedas , envío de dinero y seguimiento de patrocinios . Las imágenes de celebridades y políticos se han utilizado para estafas a gran escala, así como las de individuos privados, que se utilizan en ataques de phishing . Según Better Business Bureau , las estafas deepfake son cada vez más frecuentes. [96]

Los patrocinios falsos han hecho un uso indebido de las identidades de celebridades como Taylor Swift , [97] [96] Tom Hanks , [98] Oprah Winfrey , [99] y Elon Musk ; [100] presentadores de noticias [101] como Gayle King [98] y Sally Bundock ; [102] y políticos como Lee Hsien Loong [103] y Jim Chalmers . [104] [105] Han aparecido videos de ellos en anuncios en línea en YouTube , Facebook y TikTok , que tienen políticas contra los medios sintéticos y manipulados . [106] [97] [107] Millones de personas ven anuncios que ejecutan estos videos. Una sola campaña de fraude de Medicare había sido vista más de 195 millones de veces en miles de videos. [106] [108] Los deepfakes se han utilizado para: un falso sorteo de utensilios de cocina Le Creuset por una "tarifa de envío" sin recibir los productos, excepto por cargos mensuales ocultos; [97] gomitas para bajar de peso que cobran significativamente más de lo que se dijo; [99] un falso sorteo de iPhone; [97] [107] y esquemas fraudulentos de enriquecimiento rápido , [100] [109] inversiones, [110] y criptomonedas . [103] [111]

Muchos anuncios combinan la clonación de voz de IA con un "video descontextualizado de la celebridad" para imitar la autenticidad. Otros usan un clip completo de una celebridad antes de pasar a un actor o voz diferente. [106] Algunas estafas pueden implicar deepfakes en tiempo real. [107]

Las celebridades han estado advirtiendo a las personas sobre estos patrocinios falsos y para que estén más alertas contra ellos. [96] [97] [99] Es poco probable que las celebridades presenten demandas contra cada persona que opera estafas deepfake, ya que "encontrar y demandar a usuarios anónimos de redes sociales requiere muchos recursos", aunque las cartas de cese y desistimiento a las empresas de redes sociales funcionan para lograr que se eliminen videos y anuncios. [112]

Los deepfakes de audio se han utilizado como parte de estafas de ingeniería social , engañando a las personas haciéndoles creer que están recibiendo instrucciones de una persona de confianza. [113] En 2019, el director ejecutivo de una empresa de energía con sede en el Reino Unido fue estafado por teléfono cuando un individuo le ordenó transferir 220.000 euros a una cuenta bancaria húngara porque, al parecer, utilizó tecnología deepfake de audio para hacerse pasar por la voz del director ejecutivo de la empresa matriz de la empresa. [114] [115]

A partir de 2023, la combinación de avances en la tecnología deepfake, que podría clonar la voz de un individuo a partir de una grabación de unos pocos segundos a un minuto, y nuevas herramientas de generación de texto , permitieron estafas de suplantación de identidad automatizadas, dirigidas a víctimas que utilizan un clon digital convincente de un amigo o familiar. [116]

Enmascaramiento de identidad

Los deepfakes de audio se pueden utilizar para ocultar la identidad real de un usuario. En los juegos en línea , por ejemplo, un jugador puede querer elegir una voz que suene como su personaje en el juego cuando habla con otros jugadores. Aquellos que son objeto de acoso , como mujeres, niños y personas transgénero, pueden usar estas "apariencias de voz" para ocultar su género o edad. [117]

Memes

En 2020, surgió un meme de Internet que utiliza deepfakes para generar videos de personas cantando el coro de "Baka Mitai" (ばかみたい) , una canción del juego Yakuza 0 en la serie de videojuegos Like a Dragon . En la serie, el jugador canta la canción melancólica en un minijuego de karaoke . La mayoría de las iteraciones de este meme usan un video de 2017 subido por el usuario Dobbsyrules, que hace playback de la canción, como plantilla. [118] [119]

Política

Los deepfakes se han utilizado para tergiversar la identidad de políticos conocidos en vídeos.

traducir sus discursos a múltiples idiomas regionales, lo que les permitió interactuar con diversas comunidades lingüísticas en todo el país. Este aumento en el uso de deepfakes para campañas políticas marcó un cambio significativo en las tácticas electorales en la India. [139] [140]

Pornografía

En 2017, la pornografía deepfake apareció de forma destacada en Internet, particularmente en Reddit . [141] A partir de 2019, muchos deepfakes en Internet presentan pornografía de celebridades femeninas cuya imagen se usa típicamente sin su consentimiento. [142] Un informe publicado en octubre de 2019 por la startup holandesa de ciberseguridad Deeptrace estimó que el 96% de todos los deepfakes en línea eran pornográficos. [143] A partir de 2018, un deepfake de Daisy Ridley captó la atención por primera vez, [141] entre otros. [144] [145] [146] A partir de octubre de 2019, la mayoría de los sujetos de deepfake en Internet eran actores británicos y estadounidenses. [142] Sin embargo, alrededor de una cuarta parte de los sujetos son surcoreanos, la mayoría de los cuales son estrellas del K-pop. [142] [147]

En junio de 2019, se lanzó una aplicación descargable para Windows y Linux llamada DeepNude que utilizaba redes neuronales, específicamente redes generativas antagónicas , para eliminar la ropa de las imágenes de mujeres. La aplicación tenía una versión paga y otra gratuita; la versión paga costaba 50 dólares. [148] [149] El 27 de junio, los creadores eliminaron la aplicación y reembolsaron el dinero a los consumidores. [150]

Las celebridades femeninas suelen ser un objetivo principal cuando se trata de pornografía deepfake. En 2023, aparecieron en línea videos porno deepfake de Emma Watson y Scarlett Johansson en una aplicación de intercambio de caras. [151] En 2024, circularon en línea imágenes porno deepfake de Taylor Swift . [152]

Los estudios académicos han informado que las mujeres, las personas LGBT y las personas de color (en particular activistas, políticos y aquellos que cuestionan el poder) corren un mayor riesgo de ser víctimas de la difusión de pornografía deepfake. [153]

Redes sociales

Los deepfakes han comenzado a usarse en plataformas de redes sociales populares, en particular a través de Zao, una aplicación china de deepfakes que permite a los usuarios sustituir sus propias caras por las de los personajes de escenas de películas y programas de televisión como Romeo + Julieta y Juego de Tronos . [154] La aplicación originalmente enfrentó escrutinio por su política invasiva de datos de usuario y privacidad, después de lo cual la compañía emitió una declaración afirmando que revisaría la política. [16] En enero de 2020, Facebook anunció que estaba introduciendo nuevas medidas para contrarrestar esto en sus plataformas. [155]

El Servicio de Investigación del Congreso citó evidencia no especificada que mostraba que agentes de inteligencia extranjeros usaban deepfakes para crear cuentas en las redes sociales con el propósito de reclutar individuos con acceso a información clasificada . [82]

En 2021, se publicaron en TikTok videos deepfake realistas del actor Tom Cruise , que se volvieron virales y obtuvieron más de decenas de millones de visitas. Los videos deepfake presentaban un "doppelganger generado por inteligencia artificial" de Cruise haciendo varias actividades, como jugar al golf, mostrar un truco con monedas y morder una piruleta. El creador de los clips, el artista belga de efectos visuales Chris Umé, [156] dijo que se interesó por primera vez en los deepfakes en 2018 y vio el "potencial creativo" de ellos. [157] [158]

Marionetas de calcetín

Las fotografías deepfake pueden usarse para crear títeres de calcetín , personas inexistentes, que están activas tanto en línea como en los medios tradicionales. Una fotografía deepfake parece haber sido generada junto con una leyenda para una persona aparentemente inexistente llamada Oliver Taylor, cuya identidad fue descrita como un estudiante universitario en el Reino Unido. El personaje de Oliver Taylor presentó artículos de opinión en varios periódicos y estuvo activo en los medios en línea atacando a un académico legal británico y a su esposa, como "simpatizantes del terrorismo". El académico había llamado la atención internacional en 2018 cuando inició una demanda en Israel contra NSO, una empresa de vigilancia, en nombre de personas en México que alegaron haber sido víctimas de la tecnología de piratería telefónica de NSO . Reuters solo pudo encontrar escasos registros de Oliver Taylor y "su" universidad no tenía registros de él. Muchos expertos coincidieron en que la foto de perfil es una deepfake. Varios periódicos no se han retractado de los artículos atribuidos a él ni los han eliminado de sus sitios web. Se teme que tales técnicas sean un nuevo campo de batalla en la desinformación . [159]

También se han utilizado colecciones de fotografías falsas de personas inexistentes en las redes sociales como parte de la propaganda partidista israelí . La página de Facebook "Primavera Sionista" presentó fotos de personas inexistentes junto con sus "testimonios" que pretendían explicar por qué habían abandonado su política de izquierdas para abrazar la política de derechas , y la página también contenía una gran cantidad de publicaciones del Primer Ministro de Israel, Benjamin Netanyahu , su hijo y otras fuentes israelíes de derechas. Las fotografías parecen haber sido generadas mediante tecnología de " síntesis de imágenes humanas ", un software informático que toma datos de fotos de personas reales para producir una imagen compuesta realista de una persona inexistente. En muchos de los "testimonios", la razón dada para abrazar a la derecha política fue la conmoción de enterarse de la supuesta incitación a la violencia contra el primer ministro. Los locutores de televisión israelíes de derecha transmitieron luego los "testimonios" de estas personas inexistentes basándose en el hecho de que estaban siendo "compartidos" en línea. Los locutores emitieron estos "testimonios" a pesar de no poder encontrar a esas personas, explicando "¿Por qué importa el origen?". Otros perfiles falsos de Facebook (perfiles de personas ficticias) contenían material que supuestamente contenía incitaciones similares contra el primer ministro de derecha, a lo que el primer ministro respondió que había un complot para asesinarlo. [160] [161]

Preocupaciones y contramedidas

Aunque las fotos falsas han sido abundantes durante mucho tiempo, falsificar películas ha sido más difícil, y la presencia de deepfakes aumenta la dificultad de clasificar los videos como genuinos o no. [120] El investigador de IA Alex Champandard ha dicho que la gente debería saber qué tan rápido se pueden corromper las cosas con la tecnología deepfake, y que el problema no es técnico, sino que debe resolverse con la confianza en la información y el periodismo. [120] El profesor asociado de informática Hao Li de la Universidad del Sur de California afirma que los deepfakes creados para uso malintencionado, como las noticias falsas , serán aún más dañinos si no se hace nada para difundir el conocimiento de la tecnología deepfake. [162] Li predijo que los videos genuinos y los deepfakes se volverían indistinguibles en tan solo medio año, a partir de octubre de 2019, debido al rápido avance en inteligencia artificial y gráficos de computadora. [162] El ex zar antifraude de Google , Shuman Ghosemajumder, ha calificado los deepfakes como un área de "preocupación social" y ha dicho que inevitablemente evolucionarán hasta un punto en el que puedan generarse automáticamente, y un individuo podría usar esa tecnología para producir millones de vídeos deepfake. [163]

Credibilidad de la información

Un problema importante es que la humanidad podría caer en una era en la que ya no se pueda determinar si el contenido de un medio corresponde a la verdad. [120] [164] Los deepfakes son una de las diversas herramientas para atacar la desinformación , creando dudas y socavando la confianza. Tienen el potencial de interferir con las funciones democráticas en las sociedades, como la identificación de agendas colectivas, el debate de cuestiones, la toma de decisiones informadas y la solución de problemas mediante el ejercicio de la voluntad política. [165] Las personas también pueden comenzar a descartar los eventos reales como falsos. [117]

Difamación

Los deepfakes tienen la capacidad de dañar enormemente a entidades individuales. [166] Esto se debe a que los deepfakes suelen estar dirigidos a un individuo y/o sus relaciones con otros con la esperanza de crear una narrativa lo suficientemente poderosa como para influir en la opinión pública o las creencias. Esto se puede hacer a través de la suplantación de voz deepfake, que manipula el audio para crear llamadas telefónicas o conversaciones falsas. [166] Otro método de uso de deepfakes son los comentarios privados inventados, que manipulan los medios para transmitir a individuos expresando comentarios dañinos. [166] La calidad de un video o audio negativo no necesita ser tan alta. Siempre que la imagen y las acciones de alguien sean reconocibles, un deepfake puede dañar su reputación. [117]

En septiembre de 2020, Microsoft hizo público que está desarrollando una herramienta de software de detección de Deepfake. [167]

Detección

Audio

Detectar audio falso es una tarea sumamente compleja que requiere una atención cuidadosa a la señal de audio para lograr un buen rendimiento. El uso del aprendizaje profundo, el preprocesamiento del diseño de características y el aumento del enmascaramiento han demostrado ser eficaces para mejorar el rendimiento. [168]

Video

La mayor parte de la investigación académica en torno a los deepfakes se centra en la detección de vídeos deepfake. [169] Un enfoque para la detección de deepfake es utilizar algoritmos para reconocer patrones y detectar inconsistencias sutiles que surgen en los vídeos deepfake. [169] Por ejemplo, los investigadores han desarrollado sistemas automáticos que examinan los vídeos en busca de errores, como patrones irregulares de parpadeo de la iluminación. [170] [14] Este enfoque ha sido criticado porque la detección de deepfake se caracteriza por un " objetivo móvil " donde la producción de deepfakes continúa cambiando y mejorando a medida que mejoran los algoritmos para detectar deepfakes. [169] Para evaluar los algoritmos más eficaces para detectar deepfakes, una coalición de empresas tecnológicas líderes organizó el Deepfake Detection Challenge para acelerar la tecnología de identificación de contenido manipulado. [171] El modelo ganador del Deepfake Detection Challenge tuvo una precisión del 65 % en el conjunto de 4000 vídeos de reserva. [172] Un equipo del Instituto Tecnológico de Massachusetts publicó un artículo en diciembre de 2021 que demuestra que los humanos comunes tienen una precisión del 69 al 72 % al identificar una muestra aleatoria de 50 de estos videos. [173]

En octubre de 2020, un equipo de la Universidad de Buffalo publicó un artículo en el que describía su técnica de utilizar reflejos de luz en los ojos de las personas retratadas para detectar deepfakes con una alta tasa de éxito, incluso sin el uso de una herramienta de detección de IA, al menos por el momento. [174]

En el caso de individuos bien documentados, como líderes políticos, se han desarrollado algoritmos para distinguir características basadas en la identidad, como patrones de gestos faciales y vocales, y detectar imitadores falsos. [175]

Otro equipo dirigido por Wael AbdAlmageed con Visual Intelligence and Multimedia Analytics Laboratory (VIMAL) del Information Sciences Institute de la University Of Southern California desarrolló dos generaciones [176] [177] de detectores de deepfake basados ​​en redes neuronales convolucionales . La primera generación [176] utilizó redes neuronales recurrentes para detectar inconsistencias espacio-temporales para identificar artefactos visuales dejados por el proceso de generación de deepfake. El algoritmo logró una precisión del 96% en FaceForensics++, el único punto de referencia de deepfake a gran escala disponible en ese momento. La segunda generación [177] utilizó redes profundas de extremo a extremo para diferenciar entre artefactos e información facial semántica de alto nivel utilizando redes de dos ramas. La primera rama propaga la información de color mientras que la otra rama suprime el contenido facial y amplifica las frecuencias de bajo nivel utilizando Laplaciano de Gauss (LoG) . Además, incluyeron una nueva función de pérdida que aprende una representación compacta de rostros auténticos, mientras dispersa las representaciones (es decir, las características) de los deepfakes. El enfoque de VIMAL mostró un rendimiento de vanguardia en los puntos de referencia FaceForensics++ y Celeb-DF, y el 16 de marzo de 2022 (el mismo día del lanzamiento), se utilizó para identificar el deepfake de Volodymyr Zelensky de manera inmediata sin necesidad de volver a entrenarlo ni conocer el algoritmo con el que se creó el deepfake. [ cita requerida ]

Otras técnicas sugieren que la cadena de bloques podría utilizarse para verificar la fuente de los medios de comunicación. [178] Por ejemplo, un vídeo podría tener que ser verificado a través del libro de contabilidad antes de que se muestre en las plataformas de redes sociales. [178] Con esta tecnología, solo se aprobarían vídeos de fuentes confiables, lo que disminuiría la propagación de medios deepfake posiblemente dañinos. [178]

Se sugirió la firma digital de todos los videos e imágenes de cámaras y videocámaras, incluidas las cámaras de teléfonos inteligentes, para combatir las falsificaciones profundas. [179] Eso permite rastrear cada fotografía o video hasta su propietario original, lo que puede usarse para perseguir a los disidentes. [179]

Una forma sencilla de descubrir videollamadas deepfake consiste en pedirle a la persona que llama que se gire hacia un lado. [180]

Prevención

Henry Ajder, que trabaja para Deeptrace, una empresa que detecta deepfakes, afirma que existen varias formas de protegerse contra los deepfakes en el lugar de trabajo. Se pueden utilizar contraseñas semánticas o preguntas secretas al mantener conversaciones importantes. La autenticación por voz y otras funciones de seguridad biométrica deben estar actualizadas. Eduque a los empleados sobre los deepfakes. [117]

Controversias

En marzo de 2024, se mostró un videoclip del Palacio de Buckingham , donde Kate Middleton tenía cáncer y estaba recibiendo quimioterapia. Sin embargo, el clip alimentó los rumores de que la mujer en ese clip era una deepfake de IA. [181] El director de carrera de UCLA, Johnathan Perkins, dudaba de que tuviera cáncer y especuló además que podría estar en estado crítico o muerta. [182]

Eventos de ejemplo

Una imagen falsa creada por Midjourney del arresto de Donald Trump [183]
Video deepfake: Vladimir Putin advierte a los estadounidenses sobre la interferencia electoral y la creciente división política
La imagen falsa del Papa Francisco con una chaqueta acolchada creada por Midjourney
Barack Obama
El 17 de abril de 2018, el actor estadounidense Jordan Peele , BuzzFeed y Monkeypaw Productions publicaron un deepfake de Barack Obama en YouTube, que mostraba a Barack Obama maldiciendo e insultando a Donald Trump. [184] En este deepfake, la voz y el rostro de Peele fueron transformados y manipulados para convertirse en los de Obama. La intención de este video era retratar las peligrosas consecuencias y el poder de los deepfakes, y cómo estos pueden hacer que cualquiera diga cualquier cosa.
Donald Trump
El 5 de mayo de 2019, Derpfakes publicó un deepfake de Donald Trump en YouTube, basado en un sketch que Jimmy Fallon realizó en The Tonight Show . [185] En el sketch original (emitido el 4 de mayo de 2016), Jimmy Fallon se vistió como Donald Trump y fingió participar en una llamada telefónica con Barack Obama, conversando de una manera que lo mostraba alardeando de su victoria primaria en Indiana. [185] En el deepfake, la cara de Jimmy Fallon se transformó en la cara de Donald Trump, y el audio permaneció igual. Este video deepfake fue producido por Derpfakes con una intención cómica. En marzo de 2023, una serie de imágenes parecieron mostrar a oficiales del Departamento de Policía de Nueva York sujetando a Trump. [186] Las imágenes, creadas con Midjourney , fueron publicadas inicialmente en Twitter por Eliot Higgins , pero luego se volvieron a compartir sin contexto, lo que llevó a algunos espectadores a creer que eran fotografías reales. [183]
Nancy Pelosi
En 2019, un clip del discurso de Nancy Pelosi en el Center for American Progress (pronunciado el 22 de mayo de 2019) en el que se había ralentizado el vídeo y se había alterado el tono del audio para que pareciera que estaba borracha, se distribuyó ampliamente en las redes sociales. Los críticos sostienen que no se trataba de un deepfake, sino de un superficialfake , una forma menos sofisticada de manipulación de vídeo. [187] [188]
Mark Zuckerberg
En mayo de 2019, dos artistas que colaboraron con la empresa CannyAI crearon un video deepfake del fundador de Facebook, Mark Zuckerberg, hablando sobre la recolección y el control de datos de miles de millones de personas. El video fue parte de una exhibición para educar al público sobre los peligros de la inteligencia artificial . [189] [190]
Kim Jong-un y Vladimir Putin
El 29 de septiembre de 2020, se subieron a YouTube deepfakes del líder norcoreano Kim Jong-un y del presidente ruso Vladimir Putin , creados por un grupo de defensa no partidista RepresentUs . [191] Los deepfakes de Kim y Putin estaban destinados a emitirse públicamente como comerciales para transmitir la noción de que la interferencia de estos líderes en las elecciones estadounidenses sería perjudicial para la democracia de los Estados Unidos. Los comerciales también tenían como objetivo sorprender a los estadounidenses para que se dieran cuenta de lo frágil que es la democracia y de cómo los medios y las noticias pueden influir significativamente en el camino del país independientemente de la credibilidad. [191] Sin embargo, aunque los comerciales incluían un comentario final que detallaba que las imágenes no eran reales, finalmente no se emitieron debido a los temores y la sensibilidad con respecto a cómo podrían reaccionar los estadounidenses. [191] El 5 de junio de 2023, una fuente desconocida transmitió un deepfake denunciado de Vladimir Putin en varias cadenas de radio y televisión. En el clip, Putin parece pronunciar un discurso anunciando la invasión de Rusia y llamando a una movilización general del ejército. [192]
Volodymyr Zelenski
El 16 de marzo de 2022, circuló en las redes sociales un video deepfake de un minuto de duración que mostraba al presidente de Ucrania, Volodymyr Zelenskyy, aparentemente diciéndoles a sus soldados que depongan las armas y se rindan durante la invasión rusa de Ucrania en 2022. [165] Las redes sociales rusas lo impulsaron, pero después de que fue desacreditado, Facebook y YouTube lo eliminaron. Twitter permitió el video en tuits donde se expuso como falso, pero dijo que sería eliminado si se publicaba para engañar a la gente. Los piratas informáticos insertaron la desinformación en un rastreo de noticias de texto en vivo en la estación de televisión Ukraine 24, y el video apareció brevemente en el sitio web de la estación además de afirmaciones falsas de que Zelenskyy había huido de la capital de su país, Kiev . No quedó claro de inmediato quién creó el deepfake, a lo que Zelenskyy respondió con su propio video, diciendo: "No planeamos deponer las armas. Hasta nuestra victoria". [193]
Noticias sobre el lobo
A fines de 2022, los propagandistas pro-China comenzaron a difundir videos deepfake que supuestamente eran de "Wolf News" y que utilizaban actores sintéticos. La tecnología fue desarrollada por una empresa londinense llamada Synthesia, que la comercializa como una alternativa barata a los actores reales para videos de capacitación y recursos humanos. [194]
Papa Francisco
En marzo de 2023, un trabajador de la construcción anónimo de Chicago utilizó Midjourney para crear una imagen falsa del Papa Francisco con una chaqueta acolchada blanca de Balenciaga . La imagen se volvió viral y recibió más de veinte millones de visitas. [195] El escritor Ryan Broderick lo denominó "el primer caso real de desinformación masiva mediante inteligencia artificial". [196] Los expertos consultados por Slate caracterizaron la imagen como poco sofisticada: "podrías haberla hecho en Photoshop hace cinco años". [197]
Keir Starmer
En octubre de 2023, el primer día de una conferencia del Partido Laborista, se publicó un audio falso del líder del Partido Laborista británico , Keir Starmer, insultando a sus empleados. El clip pretendía ser una cinta de audio en la que Starmer insultaba a sus empleados. [198]
Mandana Rashmika
A principios de noviembre de 2023, una famosa actriz del sur de la India , Rashmika Mandanna, cayó víctima de DeepFake cuando un video modificado de una famosa influencer británica-india, Zara Patel, con el rostro de Rashmika comenzó a circular en las redes sociales. Zara Patel afirma no haber estado involucrada en su creación. [199]
Marcos Bongbong
En abril de 2024, se publicó un video deepfake que tergiversa al presidente filipino Bongbong Marcos . Es una presentación de diapositivas acompañada de un audio deepfake de Marcos supuestamente ordenando a las Fuerzas Armadas de Filipinas y al grupo de trabajo especial que actúen "como sea apropiado" si China ataca a Filipinas. El video fue publicado en medio de tensiones relacionadas con la disputa del Mar de China Meridional . [200] La Oficina de Comunicaciones Presidenciales ha dicho que no existe tal directiva del presidente y dijo que un actor extranjero podría estar detrás de los medios fabricados. [201] La Kapisanan ng mga Brodkaster ng Pilipinas ha presentado cargos penales en relación con los medios deepfake. [202] El 22 de julio de 2024, Claire Contreras, ex partidaria de Marcos, publicó un video de Marcos supuestamente inhalando drogas ilegales. Apodado como el video del polvorón , los medios notaron su consistencia con la insinuación del predecesor de Marcos, Rodrigo Duterte , de que Marcos es un drogadicto; el video también se mostró en una manifestación de Hakbang ng Maisug organizada por personas alineadas con Duterte. [203] Dos días después, la Policía Nacional de Filipinas y la Oficina Nacional de Investigaciones , basándose en sus propios hallazgos, concluyeron que el video fue creado usando IA; señalaron además inconsistencias con la persona en el video con Marcos, como detalles en las orejas de las dos personas. [204]
Joe Biden
Antes de las elecciones presidenciales de Estados Unidos de 2024 , se realizaron llamadas telefónicas que imitaban la voz del actual presidente Joe Biden para disuadir a la gente de votar por él. La persona responsable de las llamadas fue acusada de supresión de votantes y de hacerse pasar por un candidato. La FCC propuso multarlo con 6 millones de dólares y a Lingo Telecom , la empresa que supuestamente retransmitió las llamadas, con 2 millones de dólares. [205] [206]

Respuestas

Plataformas de redes sociales

Twitter (más tarde X ) está tomando medidas activas para manejar los medios sintéticos y manipulados en su plataforma. Para evitar que se propague la desinformación, Twitter está colocando un aviso en los tuits que contienen medios manipulados y/o deepfakes que indican a los espectadores que los medios están manipulados. [207] También habrá una advertencia que aparecerá a los usuarios que planeen retuitear, dar me gusta o interactuar con el tuit. [207] Twitter también trabajará para proporcionar a los usuarios un enlace junto al tuit que contiene medios manipulados o sintéticos que se vincule a un Momento de Twitter o un artículo de noticias creíble sobre el tema relacionado, como una acción de desacreditación. [207] Twitter también tiene la capacidad de eliminar cualquier tuit que contenga deepfakes o medios manipulados que puedan representar un daño para la seguridad de los usuarios. [207] Para mejorar la detección de deepfakes y medios manipulados por parte de Twitter, Twitter pidió a los usuarios que estén interesados ​​en asociarse con ellos para trabajar en soluciones de detección de deepfakes que completen un formulario. [208]

"En agosto de 2024, los secretarios de estado de Minnesota, Pensilvania, Washington, Michigan y Nuevo México escribieron una carta abierta al propietario de X, Elon Musk, instando a que se realizaran modificaciones en el nuevo generador de texto a video de su chatbot de inteligencia artificial Grok , agregado en agosto de 2024, afirmando que había difundido información electoral errónea. [209] [ 210] [211]

Facebook ha tomado medidas para fomentar la creación de deepfakes con el fin de desarrollar un software de detección de deepfakes de última generación. Facebook fue el socio destacado en la organización del Deepfake Detection Challenge (DFDC), celebrado en diciembre de 2019, con 2114 participantes que generaron más de 35 000 modelos. [212] Los modelos de mejor rendimiento con la mayor precisión de detección fueron analizados en busca de similitudes y diferencias; estos hallazgos son áreas de interés para futuras investigaciones para mejorar y refinar los modelos de detección de deepfakes. [212] Facebook también ha detallado que la plataforma eliminará los medios generados con inteligencia artificial utilizada para alterar el habla de un individuo. [213] Sin embargo, los medios que se hayan editado para alterar el orden o el contexto de las palabras en el mensaje de una persona permanecerán en el sitio, pero se etiquetarán como falsos, ya que no fueron generados por inteligencia artificial. [213]

El 31 de enero de 2018, Gfycat comenzó a eliminar todos los deepfakes de su sitio. [214] [215] En Reddit , el subreddit r/deepfakes fue prohibido el 7 de febrero de 2018, debido a la violación de la política de "pornografía involuntaria". [216] [217] [218] [219] [220] En el mismo mes, representantes de Twitter declararon que suspenderían las cuentas sospechosas de publicar contenido deepfake no consensuado. [221] El sitio de chat Discord ha tomado medidas contra los deepfakes en el pasado, [222] y ha adoptado una postura general contra los deepfakes. [215] [223] En septiembre de 2018, Google añadió "imágenes pornográficas sintéticas involuntarias" a su lista de prohibiciones, lo que permite a cualquiera solicitar el bloqueo de resultados que muestran sus desnudos falsos. [224] [ comprobar la sintaxis de las citas ]

En febrero de 2018, Pornhub dijo que prohibiría los videos deepfakes en su sitio web porque se considera "contenido no consensual" que viola sus términos de servicio. [225] También declararon previamente a Mashable que eliminarían el contenido marcado como deepfakes. [226] Los escritores de Motherboard informaron que buscar "deepfakes" en Pornhub todavía arrojó múltiples videos deepfakes recientes. [225]

Facebook ha declarado anteriormente que no eliminaría los deepfakes de sus plataformas. [227] En cambio, los videos serán marcados como falsos por terceros y luego tendrán una prioridad menor en los feeds de los usuarios. [228] Esta respuesta fue motivada en junio de 2019 después de que un deepfake que presentaba un video de 2016 de Mark Zuckerberg circulara en Facebook e Instagram . [227]

En mayo de 2022, Google cambió oficialmente los términos del servicio de sus colaboraciones Jupyter Notebook , prohibiendo el uso de su servicio de colaboración con el propósito de crear deepfakes. [229] Esto se produjo unos días después de que se publicara un artículo de VICE, que afirmaba que "la mayoría de los deepfakes son pornografía no consensuada" y que el uso principal del popular software deepfake DeepFaceLab (DFL), "la tecnología más importante que impulsa a la gran mayoría de esta generación de deepfakes" que a menudo se usaba en combinación con Google Colabs, sería crear pornografía no consensuada, señalando el hecho de que, entre muchos otros ejemplos conocidos de implementaciones de DFL de terceros, como deepfakes encargados por The Walt Disney Company , videos musicales oficiales y la serie web Sassy Justice de los creadores de South Park , la página de GitHub de DFL también se vincula al sitio web de pornografía deepfake Mr. Deepfakes y los participantes del servidor Discord de DFL también participan en Mr. Deepfakes . [230]

Legislación

En Estados Unidos, ha habido algunas respuestas a los problemas planteados por los deepfakes. En 2018, se presentó al Senado de Estados Unidos la Ley de Prohibición de Deep Fakes Maliciosos [231] ; en 2019, la representante estadounidense por el noveno distrito congresual de Nueva York, Yvette Clarke , presentó la Ley de Responsabilidad de Deepfakes en el 116.º Congreso de los Estados Unidos . [232] Varios estados también han introducido leyes sobre deepfakes, incluidos Virginia, [233] Texas, California y Nueva York; [234] se han presentado cargos tan variados como robo de identidad , acoso cibernético y pornografía vengativa , mientras que se instan a promulgar estatutos más integrales. [224]

Entre los esfuerzos legislativos de Estados Unidos, el 3 de octubre de 2019, el gobernador de California, Gavin Newsom, firmó los proyectos de ley de la Asamblea n.º 602 y n.º 730. [235] [236] El proyecto de ley de la Asamblea n.º 602 proporciona a las personas que son objeto de contenido deepfake sexualmente explícito creado sin su consentimiento una causa de acción contra el creador del contenido. [235] El proyecto de ley de la Asamblea n.º 730 prohíbe la distribución de medios de audio o visuales deepfake maliciosos dirigidos a un candidato que se postula para un cargo público dentro de los 60 días posteriores a su elección. [236] La representante estadounidense Yvette Clarke presentó la HR 5586: Ley de Responsabilidad de Deepfakes en el 118.º Congreso de los Estados Unidos el 20 de septiembre de 2023 en un esfuerzo por proteger la seguridad nacional de las amenazas que plantea la tecnología deepfake. [237] La ​​representante estadounidense María Salazar presentó el 10 de enero de 2024 la ley HR 6943: No AI Fraud Act (Ley de No al Fraude con Inteligencia Artificial) en el 118.º Congreso de los Estados Unidos , con el fin de establecer derechos de propiedad específicos sobre la fisicalidad individual, incluida la voz. [238]

En noviembre de 2019, China anunció que las deepfakes y otras imágenes falsificadas sintéticamente deberían llevar un aviso claro sobre su falsedad a partir de 2020. El incumplimiento podría considerarse un delito, según declaró la Administración del Ciberespacio de China en su sitio web. [239] El gobierno chino parece reservarse el derecho de procesar tanto a los usuarios como a las plataformas de vídeo en línea que no cumplan las normas. [240] La Administración del Ciberespacio de China, el Ministerio de Industria y Tecnología de la Información y el Ministerio de Seguridad Pública emitieron conjuntamente la Disposición sobre la Administración del Servicio de Información de Internet de Síntesis Profunda en noviembre de 2022. [241] Las Disposiciones de Síntesis Profunda actualizadas de China (Disposiciones Administrativas sobre Síntesis Profunda en Servicios de Información Basados ​​en Internet) entraron en vigor en enero de 2023. [242]

En el Reino Unido, los productores de material deepfake podrían ser procesados ​​por acoso, pero la producción deepfake no fue un delito específico [243] hasta 2023, cuando se aprobó la Ley de Seguridad en Línea , que ilegalizó los deepfakes; el Reino Unido planea ampliar el alcance de la Ley para penalizar los deepfakes creados con "intención de causar angustia" en 2024. [244] [245]

En Canadá, en 2019, el Communications Security Establishment publicó un informe que decía que las deepfakes podrían usarse para interferir en la política canadiense, en particular para desacreditar a los políticos e influir en los votantes. [246] [247] Como resultado, existen múltiples formas para que los ciudadanos de Canadá lidien con las deepfakes si son atacados por ellas. [248] En febrero de 2024, el proyecto de ley C-63 se presentó en el 44.º Parlamento canadiense para promulgar la Ley de Daños en Línea , que modificaría el Código Penal y otras leyes. Una versión anterior del proyecto de ley, C-36, fue eliminada por la disolución del 43.º Parlamento canadiense en septiembre de 2021. [249] [250]

En la India, no existen leyes o regulaciones directas sobre la IA o los deepfakes, pero hay disposiciones en el Código Penal de la India y la Ley de Tecnología de la Información 2000/2008, que se pueden consultar para obtener recursos legales, y la nueva propuesta de Ley de la India Digital tendrá un capítulo sobre la IA y los deepfakes en particular, según el Ministro de Estado Rajeev Chandrasekhar. [251]

En Europa, la Ley de Inteligencia Artificial (AI Act) de la Unión Europea de 2024 adopta un enfoque basado en el riesgo para regular los sistemas de IA, incluidos los deepfakes. Establece categorías de "riesgo inaceptable", "riesgo alto", "riesgo específico/limitado o de transparencia" y "riesgo mínimo" para determinar el nivel de obligaciones regulatorias para los proveedores y usuarios de IA. Sin embargo, la falta de definiciones claras para estas categorías de riesgo en el contexto de los deepfakes crea desafíos potenciales para una implementación efectiva. Los académicos legales han expresado inquietudes sobre la clasificación de los deepfakes destinados a la desinformación política o la creación de imágenes íntimas no consensuadas. Existe un debate sobre si dichos usos siempre deben considerarse sistemas de IA de "alto riesgo", lo que conduciría a requisitos regulatorios más estrictos. [252]

En agosto de 2024, la Comisión de Protección de Datos de Irlanda (DPC) inició un proceso judicial contra X por su uso ilegal de los datos personales de más de 60 millones de usuarios de la UE/EEE, con el fin de entrenar sus tecnologías de IA, como su chatbot Grok . [253]

Respuesta de DARPA

En 2016, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) lanzó el programa Media Forensics (MediFor) que fue financiado hasta 2020. [254] MediFor tenía como objetivo detectar automáticamente la manipulación digital en imágenes y videos, incluidos los Deepfakes . [255] [256] En el verano de 2018, MediFor celebró un evento en el que las personas compitieron para crear videos, audio e imágenes generados por IA, así como herramientas automatizadas para detectar estos deepfakes. [257] Según el programa MediFor, estableció un marco de tres niveles de información (integridad digital, integridad física e integridad semántica) para generar una puntuación de integridad en un esfuerzo por permitir la detección precisa de medios manipulados. [258]

En 2019, DARPA organizó un "día de proponentes" para el programa Semantic Forensics (SemaFor) donde los investigadores fueron impulsados ​​a prevenir la propagación viral de medios manipulados por IA. [259] DARPA y el Programa Semantic Forensics también estaban trabajando juntos para detectar medios manipulados por IA a través de esfuerzos en el entrenamiento de computadoras para utilizar el sentido común y el razonamiento lógico. [259] Construidos sobre las tecnologías de MediFor, los algoritmos de atribución de SemaFor infieren si los medios digitales se originan de una organización o individuo en particular, mientras que los algoritmos de caracterización determinan si los medios fueron generados o manipulados con fines maliciosos. [260] En marzo de 2024, SemaFor publicó un catálogo analítico que ofrece al público acceso a recursos de código abierto desarrollados bajo SemaFor. [261] [262]

Panel internacional sobre el entorno de la información

El Panel Internacional sobre el Entorno de la Información se lanzó en 2023 como un consorcio de más de 250 científicos que trabajan para desarrollar contramedidas efectivas a las deepfakes y otros problemas creados por incentivos perversos en las organizaciones que difunden información a través de Internet. [263]

En la cultura popular

Véase también

Referencias

  1. ^ Brandon, John (16 de febrero de 2018). "Aterradora pornografía de alta tecnología: los espeluznantes videos 'deepfake' están en aumento". Fox News . Archivado desde el original el 15 de junio de 2018. Consultado el 20 de febrero de 2018 .
  2. ^ Kalpokas, Ignas; Kalpokiene, Julija (2022). Falsificaciones profundas. Springer Cham. págs. 1–2. doi :10.1007/978-3-030-93802-4. ISBN 978-3-030-93801-7.
  3. ^ Juefei-Xu, Felix; Wang, Run; Huang, Yihao; Guo, Qing; Ma, Lei; Liu, Yang (1 de julio de 2022). «Contrarrestar deepfakes maliciosos: encuesta, campo de batalla y horizonte». Revista internacional de visión por computadora . 130 (7): 1678–1734. doi :10.1007/s11263-022-01606-8. ISSN  1573-1405. PMC 9066404 . PMID  35528632. Archivado desde el original el 10 de junio de 2024 . Consultado el 15 de julio de 2023 . 
  4. ^ ab Kietzmann, J.; Lee, LW; McCarthy, IP; Kietzmann, TC (2020). "Deepfakes: ¿Truco o trato?" (PDF) . Business Horizons . 63 (2): 135–146. doi :10.1016/j.bushor.2019.11.006. S2CID  213818098. Archivado (PDF) del original el 29 de diciembre de 2022 . Consultado el 30 de diciembre de 2022 .
  5. ^ Waldrop, M. Mitchell (16 de marzo de 2020). «Medios sintéticos: el verdadero problema de los deepfakes». Revista Knowable . Reseñas anuales. doi : 10.1146/knowable-031320-1 . Archivado desde el original el 19 de noviembre de 2022. Consultado el 19 de diciembre de 2022 .
  6. ^ Schwartz, Oscar (12 de noviembre de 2018). "¿Pensabas que las noticias falsas eran malas? Las noticias falsas son el lugar donde la verdad muere". The Guardian . Archivado desde el original el 16 de junio de 2019. Consultado el 14 de noviembre de 2018 .
  7. ^ Farid, Hany (15 de septiembre de 2019). «Image Forensics». Annual Review of Vision Science . 5 (1): 549–573. doi :10.1146/annurev-vision-091718-014827. ISSN  2374-4642. PMID  31525144. S2CID  263558880. Archivado desde el original el 10 de junio de 2024. Consultado el 20 de septiembre de 2023 .
  8. ^ Banks, Alec (20 de febrero de 2018). «Qué son los deepfakes y por qué el futuro del porno es aterrador». Highsnobiety . Archivado desde el original el 14 de julio de 2021. Consultado el 20 de febrero de 2018 .
  9. ^ Christian, Jon. "Los expertos temen que la tecnología de intercambio de rostros pueda desencadenar un enfrentamiento internacional". The Outline . Archivado desde el original el 16 de enero de 2020. Consultado el 28 de febrero de 2018 .
  10. ^ Roose, Kevin (4 de marzo de 2018). «Here Come the Fake Videos, Too» (Aquí también llegan los vídeos falsos) . The New York Times . ISSN  0362-4331. Archivado desde el original el 18 de junio de 2019. Consultado el 24 de marzo de 2018 .
  11. ^ Schreyer, Marco; Sattarov, Timur; Reimer, Bernd; Borth, Damián (octubre de 2019). "Aprendizaje contradictorio de deepfakes en contabilidad". arXiv : 1910.03810 [cs.LG].
  12. ^ Caramancion, Kevin Matthe (21 de abril de 2021). "El perfil demográfico con mayor riesgo de estar desinformado". Conferencia internacional IEEE sobre IoT, electrónica y mecatrónica (IEMTRONICS) de 2021. IEEE. págs. 1–7. doi :10.1109/iemtronics52119.2021.9422597. ISBN 978-1-6654-4067-7. S2CID  234499888. Archivado desde el original el 10 de junio de 2024 . Consultado el 9 de junio de 2023 .
  13. ^ Lalla, Vejay; Mitrani, Adine; Harned, Zach. «Inteligencia artificial: deepfakes en la industria del entretenimiento». Organización Mundial de la Propiedad Intelectual . Archivado desde el original el 8 de noviembre de 2022. Consultado el 8 de noviembre de 2022 .
  14. ^ abc Harwell, Drew (12 de junio de 2019). «Los mejores investigadores de inteligencia artificial compiten por detectar vídeos 'deepfake': 'Nos superan en armamento'» . The Washington Post . Archivado desde el original el 31 de octubre de 2019. Consultado el 8 de noviembre de 2019 .
  15. ^ Sanchez, Julian (8 de febrero de 2018). "Gracias a la IA, el futuro de las 'noticias falsas' está siendo pionero en la pornografía casera". NBC News . Archivado desde el original el 9 de noviembre de 2019 . Consultado el 8 de noviembre de 2019 .
  16. ^ abcd Porter, Jon (2 de septiembre de 2019). «Otra aplicación deepfake convincente se vuelve viral y provoca una reacción inmediata en materia de privacidad». The Verge . Archivado desde el original el 3 de septiembre de 2019. Consultado el 8 de noviembre de 2019 .
  17. ^ Bode, Lisa; Lees, Dominic; Golding, Dan (29 de julio de 2021). "El rostro digital y los deepfakes en la pantalla". Convergencia: la revista internacional de investigación sobre nuevas tecnologías de los medios . 27 (4): 849–854. doi : 10.1177/13548565211034044 . ISSN:  1354-8565. S2CID  : 237402465.
  18. ^ ab Holliday, Christopher (26 de julio de 2021). «Reescribiendo las estrellas: tensiones superficiales y problemas de género en la producción de deepfakes digitales en los medios en línea». Convergencia: Revista internacional de investigación sobre nuevas tecnologías de los medios . 27 (4): 899–918. doi : 10.1177/13548565211029412 . ISSN:  1354-8565. S2CID  : 237402548.
  19. ^ Gingrich, Oliver M. (5 de julio de 2021). "GENDER*UCK: Reformulando el género y el arte mediático". Actas de EVA Londres 2021 (EVA 2021) . Talleres electrónicos en informática. doi : 10.14236/ewic/EVA2021.25 . S2CID  : 236918199.
  20. ^ Fletcher, John (2018). "Deepfakes, inteligencia artificial y algún tipo de distopía: las nuevas caras de la performance post-factual en línea". Theatre Journal . 70 (4): 455–471. doi :10.1353/tj.2018.0097. ISSN  1086-332X. S2CID  191988083.
  21. ^ Öhman, Carl (1 de junio de 2020). «Introducción al dilema del pervertido: una contribución a la crítica de la pornografía deepfake». Ética y tecnología de la información . 22 (2): 133–140. doi : 10.1007/s10676-019-09522-1 . ISSN  1572-8439. S2CID  208145457.
  22. ^ van der Nagel, Emily (1 de octubre de 2020). «Verificación de imágenes: deepfakes, control y consentimiento». Porn Studies . 7 (4): 424–429. doi :10.1080/23268743.2020.1741434. ISSN  2326-8743. S2CID  242891792. Archivado desde el original el 10 de junio de 2024 . Consultado el 9 de febrero de 2022 .
  23. ^ Fallis, Don (1 de diciembre de 2021). "La amenaza epistémica de los deepfakes". Filosofía y tecnología . 34 (4): 623–643. doi :10.1007/s13347-020-00419-2. ISSN  2210-5433. PMC 7406872 . PMID  32837868. 
  24. ^ Chesney, Robert; Citron, Danielle Keats (2018). «Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security» (Falsificaciones profundas: un desafío inminente para la privacidad, la democracia y la seguridad nacional). Revista electrónica SSRN . doi :10.2139/ssrn.3213954. ISSN  1556-5068. Archivado desde el original el 21 de diciembre de 2019. Consultado el 9 de febrero de 2022 .
  25. ^ Yadlin-Segal, Aya; Oppenheim, Yael (febrero de 2021). «¿De quién es la distopía? Deepfakes y regulación de las redes sociales». Convergencia: la revista internacional de investigación sobre nuevas tecnologías de los medios . 27 (1): 36–51. doi :10.1177/1354856520923963. ISSN  1354-8565. S2CID  219438536. Archivado desde el original el 9 de febrero de 2022. Consultado el 9 de febrero de 2022 .
  26. ^ Hwang, Yoori; Ryu, Ji Youn; Jeong, Se-Hoon (1 de marzo de 2021). "Efectos de la desinformación mediante deepfake: el efecto protector de la educación en alfabetización mediática". Ciberpsicología, comportamiento y redes sociales . 24 (3): 188–193. doi :10.1089/cyber.2020.0174. ISSN  2152-2715. PMID  33646021. S2CID  232078561. Archivado desde el original el 10 de junio de 2024 . Consultado el 9 de febrero de 2022 .
  27. ^ Hight, Craig (12 de noviembre de 2021). «Deepfakes y práctica documental en una era de desinformación». Continuum . 36 (3): 393–410. doi :10.1080/10304312.2021.2003756. ISSN  1030-4312. S2CID  244092288. Archivado desde el original el 9 de febrero de 2022 . Consultado el 9 de febrero de 2022 .
  28. ^ Hancock, Jeffrey T.; Bailenson, Jeremy N. (1 de marzo de 2021). «El impacto social de los deepfakes». Ciberpsicología, comportamiento y redes sociales . 24 (3): 149–152. doi :10.1089/cyber.2021.29208.jth. ISSN  2152-2715. PMID  33760669. S2CID  232356146. Archivado desde el original el 10 de junio de 2024. Consultado el 9 de febrero de 2022 .
  29. ^ de Seta, Gabriele (30 de julio de 2021). «Huanlian, o rostros cambiantes: Deepfakes en las plataformas de medios digitales chinos». Convergence: The International Journal of Research into New Media Technologies . 27 (4): 935–953. doi :10.1177/13548565211030185. hdl : 11250/2833613 . ISSN  1354-8565. S2CID  237402447. Archivado desde el original el 10 de junio de 2024. Consultado el 9 de febrero de 2022 .
  30. ^ ab Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). "Reescritura de vídeo: control del habla visual con audio". Actas de la 24.ª conferencia anual sobre gráficos por ordenador y técnicas interactivas – SIGGRAPH '97 . Vol. 24. págs. 353–360. doi :10.1145/258734.258880. ISBN 0897918967. S2CID  2341707. Archivado desde el original el 10 de junio de 2024 . Consultado el 10 de julio de 2023 .
  31. ^ abc Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (julio de 2017). "Sintetizando a Obama: aprendiendo a hacer playback a partir de audio". ACM Trans. Graph . 36 (4): 95:1–95:13. doi :10.1145/3072959.3073640. S2CID  207586187. Archivado desde el original el 19 de mayo de 2020 . Consultado el 10 de julio de 2023 .
  32. ^ abc Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (junio de 2016). "Face2Face: captura de rostros en tiempo real y recreación de videos RGB". Conferencia IEEE de 2016 sobre visión artificial y reconocimiento de patrones (CVPR) . IEEE. págs. 2387–2395. arXiv : 2007.14808 . doi :10.1109/CVPR.2016.262. ISBN. 9781467388511.S2CID206593693  .​
  33. ^ "Deepfakes para bailar: ahora puedes usar IA para imitar esos movimientos de baile que siempre quisiste". The Verge . Archivado desde el original el 17 de mayo de 2019. Consultado el 27 de agosto de 2018 .
  34. ^ Farquhar, Peter (27 de agosto de 2018). "Pronto habrá un programa de IA que te ayudará a bailar deepface, pero no lo llames deepfake". Business Insider Australia . Archivado desde el original el 10 de abril de 2019. Consultado el 27 de agosto de 2018 .
  35. ^ Mirsky, Yisroel; Mahler, Tom; Shelef, Ilan; Elovici, Yuval (2019). CT-GAN: manipulación maliciosa de imágenes médicas en 3D mediante aprendizaje profundo. págs. 461–478. arXiv : 1901.03597 . ISBN. 978-1-939133-06-9Archivado del original el 20 de junio de 2020 . Consultado el 18 de junio de 2020 .
  36. ^ O'Neill, Patrick Howell (3 de abril de 2019). "Investigadores demuestran que existe un malware que puede engañar a los médicos para que diagnostiquen erróneamente el cáncer". Gizmodo . Archivado desde el original el 10 de junio de 2024 . Consultado el 3 de junio de 2022 .
  37. ^ Mirsky, Yisroel; Lee, Wenke (12 de mayo de 2020). "La creación y detección de deepfakes: una encuesta". Encuestas de informática de ACM . arXiv : 2004.11138 . doi :10.1145/3425780. S2CID  216080410.
  38. ^ Karnouskos, Stamatis (2020). «Inteligencia artificial en los medios digitales: la era de los deepfakes» (PDF) . IEEE Transactions on Technology and Society . 1 (3): 1. doi :10.1109/TTS.2020.3001312. S2CID  221716206. Archivado (PDF) del original el 14 de julio de 2021. Consultado el 9 de julio de 2020 .
  39. ^ ab Cole, Samantha (24 de enero de 2018). "Estamos realmente jodidos: ahora todo el mundo está haciendo pornografía falsa generada por inteligencia artificial". Vice . Archivado desde el original el 7 de septiembre de 2019. Consultado el 4 de mayo de 2019 .
  40. ^ Haysom, Sam (31 de enero de 2018). "La gente está usando tecnología de intercambio de rostros para agregar a Nicolas Cage a películas aleatorias y qué es 2018". Mashable . Archivado desde el original el 24 de julio de 2019 . Consultado el 4 de abril de 2019 .
  41. ^ "r/SFWdeepfakes". Reddit . Archivado desde el original el 9 de agosto de 2019. Consultado el 12 de diciembre de 2018 .
  42. ^ Hathaway, Jay (8 de febrero de 2018). "Aquí es donde se han situado los 'deepfakes', el nuevo porno falso de famosos, tras la prohibición de Reddit". The Daily Dot . Archivado desde el original el 6 de julio de 2019. Consultado el 22 de diciembre de 2018 .
  43. ^ "¿Qué es un deepfake y cómo se hacen?". Online Tech Tips . 23 de mayo de 2019. Archivado desde el original el 8 de noviembre de 2019 . Consultado el 8 de noviembre de 2019 .
  44. ^ Robertson, Adi (11 de febrero de 2018). "Estoy usando inteligencia artificial para intercambiar las caras de Elon Musk y Jeff Bezos, y soy muy malo en eso". The Verge . Archivado desde el original el 24 de marzo de 2018. Consultado el 8 de noviembre de 2019 .
  45. ^ "Deepfakes web | La mejor aplicación de intercambio de rostros en línea". Deepfakes web . Archivado desde el original el 14 de julio de 2021 . Consultado el 21 de febrero de 2021 .
  46. ^ "Faceswap es el principal software de deepfakes multiplataforma, gratuito y de código abierto". 15 de octubre de 2019. Archivado desde el original el 31 de mayo de 2021. Consultado el 14 de julio de 2021 – vía WordPress.
  47. ^ "DeepFaceLab es una herramienta que utiliza el aprendizaje automático para reemplazar rostros en los vídeos. Incluye binarios preconstruidos y listos para funcionar en Windows 7, 8 y 10 (consulte readme.md).: iperov/DeepFaceLab". 19 de junio de 2019. Archivado desde el original el 9 de mayo de 2019. Consultado el 6 de marzo de 2019 en GitHub.
  48. ^ Chandler, Simon. "Por qué los deepfakes son un resultado positivo para la humanidad". Forbes . Archivado desde el original el 16 de noviembre de 2020. Consultado el 3 de noviembre de 2020 .
  49. ^ Pangburn, DJ (21 de septiembre de 2019). "Te lo advertimos: las falsificaciones de cuerpo completo son el siguiente paso en la imitación humana basada en IA". Fast Company . Archivado desde el original el 8 de noviembre de 2019. Consultado el 8 de noviembre de 2019 .
  50. ^ Lyons, Kim (29 de enero de 2020). "La FTC afirma que la tecnología detrás de los deepfakes de audio está mejorando". The Verge . Archivado desde el original el 30 de enero de 2020. Consultado el 8 de febrero de 2020 .
  51. ^ "Muestras de audio de "Transferencia de aprendizaje desde la verificación de habla a la síntesis de texto a voz de múltiples hablantes"". google.github.io . Archivado desde el original el 14 de noviembre de 2019 . Consultado el 8 de febrero de 2020 .
  52. ^ Jia, sí; Zhang, Yu; Weiss, Ron J.; Wang, Quan; Shen, Jonatán; Ren, Fei; Chen, Zhifeng; Nguyen, Patricio; Pang, Ruoming; Moreno, Ignacio López; Wu, Yonghui (2 de enero de 2019). "Transferir el aprendizaje de la verificación del hablante a la síntesis de texto a voz de varios hablantes". arXiv : 1806.04558 [cs.CL].
  53. ^ "TUM Visual Computing: Prof. Matthias Nießner". www.niessnerlab.org . Archivado desde el original el 21 de febrero de 2020 . Consultado el 8 de febrero de 2020 .
  54. ^ "Recarga de página completa". IEEE Spectrum: noticias sobre tecnología, ingeniería y ciencia . 11 de diciembre de 2019. Archivado desde el original el 26 de junio de 2020. Consultado el 8 de febrero de 2020 .
  55. ^ "Contribución de datos a la investigación de detección de deepfakes". 24 de septiembre de 2019. Archivado desde el original el 5 de febrero de 2020. Consultado el 8 de febrero de 2020 .
  56. ^ Thalen, Mikael. "Ahora puedes hacerte pasar por una celebridad con solo unos pocos clics". daily dot . Archivado desde el original el 6 de abril de 2020 . Consultado el 3 de abril de 2020 .
  57. ^ Matthews, Zane (6 de marzo de 2020). «Diversión o miedo: la aplicación Deepfake pone rostros de famosos en tus selfies». Kool1079 . Archivado desde el original el 24 de marzo de 2020. Consultado el 6 de marzo de 2020 .
  58. ^ "Kanye West, Kim Kardashian y su padre: ¿deberíamos hacer hologramas de los muertos?". BBC News . 31 de octubre de 2020. Archivado desde el original el 15 de noviembre de 2020. Consultado el 11 de noviembre de 2020 .
  59. ^ "Kanye West le regaló a Kim Kardashian un holograma de su padre por su cumpleaños". themodems . 30 de octubre de 2020. Archivado desde el original el 11 de noviembre de 2020 . Consultado el 11 de noviembre de 2020 .
  60. ^ "Joaquín Oliver, víctima de Parkland, vuelve a la vida en un desgarrador pedido a los votantes". adage.com . 2 de octubre de 2020. Archivado desde el original el 11 de noviembre de 2020 . Consultado el 11 de noviembre de 2020 .
  61. ^ Bowenbank, Starr (14 de septiembre de 2022). «Simon Cowell hace un dueto con Elvis en la última actuación de Metaphysic en deepfake de 'AGT': mira». Billboard . Archivado desde el original el 15 de septiembre de 2022 . Consultado el 8 de noviembre de 2022 .
  62. ^ "Anuncio publicitario de John Lennon 'One Laptop per Child'". YouTube . 26 de diciembre de 2008. Archivado desde el original el 9 de marzo de 2023 . Consultado el 9 de marzo de 2023 .
  63. ^ Zucconi, Alan (14 de marzo de 2018). «Entender la tecnología detrás de DeepFakes». Alan Zucconi . Archivado desde el original el 1 de noviembre de 2019. Consultado el 8 de noviembre de 2019 .
  64. ^ "¿Qué es un Deepfake?". Blog - Synthesys . 3 de mayo de 2022. Archivado desde el original el 26 de junio de 2022 . Consultado el 17 de mayo de 2022 .
  65. ^ ab "Estos nuevos trucos pueden ser más inteligentes que los videos deepfake, por ahora". Wired . ISSN  1059-1028. Archivado desde el original el 3 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  66. ^ Kemp, Luke (8 de julio de 2019). «En la era de los deepfakes, ¿podrían los actores virtuales dejar a los humanos sin trabajo?». The Guardian . ISSN  0261-3077. Archivado desde el original el 20 de octubre de 2019. Consultado el 20 de octubre de 2019 .
  67. ^ Verma, Pranshu (21 de julio de 2023). «Los clones digitales creados con tecnología de inteligencia artificial podrían dejar obsoletos a los extras de Hollywood». The Washington Post . Archivado desde el original el 20 de julio de 2023. Consultado el 4 de enero de 2024 .
  68. ^ ab "Intercambio de rostros neuronales de alta resolución para efectos visuales | Disney Research Studios". Archivado desde el original el 27 de noviembre de 2020 . Consultado el 7 de octubre de 2020 .
  69. ^ ab "La tecnología deepfake de Disney podría usarse en cine y televisión". Blooloop . 21 de julio de 2020. Archivado desde el original el 12 de noviembre de 2020 . Consultado el 7 de octubre de 2020 .
  70. ^ Lindley, Jon A. (2 de julio de 2020). «Disney se aventura a recuperar a los 'actores muertos' mediante el reconocimiento facial». Tech Times . Archivado desde el original el 14 de julio de 2021. Consultado el 7 de octubre de 2020 .
  71. ^ Radulovic, Petrana (17 de octubre de 2018). «Harrison Ford es la estrella de Solo: A Star Wars Story gracias a la tecnología deepfake». Polygon . Archivado desde el original el 20 de octubre de 2019. Consultado el 20 de octubre de 2019 .
  72. ^ Winick, Erin. «Cómo actuar como la marioneta de Carrie Fisher le dio una carrera a la Princesa Leia de Rogue One». MIT Technology Review . Archivado desde el original el 23 de octubre de 2019. Consultado el 20 de octubre de 2019 .
  73. ^ "Deepfake Luke Skywalker es otro paso en el camino del CGI macabro". British GQ . 10 de febrero de 2022. Archivado desde el original el 22 de mayo de 2022 . Consultado el 3 de junio de 2022 .
  74. ^ Dazed (10 de febrero de 2022). "¿Los deepfakes reescribirán la historia tal como la conocemos?". Dazed . Archivado desde el original el 8 de junio de 2022. Consultado el 3 de junio de 2022 .
  75. ^ Schwartzel, Erich (21 de diciembre de 2023). «Behind the Making of My AI Digital Double». Wall Street Journal . Archivado desde el original el 6 de enero de 2024. Consultado el 4 de enero de 2024 .
  76. ^ Coffee, Patrick (18 de junio de 2023). «Las celebridades usan inteligencia artificial para tomar el control de sus propias imágenes». Wall Street Journal . Archivado desde el original el 10 de junio de 2024. Consultado el 4 de enero de 2024 .
  77. ^ Editora, Katie Prescott, Technology Business (23 de agosto de 2024). "El hombre que crea personas falsas, como David Beckham hablando nueve idiomas". www.thetimes.com . Consultado el 22 de octubre de 2024 . {{cite web}}: |last=tiene nombre genérico ( ayuda )CS1 maint: multiple names: authors list (link)
  78. ^ Desk, Tupaki (8 de septiembre de 2024). "No Vijay, aquí está quién interpretó la versión más joven de él en The GOAT". Tupaki English . Consultado el 8 de noviembre de 2024 . {{cite web}}: |last=tiene nombre genérico ( ayuda )
  79. ^ Katerina Cizek, William Uricchio y Sarah Wolozin: Sabiduría colectiva | Instituto Tecnológico de Massachusetts [1] Archivado el 4 de marzo de 2020 en Wayback Machine.
  80. ^ "ANSA | Ornella Muti en cortometraje en Firenze". 3 de noviembre de 2017. Archivado desde el original el 27 de febrero de 2020. Consultado el 27 de febrero de 2020 .
  81. ^ "Los creadores de 'South Park' lanzan la nueva serie satírica deepfake 'Sassy Justice'". NME . 27 de octubre de 2020. Archivado desde el original el 10 de junio de 2024 . Consultado el 7 de junio de 2022 .
  82. ^ ab Tayler, Kelley M.; Harris, Laurie A. (8 de junio de 2021). Deep Fakes and National Security (Informe). Servicio de Investigación del Congreso . p. 1. Archivado desde el original el 14 de junio de 2022 . Consultado el 19 de julio de 2021 .
  83. ^ Limberg, Peter (24 de mayo de 2020). «Chantaje inflacionario». CultState . Archivado desde el original el 24 de enero de 2021. Consultado el 18 de enero de 2021 .
  84. ^ "Para Kappy". Telegraph . 24 de mayo de 2020. Archivado desde el original el 24 de enero de 2021 . Consultado el 18 de enero de 2021 .
  85. ^ "Los jueces de AGT tuvieron reacciones invaluables ante esa audición de canto de Simon Cowell". Sitio oficial de NBC Insider . 8 de junio de 2022. Archivado desde el original el 29 de agosto de 2022. Consultado el 29 de agosto de 2022 .
  86. ^ Marr, Bernard. "¿Puede una IA metaversa ganar America's Got Talent? (Y qué significa eso para la industria)". Forbes . Archivado desde el original el 30 de agosto de 2022. Consultado el 30 de agosto de 2022 .
  87. ^ Morales, Jowi (10 de junio de 2022). «Deepfakes Go Mainstream: How Metaphysic's AGT Entry Will Impact Entertainment» (Los deepfakes se generalizan: cómo la entrada de Metaphysic en AGT afectará al entretenimiento). MUO . Archivado desde el original el 10 de junio de 2024 . Consultado el 29 de agosto de 2022 .
  88. ^ Carter, Rebecca (1 de junio de 2019). "Los espectadores de BGT critican a Simon Cowell por un comentario 'grosero' y 'desagradable' hacia un concursante". Entertainment Daily . Archivado desde el original el 31 de agosto de 2022. Consultado el 31 de agosto de 2022 .
  89. ^ ¡ Simon Cowell canta en el escenario! Metaphysic te dejará sin palabras | AGT 2022, archivado del original el 29 de agosto de 2022 , consultado el 29 de agosto de 2022
  90. ^ Segarra, Edward. «Los jueces de 'AGT' Simon Cowell y Howie Mandel reciben un tratamiento de 'deepfake' por parte de la organización de inteligencia artificial Metaphysic: míralo aquí». USA TODAY . Archivado desde el original el 31 de agosto de 2022 . Consultado el 31 de agosto de 2022 .
  91. ^ Bowenbank, Starr (14 de septiembre de 2022). «Simon Cowell hace un dueto con Elvis en la última actuación de Metaphysic en deepfake de 'AGT': mira». Billboard . Archivado desde el original el 10 de junio de 2024 . Consultado el 15 de septiembre de 2022 .
  92. ^ Zwiezen, Zack (18 de enero de 2021). «Sitio web que te permite hacer que GLaDOS diga lo que quieras». Kotaku . Archivado desde el original el 17 de enero de 2021 . Consultado el 18 de enero de 2021 .
  93. ^ Ruppert, Liana (18 de enero de 2021). "Haz que GLaDOS de Portal y otros personajes queridos digan las cosas más raras con esta aplicación". Game Informer . Archivado desde el original el 18 de enero de 2021 . Consultado el 18 de enero de 2021 .
  94. ^ Clayton, Natalie (19 de enero de 2021). «Haz que el elenco de TF2 recite viejos memes con esta herramienta de texto a voz con inteligencia artificial». PC Gamer . Archivado desde el original el 19 de enero de 2021. Consultado el 19 de enero de 2021 .
  95. ^ Sherman, Maria (3 de diciembre de 2023). "Kiss se despide de las giras en vivo y se convierte en la primera banda estadounidense en pasar a lo virtual y convertirse en avatares digitales". AP News . Associated Press. Archivado desde el original el 1 de enero de 2024 . Consultado el 4 de enero de 2024 .
  96. ^ abc Cerullo, Megan (9 de enero de 2024). "Anuncios generados por IA que usan la imagen de Taylor Swift engañan a los fans con un falso obsequio de Le Creuset". CBS News . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  97. ^ ABCDE Hsu, Tiffany; Lu, Yiwen (9 de enero de 2024). "No, esa no es Taylor Swift vendiendo utensilios de cocina Le Creuset". Los New York Times . pag. B1 . Consultado el 10 de enero de 2024 .
  98. ^ abc Taylor, Derrick Bryson (2 de octubre de 2023). «Tom Hanks advierte sobre un anuncio dental que utiliza una versión de inteligencia artificial de él». The New York Times . ISSN  0362-4331. Archivado desde el original el 10 de junio de 2024. Consultado el 12 de octubre de 2023 .
  99. ^ abc Johnson, Kirsten (11 de diciembre de 2023). «Mujer de Arizona es víctima de una estafa deepfake que utiliza celebridades en las redes sociales». ABC 15 Arizona . Archivado desde el original el 10 de enero de 2024. Consultado el 10 de enero de 2024 .
  100. ^ ab Kulundu, Mary (4 de enero de 2024). «Videos deepfake de Elon Musk utilizados en una estafa para hacerse rico rápidamente». Agence France-Presse . Archivado desde el original el 10 de junio de 2024. Consultado el 10 de enero de 2024 .
  101. ^ Esmael, Lisbet (3 de enero de 2024). "PH necesita un enfoque multifacético frente a los videos 'deepfake' utilizados para estafar a los filipinos". CNN Filipinas . Archivado desde el original el 10 de enero de 2024. Consultado el 10 de enero de 2024 .
  102. ^ Gerken, Tom (4 de octubre de 2023). «MrBeast y estrellas de la BBC utilizadas en vídeos de estafas deepfake». BBC News . Archivado desde el original el 10 de junio de 2024. Consultado el 10 de enero de 2024 .
  103. ^ ab Lim, Kimberly (29 de diciembre de 2023). «El primer ministro de Singapur, Lee, advierte que las falsificaciones «muy convincentes» «difunden desinformación» tras la aparición de un vídeo falso suyo» . South China Morning Post . Archivado desde el original el 9 de enero de 2024. Consultado el 10 de enero de 2024 .
  104. ^ Taylor, Josh (30 de noviembre de 2023). «Un estafador pagó a Facebook 7 céntimos por visualización para que hiciera circular un vídeo de los deepfakes Jim Chalmers y Gina Rinehart». The Guardian . Archivado desde el original el 10 de junio de 2024. Consultado el 10 de enero de 2024 .
  105. ^ Palmer, Joseph Olbrycht (14 de diciembre de 2023). «Deepfake de funcionarios del Tesoro australiano y del banco central utilizado para promover una estafa de inversión». Agence France-Presse . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  106. ^ abc Koebler, Jason (9 de enero de 2024). "Los anuncios de celebridades falsificados que promueven estafas de Medicare proliferan en YouTube". 404 Media . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  107. ^ abc Rosenblatt, Kalhan (3 de octubre de 2023). «MrBeast califica de 'estafa' el anuncio de TikTok que muestra una versión de inteligencia artificial de él». NBC News . Archivado desde el original el 10 de enero de 2024. Consultado el 10 de enero de 2024 .
  108. ^ Koebler, Jason (25 de enero de 2024). «YouTube elimina 1.000 vídeos de anuncios fraudulentos de inteligencia artificial sobre celebridades». 404 Media . Archivado desde el original el 10 de junio de 2024. Consultado el 2 de febrero de 2024 .
  109. ^ Bucci, Nino (27 de noviembre de 2023). «Dick Smith critica a Facebook después de que unos estafadores hicieran circular un anuncio en vídeo deepfake». The Guardian . Archivado desde el original el 10 de junio de 2024. Consultado el 10 de enero de 2024 .
  110. ^ Lomas, Natasha (7 de julio de 2023). «Martin Lewis advierte sobre el «primer» anuncio fraudulento de vídeo deepfake que circula en Facebook». TechCrunch . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  111. ^ Lopatto, Elizabeth (3 de enero de 2024). «Nueva y divertida consecuencia de los deepfakes: estafas criptográficas más convincentes». The Verge . Archivado desde el original el 10 de enero de 2024. Consultado el 10 de enero de 2024 .
  112. ^ Spoto, Maia; Poritz, Isaiah (11 de octubre de 2023). "MrBeast y Tom Hanks son víctimas de estafas con inteligencia artificial mientras la ley se apresura a seguirles el ritmo". Bloomberg Law . Archivado desde el original el 10 de enero de 2024. Consultado el 10 de enero de 2024 .
  113. ^ Statt, Nick (5 de septiembre de 2019). «Los ladrones ahora están usando deepfakes de IA para engañar a las empresas y conseguir que les envíen dinero». Archivado desde el original el 15 de septiembre de 2019. Consultado el 13 de septiembre de 2019 .
  114. ^ Damiani, Jesse. "Se utilizó una falsificación de voz para estafar a un director ejecutivo por 243.000 dólares". Forbes . Archivado desde el original el 14 de septiembre de 2019. Consultado el 9 de noviembre de 2019 .
  115. ^ "Deepfakes, explicado". MIT Sloan . 5 de marzo de 2024. Archivado desde el original el 5 de marzo de 2024 . Consultado el 6 de marzo de 2024 .
  116. ^ Schwartz, Christopher; Wright, Matthew (17 de marzo de 2023). "Los deepfakes de voz están llamando: esto es lo que son y cómo evitar ser estafado". The Conversation . Archivado desde el original el 4 de enero de 2024. Consultado el 4 de enero de 2024 .
  117. ^ abcd Somers, Meredith (21 de julio de 2020). "Deepfakes, explained". MIT Sloan . Archivado desde el original el 5 de marzo de 2024 . Consultado el 6 de marzo de 2024 .
  118. ^ C, Kim (22 de agosto de 2020). «Coffin Dance and More: The Music Memes of 2020 So Far». Tiempos de música . Archivado desde el original el 26 de junio de 2021. Consultado el 26 de agosto de 2020 .
  119. ^ Sholihyn, Ilyas (7 de agosto de 2020). "Alguien hizo un deepfake a los políticos de Singapur para que hicieran playback de esa canción japonesa de memes". AsiaOne . Archivado desde el original el 3 de septiembre de 2020 . Consultado el 26 de agosto de 2020 .
  120. ^ abcd "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 3 de febrero de 2018. Archivado desde el original el 13 de abril de 2019 . Consultado el 9 de abril de 2018 .
  121. ^ Gensing, Patrick. "Deepfakes: ¿Auf dem Weg in eine alternativa Realität?". Archivado desde el original el 11 de octubre de 2018 . Consultado el 9 de abril de 2018 .
  122. ^ Romano, Aja (18 de abril de 2018). «El anuncio de servicio público simulado de Obama de Jordan Peele es una advertencia de doble filo contra las noticias falsas». Vox . Archivado desde el original el 11 de junio de 2019. Consultado el 10 de septiembre de 2018 .
  123. ^ Swenson, Kyle (11 de enero de 2019). «Una estación de televisión de Seattle transmitió imágenes manipuladas del discurso de Trump en la Oficina Oval. El empleado fue despedido». The Washington Post . Archivado desde el original el 15 de abril de 2019. Consultado el 11 de enero de 2019 .
  124. ^ O'Sullivan, Donie (4 de junio de 2019). "El Congreso investigará los deepfakes mientras un video manipulado de Pelosi causa revuelo". CNN . Archivado desde el original el 29 de junio de 2019. Consultado el 9 de noviembre de 2019 .
  125. ^ "#TellTheTruthBelgium". Extinction Rebellion Belgium . Archivado desde el original el 25 de abril de 2020. Consultado el 21 de abril de 2020 .
  126. ^ Holubowicz, Gerald (15 de abril de 2020). «Extinction Rebellion se enfrenta a los deepfakes». Journalism.design (en francés). Archivado desde el original el 29 de julio de 2020. Consultado el 21 de abril de 2020 .
  127. ^ Carnahan, Dustin (16 de septiembre de 2020). "Videos falsificados refuerzan creencias falsas sobre la salud mental de Biden". The Conversation . Archivado desde el original el 9 de abril de 2022. Consultado el 9 de abril de 2022 .
  128. ^ Parker, Ashley (7 de septiembre de 2020). «Trump y sus aliados intensifican sus esfuerzos para difundir desinformación y noticias falsas» . The Independent . Consultado el 9 de abril de 2022 .
  129. ^ Christopher, Nilesh (18 de febrero de 2020). "Acabamos de ver el primer uso de deepfakes en una campaña electoral india". Vice . Archivado desde el original el 19 de febrero de 2020. Consultado el 19 de febrero de 2020 .
  130. ^ "Amabie: la criatura mítica que regresa a la era del coronavirus". The Economist . 28 de abril de 2020. ISSN  0013-0613. Archivado desde el original el 20 de mayo de 2021 . Consultado el 3 de junio de 2021 .
  131. ^ Roth, Andrew (22 de abril de 2021). «Parlamentarios europeos en la mira de videollamadas falsas que imitan a la oposición rusa». The Guardian . Archivado desde el original el 29 de marzo de 2022. Consultado el 29 de marzo de 2022 .
  132. ^ Ivanov, Maxim; Rothrock, Kevin (22 de abril de 2021). "Hola, soy Leonid Volkov*. Utilizando un vídeo falso y haciéndose pasar por la mano derecha de Navalny, unos bromistas rusos engañan a políticos y periodistas letones para que les inviten y les den una entrevista televisiva". Meduza . Archivado desde el original el 29 de marzo de 2022 . Consultado el 29 de marzo de 2022 .
  133. ^ "Diputados holandeses en videoconferencia con una imitación falsa del jefe de gabinete de Navalny". NL Times . 24 de abril de 2021. Archivado desde el original el 10 de junio de 2024 . Consultado el 29 de marzo de 2022 .
  134. ^ "Asistente de Navalny que realiza 'deepfake' ataca a legisladores europeos". The Moscow Times . 23 de abril de 2021. Archivado desde el original el 29 de marzo de 2022 . Consultado el 29 de marzo de 2022 .
  135. ^ Vincent, James (30 de abril de 2021). «El 'deepfake' que supuestamente engañó a los políticos europeos era solo un imitador, dicen los bromistas». The Verge . Archivado desde el original el 29 de marzo de 2022. Consultado el 29 de marzo de 2022 .
  136. ^ Novak, Matt (8 de mayo de 2023). «El vídeo viral de Kamala Harris diciendo tonterías es en realidad un deepfake». Forbes . Archivado desde el original el 18 de julio de 2023. Consultado el 18 de julio de 2023 .
  137. ^ "PolitiFact - Kamala Harris no estaba hablando de hoy, ayer o mañana. Este video está alterado". Politifact . Archivado desde el original el 10 de junio de 2024. Consultado el 18 de julio de 2023 .
  138. ^ Shuham, Matt (8 de junio de 2023). «El anuncio de campaña de DeSantis muestra imágenes falsas de inteligencia artificial de Trump abrazando a Fauci». HuffPost . Archivado desde el original el 10 de junio de 2024 . Consultado el 8 de junio de 2023 .
  139. ^ Christopher, Nilesh (marzo de 2024). "Los votantes indios están siendo bombardeados con millones de deepfakes. Los candidatos políticos lo aprueban". Wired . Archivado desde el original el 12 de marzo de 2024. Consultado el 20 de octubre de 2024 .
  140. ^ "Lo que un deepfaker indio nos cuenta sobre la seguridad electoral global". Bloomberg . Archivado desde el original el 1 de abril de 2024 . Consultado el 20 de octubre de 2024 .
  141. ^ ab Roettgers, Janko (21 de febrero de 2018). «Productores de pornografía ofrecen ayuda a Hollywood para eliminar los vídeos deepfake». Variety . Archivado desde el original el 10 de junio de 2019. Consultado el 28 de febrero de 2018 .
  142. ^ abc Dickson, EJ (7 de octubre de 2019). «Deepfake Porn Is Still a Threat, Particularly for K-Pop Stars». Rolling Stone . Archivado desde el original el 30 de octubre de 2019. Consultado el 9 de noviembre de 2019 .
  143. ^ "El estado de las deepfakes: panorama, amenazas e impacto" (PDF) . Deeptrace . 1 de octubre de 2019. Archivado (PDF) del original el 9 de agosto de 2020 . Consultado el 7 de julio de 2020 .
  144. ^ Goggin, Benjamin (7 de junio de 2019). «Del porno a 'Juego de Tronos': cómo los deepfakes y los vídeos falsos de aspecto realista triunfan». Business Insider . Archivado desde el original el 8 de noviembre de 2019. Consultado el 9 de noviembre de 2019 .
  145. ^ Lee, Dave (3 de febrero de 2018). «La 'pornografía falsa' tiene graves consecuencias». Archivado desde el original el 1 de diciembre de 2019. Consultado el 9 de noviembre de 2019 .
  146. ^ Cole, Samantha (19 de junio de 2018). «La solución de inteligencia artificial de Gfycat para combatir los deepfakes no funciona». Vice . Archivado desde el original el 8 de noviembre de 2019. Consultado el 9 de noviembre de 2019 .
  147. ^ Zoe, Freni (24 de noviembre de 2019). «El porno deepfake llegó para quedarse». Medium . Archivado desde el original el 10 de diciembre de 2019. Consultado el 10 de diciembre de 2019 .
  148. ^ Cole, Samantha; Maiberg, Emanuel; Koebler, Jason (26 de junio de 2019). «Esta horrible aplicación desnuda la foto de cualquier mujer con un solo clic». Vice . Archivado desde el original el 2 de julio de 2019. Consultado el 2 de julio de 2019 .
  149. ^ Cox, Joseph (9 de julio de 2019). «GitHub eliminó las versiones de código abierto de DeepNude». Vice Media . Archivado desde el original el 24 de septiembre de 2020. Consultado el 14 de julio de 2019 .
  150. ^ "pic.twitter.com/8uJKBQTZ0o". 27 de junio de 2019. Archivado desde el original el 6 de abril de 2021 . Consultado el 3 de agosto de 2019 .
  151. ^ "En los últimos dos días, se han difundido en Facebook e Instagram cientos de anuncios de contenido sexual falso que utilizan el rostro de Emma Watson". NBC News . 7 de marzo de 2023. Archivado desde el original el 29 de febrero de 2024 . Consultado el 8 de marzo de 2024 .
  152. ^ Filipovic, Jill (31 de enero de 2024). «Cualquiera podría ser víctima de los 'deepfakes', pero hay una razón por la que Taylor Swift es un objetivo». The Guardian . ISSN  0261-3077. Archivado desde el original el 10 de junio de 2024. Consultado el 8 de marzo de 2024 .
  153. ^ Paris, Britt (octubre de 2021). «Configuración de falsificaciones: cuerpos digitalizados, políticas de evidencia y agencia». Redes sociales + Sociedad . 7 (4). doi : 10.1177/20563051211062919 . ISSN  2056-3051.
  154. ^ Damiani, Jesse. "La aplicación china Deepfake Zao se vuelve viral y enfrenta críticas inmediatas por los datos de los usuarios y la política de seguridad". Forbes . Archivado desde el original el 14 de septiembre de 2019. Consultado el 18 de noviembre de 2019 .
  155. ^ "Antes de las elecciones irlandesas y estadounidenses, Facebook anuncia nuevas medidas contra los vídeos 'deepfake'". Independent.ie . 7 de enero de 2020. Archivado desde el original el 8 de enero de 2020 . Consultado el 7 de enero de 2020 .
  156. ^ "Cómo el experto visual belga Chris Ume ideó los deepfakes de Tom Cruise". The Statesman . 6 de marzo de 2021. Archivado desde el original el 24 de agosto de 2022 . Consultado el 24 de agosto de 2022 .
  157. ^ Metz, Rachel. «Cómo un Tom Cruise deepfake en TikTok se convirtió en una empresa de inteligencia artificial muy real». CNN . Archivado desde el original el 10 de junio de 2024. Consultado el 17 de marzo de 2022 .
  158. ^ Corcoran, Mark; Henry, Matt (23 de junio de 2021). "Este no es Tom Cruise. Eso es lo que tiene tan preocupados a los expertos en seguridad". ABC News . Archivado desde el original el 28 de marzo de 2022 . Consultado el 28 de marzo de 2022 .
  159. ^ Reuters, 15 de julio de 2020, El deepfake utilizado para atacar a una pareja de activistas muestra una nueva frontera de desinformación Archivado el 26 de septiembre de 2020 en Wayback Machine
  160. ^ 972 Magazine, 12 de agosto de 2020, "¿'Izquierdistas por Bibi'? Se expone la propaganda falsa a favor de Netanyahu: según una serie de publicaciones en Facebook, el primer ministro israelí está ganando seguidores de izquierda, excepto que ninguna de las personas en cuestión existe" Archivado el 14 de agosto de 2020 en Wayback Machine
  161. ^ El séptimo ojo, 9 de junio de 2020, הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזו יפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות שקריות על מנת להגביר את השנאה והפילוג בחברה הישראלית Archivado el 18 de agosto de 2020 en Wayback Machine.
  162. ^ ab "La tecnología deepfake perfecta podría llegar antes de lo esperado". www.wbur.org . 2 de octubre de 2019. Archivado desde el original el 30 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  163. ^ Sonnemaker, Tyler. "Mientras las plataformas de redes sociales se preparan para la ola entrante de deepfakes, el ex 'zar del fraude' de Google predice que el mayor peligro es que los deepfakes eventualmente se vuelvan aburridos". Business Insider . Archivado desde el original el 14 de abril de 2021. Consultado el 14 de abril de 2021 .
  164. ^ Vaccari, Cristian; Chadwick, Andrew (enero de 2020). "Deepfakes y desinformación: exploración del impacto del vídeo político sintético en el engaño, la incertidumbre y la confianza en las noticias". Social Media + Society . 6 (1): 205630512090340. doi : 10.1177/2056305120903408 . ISSN  2056-3051. S2CID  214265502.
  165. ^ ab Pawelec, M (2022). "Deepfakes y democracia (teoría): cómo los medios audiovisuales sintéticos para la desinformación y el discurso de odio amenazan las funciones democráticas fundamentales". Sociedad digital: ética, aspectos socio-legales y gobernanza de la tecnología digital . 1 (2): 19. doi :10.1007/s44206-022-00010-6. PMC 9453721. PMID  36097613 . 
  166. ^ abc Bateman, Jon (2020). «Resumen». Deepfakes y medios sintéticos en el sistema financiero : 1–2. Archivado desde el original el 20 de abril de 2021. Consultado el 28 de octubre de 2020 .
  167. ^ Kelion, Leo (septiembre de 2020). «Microsoft presenta una herramienta de detección de deepfakes». BBC News . Archivado desde el original el 14 de abril de 2021. Consultado el 15 de abril de 2021 .
  168. ^ Cohen, Ariel; Rimon, Inbal; Aflalo, Eran; Permuter, Haim H. (junio de 2022). "Un estudio sobre el aumento de datos en la lucha contra la suplantación de voz". Comunicación del habla . 141 : 56–67. arXiv : 2110.10491 . doi :10.1016/j.specom.2022.04.005. S2CID  239050551.
  169. ^ abc Manke, Kara (18 de junio de 2019). «Los investigadores utilizan rasgos faciales para desenmascarar a los 'deepfakes'». Berkeley News . Archivado desde el original el 9 de noviembre de 2019. Consultado el 9 de noviembre de 2019 .
  170. ^ Farid, Hany (1 de diciembre de 2006). "Digital Doctoring: How to Tell the Real from the Fake" (Médico digital: cómo distinguir lo real de lo falso). Significance . 3 (4): 162–166. doi : 10.1111/j.1740-9713.2006.00197.x . S2CID  13861938.
  171. ^ "Únete al desafío de detección de deepfake (DFDC)". deepfakedetectionchallenge.ai. Archivado desde el original el 12 de enero de 2020. Consultado el 8 de noviembre de 2019 .
  172. ^ "Resultados del desafío de detección de deepfakes: una iniciativa abierta para avanzar en la IA". ai.facebook.com . Archivado desde el original el 29 de octubre de 2020 . Consultado el 30 de septiembre de 2022 .
  173. ^ Groh, Matthew; Epstein, Ziv; Firestone, Chaz; Picard, Rosalind (2022). "Detección de deepfakes por multitudes humanas, máquinas y multitudes informadas por máquinas". Actas de la Academia Nacional de Ciencias . 119 (1). arXiv : 2105.06496 . Bibcode :2022PNAS..11910013G. doi : 10.1073/pnas.2110013119 . PMC 8740705 . PMID  34969837. 
  174. ^ Hu, Shu; Li, Yuezun; Lyu, Siwei (12 de octubre de 2020). "Exposición de rostros generados por GAN mediante reflejos especulares corneales inconsistentes". arXiv : 2009.11924 [cs.CV].
  175. ^ Boháček, M; Farid, H (29 de noviembre de 2022). "Protección de los líderes mundiales contra las falsificaciones profundas mediante gestos faciales, vocales y de comportamiento". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 119 (48): e2216035119. Bibcode :2022PNAS..11916035B. doi : 10.1073/pnas.2216035119 . PMC 9860138 . PMID  36417442. 
  176. ^ ab "Google Scholar". scholar.google.com . Consultado el 30 de abril de 2022 .
  177. ^ ab Masi, Iacopo; Killekar, Aditya; Mascarenhas, Royston Marian; Gurudatt, Shenoy Pratik; Abdalmageed, Wael (2020). Red recurrente de dos ramas para aislar deepfakes en videos. Lecture Notes in Computer Science. Vol. 12352. págs. 667–684. arXiv : 2008.03412 . doi :10.1007/978-3-030-58571-6_39. ISBN 978-3-030-58570-9Archivado desde el original el 10 de junio de 2024 . Consultado el 30 de abril de 2022 .
  178. ^ abc "La solución blockchain a nuestros problemas de deepfake". Wired . ISSN  1059-1028. Archivado desde el original el 7 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  179. ^ ab Leetaru, Kalev. "Por qué las firmas digitales no evitarán las falsificaciones profundas pero sí ayudarán a los gobiernos represivos". Forbes . Archivado desde el original el 14 de abril de 2021. Consultado el 17 de febrero de 2021 .
  180. ^ "Para descubrir una videollamada deepfake, pídele a la persona que llama que se gire hacia un lado". Metaphysic . 8 de agosto de 2022. Archivado desde el original el 26 de agosto de 2022 . Consultado el 24 de agosto de 2022 .
  181. ^ "El anillo de Kate Middleton desaparece misteriosamente y genera más preocupaciones sobre la inteligencia artificial". MSN. 25 de marzo de 2024. Archivado desde el original el 10 de junio de 2024. Consultado el 19 de mayo de 2024 .
  182. ^ Hindustan Times (5 de abril de 2024). «'La admisión de Kate sobre el cáncer es falsa', el fan de Meghan Markle y director de la UCLA, Johnathan Perkins, lanza una teoría de la conspiración». The Hindustan Times. Archivado desde el original el 10 de junio de 2024. Consultado el 19 de mayo de 2024 .
  183. ^ ab "Imágenes generadas por IA del arresto de Trump circulan en las redes sociales". AP News. 21 de marzo de 2023. Archivado desde el original el 10 de junio de 2024. Consultado el 10 de octubre de 2023 .
  184. ^ Fagan, Kaylee. "Un video viral que parecía mostrar a Obama llamando a Trump 'dips---' muestra una nueva tendencia inquietante llamada 'deepfakes'". Business Insider . Archivado del original el 22 de septiembre de 2020. Consultado el 3 de noviembre de 2020 .
  185. ^ ab "El auge de los deepfakes y la amenaza a la democracia". The Guardian . Archivado desde el original el 1 de noviembre de 2020 . Consultado el 3 de noviembre de 2020 .
  186. ^ "Trump comparte una foto falsa de sí mismo rezando mientras imágenes de su arresto difundidas por inteligencia artificial se difunden en Internet". The Independent . 24 de marzo de 2023. Archivado desde el original el 28 de mayo de 2023 . Consultado el 16 de junio de 2023 .
  187. ^ Towers-Clark, Charles. «Mona Lisa y Nancy Pelosi: las implicaciones de los deepfakes». Forbes . Archivado desde el original el 23 de noviembre de 2020. Consultado el 7 de octubre de 2020 .
  188. ^ "¿Cuál es la diferencia entre un deepfake y un superficial?". 21 de abril de 2020. Archivado desde el original el 26 de junio de 2022. Consultado el 5 de diciembre de 2021 .
  189. ^ "Galería: 'Spectre' se lanza (nota de prensa)". Bill Posters . 29 de mayo de 2019. Archivado desde el original el 10 de junio de 2024 . Consultado el 15 de mayo de 2024 .
  190. ^ Cole, Samantha (11 de junio de 2019). «Este deepfake de Mark Zuckerberg pone a prueba las políticas de Facebook sobre vídeos falsos». Vice . Archivado desde el original el 10 de junio de 2024. Consultado el 15 de mayo de 2024 .
  191. ^ abc "Deepfake Putin está aquí para advertir a los estadounidenses sobre su propia perdición". MIT Technology Review . Archivado desde el original el 30 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  192. ^ Sonne, Paul (5 de junio de 2023). «Discurso falso de Putin en el que se pide la ley marcial emitido en Rusia». The New York Times . Archivado desde el original el 10 de junio de 2024. Consultado el 6 de junio de 2023 .
  193. ^ Allyn, Bobby (16 de marzo de 2022). "El video deepfake de Zelenskyy podría ser 'la punta del iceberg' en la guerra de información, advierten los expertos". NPR . Archivado desde el original el 29 de marzo de 2022 . Consultado el 17 de marzo de 2022 .
  194. ^ Satariano, Adam; Mozur, Paul (7 de febrero de 2023). «La gente que aparece en pantalla es falsa. La desinformación es real». The New York Times . Archivado desde el original el 10 de junio de 2024. Consultado el 10 de febrero de 2023 .
  195. ^ "El Papa Francisco en un deepfake de Balenciaga engaña a millones: 'Definitivamente da miedo'". New York Post . 28 de marzo de 2023. Archivado desde el original el 10 de junio de 2024 . Consultado el 16 de junio de 2023 .
  196. ^ Lu, Donna (31 de marzo de 2023). «Desinformación, errores y el Papa en un cigarrillo: lo que la IA en rápida evolución puede –y no puede– hacer». The Guardian . Archivado desde el original el 10 de junio de 2024. Consultado el 16 de junio de 2023 .
  197. ^ Murphy, Heather Tal (29 de marzo de 2023). «El Papa con abrigo no proviene de un lugar sagrado». Slate . Archivado desde el original el 10 de junio de 2024 . Consultado el 16 de junio de 2023 .
  198. ^ "Se publicó un audio deepfake de Sir Keir Starmer el primer día de la conferencia del Partido Laborista". Sky News . Consultado el 29 de mayo de 2024 .
  199. ^ "La mujer que aparece en un vídeo deepfake con el rostro de Rashmika Mandanna rompe el silencio: estoy profundamente perturbada y molesta por lo que está sucediendo". The Times of India . 9 de noviembre de 2023. ISSN  0971-8257. Archivado desde el original el 23 de noviembre de 2023 . Consultado el 23 de noviembre de 2023 .
  200. ^ Cupin, Bea (24 de abril de 2024). «Malacañang denuncia un audio deepfake de Marcos ordenando un ataque militar». Rappler . Archivado desde el original el 10 de junio de 2024 . Consultado el 14 de mayo de 2024 .
  201. ^ Flores, Helen (27 de abril de 2024). "Un 'actor extranjero' se ve detrás del audio falso del presidente Marcos". The Philippines Star . Archivado desde el original el 10 de junio de 2024. Consultado el 14 de mayo de 2024 .
  202. ^ Argosino, Faith (14 de mayo de 2024). "Raps denunciados contra páginas de redes sociales por contenido difamatorio, Marcos deepfake". Philippine Daily Inquirer . Archivado desde el original el 10 de junio de 2024 . Consultado el 14 de mayo de 2024 .
  203. ^ "¿Rostros intercambiados? Detector de deepfakes señala el supuesto video de Marcos como 'sospechoso'". Rappler . 23 de julio de 2024 . Consultado el 25 de julio de 2024 .
  204. ^ "Los hallazgos del NBI y la PNP muestran que el video de 'Polvorón' es falso". The Philippine Star . 24 de julio de 2024 . Consultado el 25 de julio de 2024 .
  205. ^ Shepardson, David (23 de mayo de 2024). "Consultor político estadounidense acusado de robo de llamadas a Biden generadas por inteligencia artificial". Reuters .
  206. ^ "Acusan a consultor político estadounidense por llamadas automáticas a Biden generadas por inteligencia artificial". AP News . 23 de mayo de 2024. Archivado desde el original el 10 de junio de 2024 . Consultado el 8 de junio de 2024 .
  207. ^ abcd "Ayúdanos a dar forma a nuestra estrategia para abordar los medios sintéticos y manipulados". blog.twitter.com . Archivado desde el original el 28 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  208. ^ "TechCrunch". TechCrunch . 11 de noviembre de 2019. Archivado desde el original el 14 de julio de 2021 . Consultado el 7 de octubre de 2020 .
  209. ^ Cinco estados de EE.UU. presionan a Musk para que arregle el chatbot de inteligencia artificial por la desinformación electoral Reuters, consultado el 19 de agosto de 2024.
  210. ^ Se difunden imágenes nocivas después de que Elon Musk lanzara una herramienta de inteligencia artificial con pocas medidas de protección The Washington Post, consultado el 19 de agosto de 2024.
  211. ^ Cómo Elon Musk y X se convirtieron en los mayores proveedores de desinformación en línea Rolling Stone consultado el 19 de agosto de 2024.
  212. ^ ab "Resultados del desafío de detección de deepfakes: una iniciativa abierta para avanzar en la IA". ai.facebook.com . Archivado desde el original el 29 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  213. ^ ab Paul, Katie (4 de febrero de 2020). "Twitter etiquetará los deepfakes y otros medios engañosos". Reuters . Archivado desde el original el 10 de octubre de 2020. Consultado el 7 de octubre de 2020 .
  214. ^ Cole, Samantha (31 de enero de 2018). "Creadores de pornografía falsa generada por IA han sido expulsados ​​de su anfitrión favorito". Vice . Archivado desde el original el 1 de noviembre de 2019. Consultado el 18 de noviembre de 2019 .
  215. ^ ab Ghoshal, Abhimanyu (7 de febrero de 2018). «Twitter, Pornhub y otras plataformas prohíben la pornografía de celebridades generada por IA». The Next Web . Archivado desde el original el 20 de diciembre de 2019. Consultado el 9 de noviembre de 2019 .
  216. ^ Böhm, Markus (7 de febrero de 2018). ""Deepfakes ": Firmen gehen gegen gefälschte Promi-Pornos vor". Spiegel en línea . Archivado desde el original el 23 de septiembre de 2019 . Consultado el 9 de noviembre de 2019 .
  217. ^ barbara.wimmer (8 de febrero de 2018). "Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos". Futurezone.at (en alemán). Archivado desde el original el 8 de febrero de 2018 . Consultado el 9 de noviembre de 2019 .
  218. ^ "Deepfakes: Reddit también se dedica al porno falso". heise online (en alemán). 8 de febrero de 2018. Archivado desde el original el 10 de abril de 2019. Consultado el 9 de noviembre de 2019 .
  219. ^ "Reddit prohíbe el porno deepfake - derStandard.de". DER STANDARD (en alemán austríaco). Archivado desde el original el 9 de noviembre de 2019. Consultado el 9 de noviembre de 2019 .
  220. ^ Robertson, Adi (7 de febrero de 2018). «Reddit prohíbe las comunidades de pornografía con inteligencia artificial que publican 'deepfakes'». The Verge . Archivado desde el original el 24 de septiembre de 2019. Consultado el 9 de noviembre de 2019 .
  221. ^ Cole, Samantha (6 de febrero de 2018). «Twitter es la última plataforma en prohibir la pornografía generada por inteligencia artificial». Vice . Archivado desde el original el 1 de noviembre de 2019. Consultado el 8 de noviembre de 2019 .
  222. ^ Price, Rob (27 de enero de 2018). «Discord acaba de cerrar un grupo de chat dedicado a compartir vídeos pornográficos editados con IA para incluir a celebridades». Business Insider Australia . Archivado desde el original el 15 de diciembre de 2019. Consultado el 28 de noviembre de 2019 .
  223. ^ "Twitter prohíbe la pornografía 'deepfake' generada por inteligencia artificial". Engadget . 20 de julio de 2019. Archivado desde el original el 15 de diciembre de 2019 . Consultado el 28 de noviembre de 2019 .
  224. ^ ab Harrell, Drew. "Los videos pornográficos falsos se están utilizando como arma para acosar y humillar a las mujeres: 'Todo el mundo es un objetivo potencial'". The Washington Post . Archivado desde el original el 2 de enero de 2019. Consultado el 1 de enero de 2019 .
  225. ^ ab Cole, Samantha (6 de febrero de 2018). "Pornhub prohíbe los videos pornográficos falsos generados por IA y afirma que no son consensuales". Vice . Archivado desde el original el 1 de noviembre de 2019. Consultado el 9 de noviembre de 2019 .
  226. ^ Beres, Damon; Gilmer, Marcus (2 de febrero de 2018). "Una guía sobre los 'deepfakes', la última crisis moral de Internet". Mashable . Archivado desde el original el 9 de diciembre de 2019 . Consultado el 9 de noviembre de 2019 .
  227. ^ ab "Facebook ha prometido dejar colgado un vídeo deepfake de Mark Zuckerberg". MIT Technology Review . Archivado desde el original el 16 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  228. ^ Cole, Samantha (11 de junio de 2019). «Este deepfake de Mark Zuckerberg pone a prueba las políticas de Facebook sobre vídeos falsos». Vice . Archivado desde el original el 12 de octubre de 2019. Consultado el 9 de noviembre de 2019 .
  229. ^ Anderson, Martin (2022). Google ha prohibido el entrenamiento de deepfakes en Colab Archivado el 30 de mayo de 2022 en Wayback Machine , Unite.ai, 28 de mayo de 2022
  230. ^ Maiberg, Emanuel (2022). Se necesitan 2 clics para pasar de 'Deep Tom Cruise' a la pornografía deepfake vil Archivado el 30 de mayo de 2022 en Wayback Machine , VICE, 17 de mayo de 2022
  231. ^ Sasse, Ben (21 de diciembre de 2018). "S. 3805–115th Congress (2017-2018): Malicious Deep Fake Prohibition Act of 2018" (S. 3805–115.º Congreso (2017-2018): Ley de prohibición de falsificaciones profundas maliciosas de 2018). www.congress.gov . Archivado desde el original el 16 de octubre de 2019. Consultado el 16 de octubre de 2019 .
  232. ^ Clarke, Yvette D. (28 de junio de 2019). "HR3230 - 116.º Congreso (2019-2020): Defendiendo a cada persona de las apariencias falsas al mantener la explotación sujeta a la Ley de rendición de cuentas de 2019". www.congress.gov . Archivado desde el original el 17 de diciembre de 2019 . Consultado el 16 de octubre de 2019 .
  233. ^ "El porno de venganza 'deepfake' ahora es ilegal en Virginia". TechCrunch . Julio de 2019. Archivado desde el original el 14 de julio de 2021 . Consultado el 16 de octubre de 2019 .
  234. ^ Iacono Brown, Nina (15 de julio de 2019). "El Congreso quiere resolver los deepfakes para 2020. Eso debería preocuparnos". Revista Slate . Archivado desde el original el 16 de octubre de 2019. Consultado el 16 de octubre de 2019 .
  235. ^ ab "Texto del proyecto de ley - AB-602 Representación de un individuo utilizando tecnología digital o electrónica: material sexualmente explícito: causa de acción". leginfo.legislature.ca.gov . Archivado desde el original el 17 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  236. ^ ab "Texto del proyecto de ley - Elecciones AB-730: medios audiovisuales engañosos". leginfo.legislature.ca.gov . Archivado desde el original el 31 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  237. ^ HR 5586: Ley de Responsabilidad de DEEPFAKES Govtrack.US consultado el 15 de agosto de 2024.
  238. ^ HR 6943: Ley contra el FRAUDE de la IA Govtrack.US consultado el 15 de agosto de 2024.
  239. ^ "China busca erradicar las noticias falsas y los deepfakes con nuevas reglas de contenido en línea". Reuters.com . Reuters . 29 de noviembre de 2019. Archivado desde el original el 17 de diciembre de 2019 . Consultado el 17 de diciembre de 2019 .
  240. ^ Statt, Nick (29 de noviembre de 2019). «China tipifica como delito la publicación de deepfakes o noticias falsas sin divulgación». The Verge . Archivado desde el original el 22 de diciembre de 2019. Consultado el 17 de diciembre de 2019 .
  241. ^ China regulará la tecnología de síntesis profunda (Deepfake) a partir de 2023 China Briefing consultado el 15 de agosto de 2024.
  242. ^ China: entran en vigor disposiciones sobre tecnología de síntesis profunda Biblioteca del Congreso consultado el 15 de agosto de 2024.
  243. ^ Piden que el proyecto de ley sobre el upskirting incluya la prohibición de la pornografía "deepfake" Archivado el 21 de junio de 2018 en Wayback Machine The Guardian
  244. ^ La creación de deepfakes sexualmente explícitos se convertirá en un delito penal BBC consultado el 15 de agosto de 2024.
  245. ^ La creación de imágenes deepfake sexualmente explícitas será un delito en el Reino Unido, consultado el 15 de agosto de 2024.
  246. ^ [2] Archivado el 22 de noviembre de 2019 en Wayback Machine, ver página 18
  247. ^ Bogart, Nicole (10 de septiembre de 2019). «Cómo podrían afectar los deepfakes a las elecciones canadienses de 2019». Elecciones federales de 2019. Archivado desde el original el 27 de enero de 2020. Consultado el 28 de enero de 2020 .
  248. ^ "¿Qué puede hacer la ley con respecto a los deepfakes?". mcmillan.ca . Archivado desde el original el 7 de diciembre de 2019. Consultado el 28 de enero de 2020 .
  249. ^ Una descripción general de la Ley de Daños en Línea de Canadá TechPolicy.Press] consultado el 15 de agosto de 2024.
  250. ^ PROYECTO DE LEY C-63 Cámara de los Comunes de Canadá consultado el 15 de agosto de 2024.
  251. ^ Venkatasubbbu, Satish (27 de junio de 2023). "¿Cómo se utilizan las deepfakes para estafar a You & Me? Tendencias actuales en la detección mediante IA y regulaciones legales en todo el mundo". cybermithra.in . Archivado desde el original el 10 de junio de 2024 . Consultado el 3 de julio de 2023 .
  252. ^ Romero-Moreno, Felipe (29 de marzo de 2024). «Inteligencia artificial generativa y deepfakes: un enfoque de derechos humanos para abordar el contenido dañino». Revista Internacional de Derecho, Informática y Tecnología . 39 (2): 297–326. doi : 10.1080/13600869.2024.2324540 . hdl : 2299/20431 . ISSN  1360-0869.
  253. ^ Elon Musk's X recibe nueve quejas sobre privacidad tras robar datos de usuarios de la UE para entrenar a Grok TechCrunch consultado el 19 de agosto de 2024.
  254. ^ Hatmaker, Taylor (1 de mayo de 2018). «DARPA está financiando una nueva tecnología que puede identificar vídeos manipulados y 'deepfakes'». TechCrunch . Archivado desde el original el 8 de diciembre de 2023. Consultado el 14 de abril de 2024 .
  255. ^ Hsu, Jeremy (22 de junio de 2018). "Los expertos apuestan por el primer escándalo político de deepfakes - IEEE Spectrum". IEEE . Archivado desde el original el 22 de febrero de 2024 . Consultado el 14 de abril de 2024 .
  256. ^ "Media Forensics" (Análisis forense de los medios). www.darpa.mil . Archivado desde el original el 29 de octubre de 2020. Consultado el 7 de octubre de 2020 .
  257. ^ "El ejército estadounidense está financiando un esfuerzo para detectar deepfakes y otros trucos de inteligencia artificial". MIT Technology Review . Archivado desde el original el 1 de noviembre de 2020 . Consultado el 7 de octubre de 2020 .
  258. ^ Collins, Connor (11 de marzo de 2019). «DARPA Tackles Deepfakes With AI» (DARPA aborda los deepfakes con inteligencia artificial). GovCIO Media & Research . Archivado desde el original el 2 de marzo de 2024. Consultado el 14 de abril de 2024 .
  259. ^ ab "DARPA está asumiendo el problema de los deepfakes". Nextgov.com . 6 de agosto de 2019. Archivado desde el original el 28 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  260. ^ Sybert, Sarah (16 de septiembre de 2021). «DARPA lanza nuevos programas para detectar medios falsificados». GovCIO Media & Research . Archivado desde el original el 10 de junio de 2024. Consultado el 14 de abril de 2024 .
  261. ^ Cooper, Naomi (15 de marzo de 2024). «DARPA lanza dos nuevos esfuerzos para reforzar las defensas contra los medios manipulados». Archivado desde el original el 15 de marzo de 2024. Consultado el 14 de abril de 2024 .
  262. ^ "Semantic Forensics - Catálogo analítico". semanticforensics.com . Archivado desde el original el 18 de abril de 2024 . Consultado el 14 de abril de 2024 .
  263. ^ Academias Nacionales de Ciencias, Ingeniería y Medicina (22 de junio de 2023). «La cumbre del Premio Nobel impulsa iniciativas para combatir la desinformación y generar confianza en la ciencia». Academias Nacionales de Ciencias, Ingeniería y Medicina . Wikidata  Q124711722.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  264. ^ "Picaper". Base de datos de ficción especulativa en Internet . Archivado desde el original el 29 de julio de 2020. Consultado el 9 de julio de 2019 .
  265. ^ Kerr, Philip (2010). Una investigación filosófica . National Geographic Books. ISBN 978-0143117537.
  266. ^ Bernal, Natasha (8 de octubre de 2019). «La inquietante verdad detrás de The Capture y los deepfakes de la vida real». The Telegraph . Archivado desde el original el 14 de octubre de 2019. Consultado el 24 de octubre de 2019 .
  267. ^ Crawley, Peter (5 de septiembre de 2019). «The Capture: A BBC thriller of surveillance, detection and duplicity» (La captura: un thriller de la BBC sobre vigilancia, distorsión y duplicidad). The Irish Times . Archivado desde el original el 9 de septiembre de 2019. Consultado el 24 de octubre de 2019 .
  268. ^ John Travolta es Forrest Gump [DeepFake]. Archivado desde el original el 20 de abril de 2024. Consultado el 20 de abril de 2024 en www.youtube.com.
  269. ^ Novak, Lauren (24 de noviembre de 2023). «John Travolta rechazó a 'Forrest Gump' y a otras estrellas que decidieron no interpretar personajes icónicos». Remind . Archivado desde el original el 10 de junio de 2024 . Consultado el 20 de abril de 2024 .
  270. ^ "ESPN Films Latest 30 for 30 Documentary Al Davis vs. The NFL to Premiere February 4" (Nota de prensa). ESPN. 15 de enero de 2021. Archivado desde el original el 6 de febrero de 2021. Consultado el 5 de febrero de 2021 .
  271. ^ Sprung, Shlomo (1 de febrero de 2021). "El documental de ESPN 'Al Davis Vs The NFL' usa tecnología deepfake para devolverle la vida al fallecido propietario de los Raiders". Forbes . Archivado desde el original el 14 de abril de 2021 . Consultado el 4 de febrero de 2021 .
  272. ^ "Hudson y Rex". Archivado desde el original el 13 de enero de 2022 . Consultado el 13 de enero de 2022 .
  273. ^ ab Wood, Mikael (9 de mayo de 2022). "Mira a Kendrick Lamar transformarse en OJ, Kanye, Kobe, Nipsey Hussle en un nuevo video". Los Angeles Times . Archivado desde el original el 30 de octubre de 2022 . Consultado el 10 de mayo de 2022 .
  274. ^ Aloe Blacc - Wake Me Up (Universal Language Mix), 20 de abril de 2022, archivado del original el 24 de agosto de 2022 , consultado el 24 de agosto de 2022
  275. ^ "Mira a Aloe Blacc interpretar "Wake Me Up" en 3 idiomas para honrar a Avicii usando la traducción de Respeecher AI". Voicebot.ai . 5 de mayo de 2022. Archivado desde el original el 24 de agosto de 2022 . Consultado el 24 de agosto de 2022 .
  276. ^ Lees, Dominic (27 de enero de 2023). «Deep Fake Neighbour Wars: la comedia de ITV muestra cómo la IA puede transformar la cultura popular». The Conversation . Archivado desde el original el 24 de junio de 2023. Consultado el 3 de julio de 2023 .

Lectura adicional

Enlaces externos