stringtranslate.com

falso

Un video deepfake de Kim Jong-Un creado en 2020 por un grupo de defensa no partidista RepresentUs

Los deepfakes (un acrónimo de " aprendizaje profundo " y "falso" [1] ) eran originalmente medios sintéticos [2] que habían sido manipulados digitalmente para reemplazar la imagen de una persona de manera convincente con la de otra. El término, acuñado en 2017 por un usuario de Reddit , se ha ampliado para abarcar cualquier vídeo, imagen o audio creado con inteligencia artificial para que parezca real, [3] por ejemplo, imágenes de aspecto realista de personas que no existen. [4]

Si bien el acto de crear contenido falso no es nuevo, los deepfakes aprovechan herramientas y técnicas de aprendizaje automático e inteligencia artificial , [5] [6] [7] , incluidos algoritmos de reconocimiento facial y redes neuronales artificiales , como codificadores automáticos variacionales (VAE) y adversarios generativos. redes (GAN). [6] [8] A su vez el campo de la imagen forense desarrolla técnicas para detectar imágenes manipuladas . [9] Los deepfakes han atraído una amplia atención por su uso potencial en la creación de material de abuso sexual infantil , videos pornográficos de celebridades , pornografía de venganza , noticias falsas , engaños , intimidación y fraude financiero . [10] [11] [12] [13] La difusión de desinformación y discursos de odio a través de deepfakes tiene el potencial de socavar funciones y normas centrales de los sistemas democráticos al interferir con la capacidad de las personas para participar en decisiones que las afectan, determinar agendas colectivas y expresar voluntad política a través de una toma de decisiones informada. [14] Tanto la industria de la tecnología de la información como el gobierno han respondido con recomendaciones para detectar y limitar su uso. [15] [16]

Desde el entretenimiento tradicional hasta los juegos , la tecnología deepfake ha evolucionado para ser cada vez más convincente [17] y estar disponible para el público, lo que ha permitido la disrupción de las industrias del entretenimiento y los medios de comunicación . [18]

Historia

Retrato de la actriz Sydney Sweeney generado por Stable Diffusion

La manipulación fotográfica se desarrolló en el siglo XIX y pronto se aplicó a las películas. La tecnología mejoró constantemente durante el siglo XX y más rápidamente con la llegada del vídeo digital .

La tecnología deepfake ha sido desarrollada por investigadores de instituciones académicas a partir de la década de 1990 y, más tarde, por aficionados en comunidades en línea. [19] [20] Más recientemente, los métodos han sido adoptados por la industria. [21]

Investigación académica

La investigación académica relacionada con los deepfakes se divide entre el campo de la visión por computadora , un subcampo de la informática, [19] que desarrolla técnicas para crear e identificar deepfakes, y enfoques de humanidades y ciencias sociales que estudian las implicaciones sociales, éticas y estéticas de los deepfakes. falsificaciones profundas.

Aproximaciones de las ciencias sociales y las humanidades a los deepfakes

En los estudios cinematográficos, los deepfakes demuestran cómo "el rostro humano se está convirtiendo en un objeto central de ambivalencia en la era digital". [22] Los videoartistas han utilizado deepfakes para "reescribir de manera divertida la historia del cine modernizando el cine canónico con nuevos artistas estrella". [23] El estudioso del cine Christopher Holliday analiza cómo cambiar el género y la raza de los actores en escenas cinematográficas familiares desestabiliza las clasificaciones y categorías de género. [23] La idea de los deepfakes " queering " también se analiza en el análisis de Oliver M. Gingrich sobre las obras de arte mediáticas que utilizan deepfakes para replantear el género, [24] incluido Zizi: Queering the Dataset del artista británico Jake Elwes , una obra de arte que utiliza deepfakes de drag queens para jugar intencionalmente con el género. También se están empezando a explorar los potenciales estéticos de los deepfakes. El historiador del teatro John Fletcher señala que las primeras demostraciones de deepfakes se presentan como representaciones y las sitúa en el contexto del teatro, analizando "algunos de los cambios de paradigma más preocupantes" que los deepfakes representan como género de actuación. [25]

Filósofos y estudiosos de los medios han debatido la ética de los deepfakes, especialmente en relación con la pornografía. [26] La académica en medios Emily van der Nagel se basa en investigaciones en estudios fotográficos sobre imágenes manipuladas para discutir los sistemas de verificación que permiten a las mujeres dar su consentimiento para el uso de sus imágenes. [27]

Más allá de la pornografía, los filósofos han enmarcado los deepfakes como una "amenaza epistémica" al conocimiento y, por tanto, a la sociedad. [28] Hay varias otras sugerencias sobre cómo abordar los riesgos que los deepfakes generan más allá de la pornografía, pero también a las corporaciones, políticos y otros, de "explotación, intimidación y sabotaje personal", [29] y hay varias discusiones académicas. de posibles respuestas legales y regulatorias tanto en estudios legales como en estudios de medios. [30] En psicología y estudios de medios, los académicos discuten los efectos de la desinformación que utiliza deepfakes, [31] [32] y el impacto social de los deepfakes. [33]

Mientras que la mayoría de los estudios académicos en inglés sobre los deepfakes se centran en las inquietudes occidentales sobre la desinformación y la pornografía, el antropólogo digital Gabriele de Seta ha analizado la recepción china de los deepfakes, conocidos como huanlian , que se traduce como "rostros cambiantes". El término chino no contiene el "falso" del inglés deepfake, y de Seta sostiene que este contexto cultural puede explicar por qué la respuesta china ha sido más bien respuestas regulatorias prácticas a "riesgos de fraude, derechos de imagen, ganancias económicas y desequilibrios éticos". ". [34]

Investigación informática sobre deepfakes

Uno de los primeros proyectos emblemáticos fue el programa Video Rewrite, publicado en 1997, que modificaba imágenes de vídeo existentes de una persona hablando para representar a esa persona pronunciando las palabras contenidas en una pista de audio diferente. [35] Fue el primer sistema en automatizar completamente este tipo de reanimación facial, y lo hizo utilizando técnicas de aprendizaje automático para establecer conexiones entre los sonidos producidos por el sujeto de un video y la forma de la cara del sujeto. [35]

Los proyectos académicos contemporáneos se han centrado en la creación de vídeos más realistas y en la mejora de técnicas. [36] [37] El programa "Synthesizing Obama", publicado en 2017, modifica imágenes de video del ex presidente Barack Obama para mostrarlo pronunciando las palabras contenidas en una pista de audio separada. [36] El proyecto enumera como principal contribución de investigación su técnica fotorrealista para sintetizar formas de boca a partir de audio. [36] El programa Face2Face, publicado en 2016, modifica imágenes de vídeo del rostro de una persona para representarla imitando las expresiones faciales de otra persona en tiempo real. [37] El proyecto enumera como principal contribución de investigación el primer método para recrear expresiones faciales en tiempo real usando una cámara que no captura la profundidad, lo que hace posible que la técnica se realice usando cámaras comunes de consumo. [37]

En agosto de 2018, investigadores de la Universidad de California en Berkeley publicaron un artículo en el que presentaban una aplicación de baile falsa que puede crear la impresión de una habilidad de baile magistral utilizando IA. [38] Este proyecto amplía la aplicación de deepfakes a todo el cuerpo; trabajos anteriores se centraron en la cabeza o partes del rostro. [39]

Los investigadores también han demostrado que los deepfakes se están expandiendo a otros ámbitos, como la manipulación de imágenes médicas. [40] En este trabajo, se demostró cómo un atacante puede inyectar o eliminar automáticamente el cáncer de pulmón en una tomografía computarizada 3D de un paciente . El resultado fue tan convincente que engañó a tres radiólogos y a una IA de última generación para la detección del cáncer de pulmón. Para demostrar la amenaza, los autores realizaron con éxito el ataque a un hospital en una prueba de penetración de sombrero blanco . [41]

Una encuesta sobre deepfakes, publicada en mayo de 2020, proporciona una cronología de cómo ha avanzado la creación y detección de deepfakes en los últimos años. [42] La encuesta identifica que los investigadores se han centrado en resolver los siguientes desafíos de la creación de deepfake:

En general, se espera que los deepfakes tengan varias implicaciones en los medios y la sociedad, la producción de los medios, las representaciones de los medios, las audiencias de los medios, el género, las leyes y regulaciones, y la política. [43]

Desarrollo aficionado

El término deepfakes se originó a finales de 2017 por un usuario de Reddit llamado "deepfakes". [44] Él, así como otros en la comunidad de Reddit r/deepfakes, compartieron los deepfakes que crearon; muchos videos involucraban rostros de celebridades intercambiados en cuerpos de actores en videos pornográficos, [44] mientras que el contenido no pornográfico incluía muchos videos con el rostro del actor Nicolas Cage intercambiado en varias películas. [45]

Otras comunidades en línea permanecen, incluidas las comunidades de Reddit que no comparten pornografía, como r/SFWdeepfakes (abreviatura de "safe for work deepfakes"), en las que los miembros de la comunidad comparten deepfakes que representan a celebridades, políticos y otras personas en escenarios no pornográficos. [46] Otras comunidades en línea continúan compartiendo pornografía en plataformas que no han prohibido la pornografía deepfake. [47]

Desarrollo comercial

En enero de 2018, se lanzó una aplicación de escritorio patentada llamada FakeApp. [48] ​​Esta aplicación permite a los usuarios crear y compartir videos fácilmente con sus caras intercambiadas entre sí. [49] A partir de 2019, FakeApp ha sido reemplazada por alternativas de código abierto como Faceswap, DeepFaceLab basado en línea de comandos y aplicaciones basadas en web como DeepfakesWeb.com [50] [51] [52]

Las empresas más grandes empezaron a utilizar deepfakes. [21] Se pueden crear vídeos de formación corporativa utilizando avatares deepfake y sus voces, por ejemplo Synthesia , que utiliza tecnología deepfake con avatares para crear vídeos personalizados. [53] La aplicación móvil Momo creó la aplicación Zao que permite a los usuarios superponer su rostro en clips de televisión y películas con una sola imagen. [21] A partir de 2019, la empresa japonesa de inteligencia artificial DataGrid creó un deepfake de cuerpo completo que podía crear una persona desde cero. [54]

A partir de 2020, también existen deepfakes de audio y software de inteligencia artificial capaz de detectar deepfakes y clonar voces humanas después de 5 segundos de tiempo de escucha. [55] [56] [57] [58] [59] [60] En marzo de 2020 se lanzó una aplicación móvil deepfake, Impressions. Fue la primera aplicación para la creación de vídeos deepfake de celebridades desde teléfonos móviles. [61] [62]

Resurrección

La tecnología deepfakes no sólo se puede utilizar para fabricar mensajes y acciones de otros, sino que también se puede utilizar para revivir a personas fallecidas. El 29 de octubre de 2020, Kim Kardashian publicó un vídeo de su difunto padre, Robert Kardashian ; El rostro del vídeo de Robert Kardashian fue creado con tecnología deepfake. [63] El holograma fue creado por la empresa Kaleida, que utilizó una combinación de tecnologías de rendimiento, seguimiento de movimiento, SFX, VFX y DeepFake en la creación de su holograma . [64]

En 2020, se creó un vídeo falso de Joaquín Oliver, víctima del tiroteo en Parkland, como parte de una campaña de seguridad con las armas. Los padres de Oliver se asociaron con la organización sin fines de lucro Change the Ref y McCann Health para producir un video en el que Oliver anima a la gente a apoyar la legislación sobre seguridad de armas y a los políticos que la respaldan que también lo hagan. [sesenta y cinco]

En 2022, se utilizó un vídeo deepfake de Elvis Presley en el programa America's Got Talent 17 . [66]

Un comercial de televisión utilizó un video falso del miembro de los Beatles John Lennon , quien fue asesinado en 1980. [67]

Técnicas

Los deepfakes se basan en un tipo de red neuronal llamada codificador automático . [68] Estos consisten en un codificador, que reduce una imagen a un espacio latente de dimensiones inferiores , y un decodificador, que reconstruye la imagen a partir de la representación latente. [69] Los deepfakes utilizan esta arquitectura al tener un codificador universal que codifica a una persona en el espacio latente. [ cita necesaria ] La representación latente contiene características clave sobre sus rasgos faciales y postura corporal. Luego, esto se puede decodificar con un modelo entrenado específicamente para el objetivo. Esto significa que la información detallada del objetivo se superpondrá a las características faciales y corporales subyacentes del vídeo original, representadas en el espacio latente. [ cita necesaria ]

Una actualización popular de esta arquitectura adjunta una red generativa adversaria al decodificador. Una GAN entrena a un generador, en este caso el decodificador, y a un discriminador en una relación de confrontación. El generador crea nuevas imágenes a partir de la representación latente del material fuente, mientras que el discriminador intenta determinar si la imagen se genera o no. [ cita necesaria ] Esto hace que el generador cree imágenes que imitan la realidad extremadamente bien, ya que el discriminador detectaría cualquier defecto. [70] Ambos algoritmos mejoran constantemente en un juego de suma cero . Esto hace que los deepfakes sean difíciles de combatir, ya que están en constante evolución; cada vez que se determina un defecto, se puede corregir. [70]

Aplicaciones

Interino

Los clones digitales de actores profesionales han aparecido en películas antes, y se espera que el progreso en la tecnología deepfake mejore la accesibilidad y eficacia de dichos clones. [71] El uso de tecnología de inteligencia artificial fue un problema importante en la huelga SAG-AFTRA de 2023 , ya que las nuevas técnicas permitieron la capacidad de generar y almacenar una imagen digital para usar en lugar de los actores. [72]

Disney ha mejorado sus efectos visuales utilizando tecnología de intercambio de rostros deepfake de alta resolución. [73] Disney mejoró su tecnología mediante un entrenamiento progresivo programado para identificar expresiones faciales, implementando una función de intercambio de caras e iterando para estabilizar y refinar el resultado. [73] Esta tecnología deepfake de alta resolución ahorra importantes costos operativos y de producción. [74] El modelo de generación de deepfake de Disney puede producir medios generados por IA con una resolución de 1024 x 1024, a diferencia de los modelos comunes que producen medios con una resolución de 256 x 256. [74] La tecnología permite a Disney reducir la edad de los personajes o revivir a los actores fallecidos. [75] Los fanáticos utilizaron inicialmente una tecnología similar para insertar extraoficialmente rostros en medios existentes, como superponer el rostro joven de Harrison Ford sobre el rostro de Han Solo en Solo: Una historia de Star Wars . [76] Disney utilizó deepfakes para los personajes de la Princesa Leia y el Gran Moff Tarkin en Rogue One . [77] [78]

El documental de 2020 Bienvenido a Chechenia utilizó tecnología deepfake para ocultar la identidad de las personas entrevistadas, a fin de protegerlas de represalias. [79]

Creative Artists Agency ha desarrollado una instalación para capturar la imagen de un actor "en un solo día", para desarrollar un clon digital del actor, que sería controlado por el actor o su patrimonio junto con otros derechos de personalidad . [80]

Entre las empresas que han utilizado clones digitales de actores profesionales en anuncios se encuentran Puma , Nike y Procter & Gamble . [81]

Arte

En marzo de 2018, el artista multidisciplinario Joseph Ayerle publicó la obra de arte en video Un'emozione per sempre 2.0 (título en inglés: The Italian Game ). El artista trabajó con tecnología Deepfake para crear un actor con inteligencia artificial, una versión sintética de la estrella de cine de los 80 Ornella Muti , que viajó en el tiempo de 1978 a 2018. El Instituto Tecnológico de Massachusetts se refirió a esta obra de arte en el estudio "Collective Wisdom". [82] El artista utilizó el viaje en el tiempo de Ornella Muti para explorar reflexiones generacionales, al mismo tiempo que investigaba cuestiones sobre el papel de la provocación en el mundo del arte. [83] Para la realización técnica, Ayerle utilizó escenas de la modelo fotográfica Kendall Jenner . El programa reemplazó el rostro de Jenner por un rostro calculado por IA de Ornella Muti. Como resultado, el actor de AI tiene el rostro del actor italiano Ornella Muti y el cuerpo de Kendall Jenner.

Los deepfakes se han utilizado ampliamente en sátiras o para parodiar a celebridades y políticos. La serie web de 2020 Sassy Justice , creada por Trey Parker y Matt Stone , presenta en gran medida el uso de figuras públicas deepfake para satirizar eventos actuales y crear conciencia sobre la tecnología deepfake. [84]

Chantaje

Los deepfakes se pueden utilizar para generar materiales de chantaje que incriminen falsamente a una víctima. Un informe del Servicio de Investigación del Congreso estadounidense advirtió que los deepfakes podrían usarse para chantajear a funcionarios electos o a quienes tienen acceso a información clasificada con fines de espionaje o influencia . [85]

Alternativamente, dado que las falsificaciones no pueden distinguirse de manera confiable de los materiales genuinos, las víctimas de chantaje real ahora pueden afirmar que los verdaderos artefactos son falsos, lo que les otorga una negación plausible. El efecto es anular la credibilidad de los materiales de chantaje existentes, lo que borra la lealtad a los chantajistas y destruye el control de los chantajistas. Este fenómeno puede denominarse "inflación del chantaje", ya que "devalúa" el verdadero chantaje, haciéndolo inútil. [86] Es posible utilizar hardware GPU básico con un pequeño programa de software para generar este contenido de chantaje para cualquier número de sujetos en grandes cantidades, aumentando el suministro de contenido de chantaje falso de forma ilimitada y altamente escalable. [87]

Entretenimiento

El 8 de junio de 2022, [88] Daniel Emmet, un ex concursante de AGT , se asoció con la startup de inteligencia artificial [89] [90] Metaphysic AI, para crear un deepfake hiperrealista que lo hiciera aparecer como Simon Cowell . Cowell, conocido por criticar severamente a los concursantes, [91] estaba en el escenario interpretando " You're The Inspiration " de Chicago . Emmet cantó en el escenario mientras una imagen de Simon Cowell aparecía en la pantalla detrás de él en perfecta sincronía. [92]

El 30 de agosto de 2022, Metaphysic AI tenía a Simon Cowell , Howie Mandel y Terry Crews 'falsos' cantando ópera en el escenario. [93]

El 13 de septiembre de 2022, Metaphysic AI actuó con una versión sintética de Elvis Presley para la final de America's Got Talent . [94]

El proyecto de inteligencia artificial 15.ai del MIT se ha utilizado para la creación de contenido para múltiples fandoms de Internet , particularmente en las redes sociales. [95] [96] [97]

En 2023, las bandas ABBA y KISS se asociaron con Industrial Light & Magic y Pophouse Entertainment para desarrollar avatares deepfake capaces de realizar conciertos virtuales . [98]

Fraudes y estafas

Los estafadores y estafadores utilizan deepfakes para engañar a las personas con esquemas de inversión falsos, fraude financiero , criptomonedas , envío de dinero y seguimiento de patrocinios . Se han utilizado retratos de celebridades y políticos para estafas a gran escala, así como los de particulares, que se utilizan en ataques de phishing . Según Better Business Bureau , las estafas deepfake son cada vez más frecuentes. [99]

Los respaldos falsos han hecho un mal uso de las identidades de celebridades como Taylor Swift , [100] [99] Tom Hanks , [101] Oprah Winfrey , [102] y Elon Musk ; [103] presentadores de noticias [104] como Gayle King [101] y Sally Bundock ; [105] y políticos como Lee Hsien Loong [106] y Jim Chalmers . [107] [108] Han aparecido videos de ellos en anuncios en línea en YouTube , Facebook y TikTok , que tienen políticas contra los medios sintéticos y manipulados . [109] [100] [110] Millones de personas ven los anuncios que muestran estos vídeos. Una sola campaña de fraude a Medicare había sido vista más de 195 millones de veces en miles de videos. [109] [111] Los deepfakes se han utilizado para: un sorteo falso de utensilios de cocina Le Creuset por una "tarifa de envío" sin recibir los productos, excepto por cargos mensuales ocultos; [100] gomitas para bajar de peso que cobran significativamente más de lo dicho; [102] un sorteo de iPhone falso; [100] [110] y esquemas fraudulentos de enriquecimiento rápido , [103] [112] de inversión, [113] y de criptomonedas . [106] [114]

Muchos anuncios combinan la clonación de voz mediante IA con "vídeos descontextualizados de la celebridad" para imitar la autenticidad. Otros usan un clip completo de una celebridad antes de pasar a un actor o voz diferente. [109] Algunas estafas pueden implicar deepfakes en tiempo real. [110]

Las celebridades han estado advirtiendo a la gente sobre estos respaldos falsos y que estén más atentos a ellos. [99] [100] [102] Es poco probable que las celebridades presenten demandas contra todas las personas que realizan estafas deepfake, ya que "encontrar y demandar a usuarios anónimos de redes sociales requiere muchos recursos", aunque las cartas de cese y desistimiento a las empresas de redes sociales funcionan para obtener videos y anuncios eliminados. [115]

Los deepfakes de audio se han utilizado como parte de estafas de ingeniería social , engañando a las personas haciéndoles creer que están recibiendo instrucciones de una persona de confianza. [116] En 2019, el director ejecutivo de una empresa de energía con sede en el Reino Unido fue estafado por teléfono cuando un individuo le ordenó transferir 220 000 € a una cuenta bancaria húngara que supuestamente utilizó tecnología de audio deepfake para hacerse pasar por la voz del jefe de la empresa matriz de la empresa. ejecutivo. [117] [118]

A partir de 2023, la combinación de avances en la tecnología deepfake, que podría clonar la voz de un individuo a partir de una grabación de unos pocos segundos a un minuto, y nuevas herramientas de generación de texto , permitió estafas de suplantación de identidad automatizadas, dirigidas a las víctimas utilizando un clon digital convincente de un amigo o relativo. [119]

Enmascaramiento de identidad

Los deepfakes de audio se pueden utilizar para enmascarar la identidad real de un usuario. En los juegos en línea , por ejemplo, un jugador puede querer elegir una voz que suene como la de su personaje del juego cuando habla con otros jugadores. Quienes son objeto de acoso , como mujeres, niños y personas transgénero, pueden utilizar estas "máscaras de voz" para ocultar su género o edad. [4]

Memes

En 2020, surgió un meme de Internet que utiliza deepfakes para generar videos de personas cantando el coro de "Baka Mitai" (ばかみたい) , una canción del juego Yakuza 0 de la serie de videojuegos Like a Dragon . En la serie, el jugador canta la canción melancólica en un minijuego de karaoke . La mayoría de las iteraciones de este meme utilizan como plantilla un vídeo de 2017 subido por el usuario Dobbsyrules, que sincroniza los labios con la canción. [120] [121]

Política

Los deepfakes se han utilizado para tergiversar a políticos conocidos en vídeos.

Pornografía

En 2017, la pornografía deepfake apareció de manera destacada en Internet, particularmente en Reddit . [141] A partir de 2019, muchos deepfakes en Internet presentan pornografía de celebridades femeninas cuyas imágenes se suelen utilizar sin su consentimiento. [142] Un informe publicado en octubre de 2019 por la startup holandesa de ciberseguridad Deeptrace estimó que el 96% de todos los deepfakes en línea eran pornográficos. [143] A partir de 2018, un deepfake de Daisy Ridley captó la atención por primera vez, [141] entre otros. [144] [145] [146] En octubre de 2019, la mayoría de los sujetos deepfake en Internet eran actores británicos y estadounidenses. [142] Sin embargo, alrededor de una cuarta parte de los sujetos son surcoreanos, la mayoría de los cuales son estrellas del K-pop. [142] [147]

En junio de 2019, se lanzó una aplicación descargable para Windows y Linux llamada DeepNude que utilizaba redes neuronales, específicamente redes generativas adversarias , para eliminar la ropa de imágenes de mujeres. La aplicación tenía una versión paga y otra gratuita, y la versión paga costaba 50 dólares. [148] [149] El 27 de junio, los creadores eliminaron la aplicación y reembolsaron a los consumidores. [150]

Las celebridades femeninas suelen ser el objetivo principal cuando se trata de pornografía deepfake. En 2023, aparecieron en línea videos porno deepfake de Emma Watson y Scarlett Johansson en una aplicación de intercambio de caras. [151] En 2024, circularon en línea imágenes pornográficas deepfake de Taylor Swift . [152]

Los objetivos principales han sido y siguen siendo los políticos LGBT, las mujeres políticas o activistas, especialmente las mujeres de color, y quienes cuestionan el poder.

Medios de comunicación social

Los deepfakes han comenzado a verse utilizados en plataformas de redes sociales populares, especialmente a través de Zao, una aplicación china de deepfake que permite a los usuarios sustituir sus propios rostros por los de personajes en escenas de películas y programas de televisión como Romeo + Julieta y Juego de Tronos . [153] La aplicación originalmente enfrentó un escrutinio por su política de privacidad y datos de usuario invasivos, después de lo cual la compañía emitió una declaración afirmando que revisaría la política. [21] En enero de 2020, Facebook anunció que introduciría nuevas medidas para contrarrestar esto en sus plataformas. [154]

El Servicio de Investigación del Congreso citó evidencia no especificada que muestra que agentes de inteligencia extranjeros utilizaron deepfakes para crear cuentas de redes sociales con el fin de reclutar personas con acceso a información clasificada . [85]

En 2021, se publicaron en TikTok vídeos realistas deepfake del actor Tom Cruise , que se volvieron virales y obtuvieron más de decenas de millones de visitas. Los videos deepfake mostraban a un "doppelganger generado por inteligencia artificial" de Cruise realizando diversas actividades, como jugar al golf, mostrar un truco con monedas y morder una paleta. El creador de los clips, el artista belga de efectos visuales Chris Umé, [155] dijo que se interesó por primera vez en los deepfakes en 2018 y vio el "potencial creativo" de ellos. [156] [157]

títeres de calcetines

Las fotografías deepfake se pueden utilizar para crear títeres , personas inexistentes, que están activas tanto en línea como en los medios tradicionales. Una fotografía deepfake parece haber sido generada junto con una leyenda de una persona aparentemente inexistente llamada Oliver Taylor, cuya identidad fue descrita como un estudiante universitario en el Reino Unido. El personaje de Oliver Taylor envió artículos de opinión en varios periódicos y participó activamente en los medios en línea atacando a un académico de derecho británico y a su esposa, calificándolos de "simpatizantes terroristas". El académico había llamado la atención internacional en 2018 cuando inició una demanda en Israel contra NSO, una empresa de vigilancia, en nombre de personas en México que alegaban ser víctimas de la tecnología de piratería telefónica de NSO . Reuters sólo pudo encontrar escasos registros de Oliver Taylor y "su" universidad no tenía registros sobre él. Muchos expertos coincidieron en que la foto de perfil es un deepfake. Varios periódicos no se han retractado de los artículos que se le atribuyen ni los han eliminado de sus sitios web. Se teme que tales técnicas sean un nuevo campo de batalla en materia de desinformación . [158]

También se han desplegado colecciones de fotografías deepfake de personas inexistentes en las redes sociales como parte de la propaganda partidista israelí . La página de Facebook "Primavera Sionista" presentaba fotografías de personas inexistentes junto con sus "testimonios" que pretendían explicar por qué habían abandonado su política de izquierda para abrazar la política de derecha , y la página también contenía una gran cantidad de publicaciones del Primer Ministro Ministro de Israel Benjamín Netanyahu y su hijo y de otras fuentes de derecha israelíes. Las fotografías parecen haber sido generadas mediante tecnología de " síntesis de imágenes humanas ", un software informático que toma datos de fotografías de personas reales para producir una imagen compuesta realista de una persona inexistente. En muchos de los "testimonios", la razón dada para abrazar la derecha política fue el shock al enterarse de una supuesta incitación a la violencia contra el primer ministro. Las emisoras de televisión israelíes de derecha transmitieron luego los "testimonios" de estas personas inexistentes basándose en el hecho de que estaban "compartidos" en línea. Los locutores transmitieron estos "testimonios" a pesar de no poder encontrar a esas personas, explicando "¿Por qué importa el origen?". Otros perfiles falsos de Facebook (perfiles de personas ficticias) contenían material que supuestamente contenía tal incitación contra el primer ministro de derecha, en respuesta a lo cual el primer ministro se quejó de que había un complot para asesinarlo. [159] [160]

Preocupaciones y contramedidas

Aunque las fotos falsas han abundado durante mucho tiempo, falsificar películas ha sido más difícil, y la presencia de deepfakes aumenta la dificultad de clasificar videos como genuinos o no. [122] El investigador de inteligencia artificial Alex Champandard ha dicho que la gente debería saber qué tan rápido se pueden corromper las cosas con la tecnología deepfake, y que el problema no es técnico, sino que debe resolverse confiando en la información y el periodismo. [122] El profesor asociado de informática Hao Li de la Universidad del Sur de California afirma que los deepfakes creados para uso malicioso, como las noticias falsas , serán aún más dañinos si no se hace nada para difundir la conciencia sobre la tecnología deepfake. [161] Li predijo que los videos genuinos y los deepfakes se volverían indistinguibles en tan solo medio año, a partir de octubre de 2019, debido al rápido avance en la inteligencia artificial y los gráficos por computadora. [161] El ex zar del fraude de Google, Shuman Ghosemajumder, calificó los deepfakes como un área de "preocupación social" y dijo que inevitablemente evolucionarán hasta un punto en el que puedan generarse automáticamente, y un individuo podría usar esa tecnología para producir millones de videos deepfake. . [162]

Credibilidad de la información

Un peligro principal es que la humanidad podría caer en una era en la que ya no se pueda determinar si el contenido de un medio corresponde a la verdad. [122] [163] Los deepfakes son una de varias herramientas para ataques de desinformación , que crean dudas y socavan la confianza. Tienen el potencial de interferir con las funciones democráticas en las sociedades, como identificar agendas colectivas, debatir temas, informar decisiones y resolver problemas mediante el ejercicio de la voluntad política. [14] La gente también puede empezar a descartar los acontecimientos reales como falsos. [4]

Difamación

Los deepfakes poseen la capacidad de dañar enormemente a entidades individuales. [164] Esto se debe a que los deepfakes a menudo están dirigidos a un individuo y/o sus relaciones con otros con la esperanza de crear una narrativa lo suficientemente poderosa como para influir en la opinión pública o las creencias. Esto se puede hacer mediante phishing de voz deepfake, que manipula el audio para crear llamadas telefónicas o conversaciones falsas. [164] Otro método de uso de deepfake son los comentarios privados fabricados, que manipulan los medios para transmitir a personas que expresan comentarios dañinos. [164] La calidad de un vídeo o audio negativo no tiene por qué ser tan alta. Siempre que la imagen y las acciones de alguien sean reconocibles, un deepfake puede dañar su reputación. [4]

En septiembre de 2020, Microsoft hizo público que estaba desarrollando una herramienta de software de detección de Deepfake. [165]

Detección

Audio

Detectar audio falso es una tarea muy compleja que requiere una atención cuidadosa a la señal de audio para lograr un buen rendimiento. Se ha demostrado que el uso del aprendizaje profundo, el preprocesamiento del diseño de funciones y el aumento de enmascaramiento son eficaces para mejorar el rendimiento. [166]

Video

La mayor parte de la investigación académica sobre los deepfakes se centra en la detección de vídeos deepfake. [167] Un enfoque para la detección de deepfake es utilizar algoritmos para reconocer patrones y detectar inconsistencias sutiles que surgen en videos deepfake. [167] Por ejemplo, los investigadores han desarrollado sistemas automáticos que examinan los vídeos en busca de errores como patrones de iluminación intermitentes irregulares. [168] [19] Este enfoque ha sido criticado porque la detección de deepfakes se caracteriza por una " meta en movimiento " donde la producción de deepfakes continúa cambiando y mejorando a medida que mejoran los algoritmos para detectar deepfakes. [167] Con el fin de evaluar los algoritmos más efectivos para detectar deepfakes, una coalición de empresas de tecnología líderes organizó el DeepfakeDetection Challenge para acelerar la tecnología para identificar contenido manipulado. [169] El modelo ganador del Desafío de detección de Deepfake tuvo una precisión del 65% en el conjunto de 4.000 videos restantes. [170] Un equipo del Instituto de Tecnología de Massachusetts publicó un artículo en diciembre de 2021 que demuestra que los humanos comunes tienen una precisión del 69 al 72 % al identificar una muestra aleatoria de 50 de estos videos. [171]

Un equipo de la Universidad de Buffalo publicó un artículo en octubre de 2020 en el que describe su técnica de utilizar reflejos de luz en los ojos de las personas representadas para detectar deepfakes con una alta tasa de éxito, incluso sin el uso de una herramienta de detección de inteligencia artificial, al menos para el momento. [172]

En el caso de personas bien documentadas, como los líderes políticos, se han desarrollado algoritmos para distinguir rasgos basados ​​en la identidad, como patrones de gestos faciales, gestuales y vocales, y detectar imitadores muy falsos. [173]

Otro equipo dirigido por Wael AbdAlmageed con el Laboratorio de Inteligencia Visual y Análisis Multimedia (VIMAL) del Instituto de Ciencias de la Información de la Universidad del Sur de California desarrolló dos generaciones [174] [175] de detectores deepfake basados ​​en redes neuronales convolucionales . La primera generación [174] utilizó redes neuronales recurrentes para detectar inconsistencias espacio-temporales e identificar artefactos visuales dejados por el proceso de generación de deepfake. El algoritmo logró una precisión del 96% en FaceForensics++, el único punto de referencia de deepfake a gran escala disponible en ese momento. La segunda generación [175] utilizó redes profundas de extremo a extremo para diferenciar entre artefactos e información facial semántica de alto nivel utilizando redes de dos ramas. La primera rama propaga información de color mientras que la otra suprime el contenido facial y amplifica las frecuencias de bajo nivel utilizando Laplaciano de Gauss (LoG) . Además, incluyeron una nueva función de pérdida que aprende una representación compacta de rostros auténticos, mientras dispersa las representaciones (es decir, características) de los deepfakes. El enfoque de VIMAL mostró un rendimiento de última generación en los puntos de referencia FaceForensics++ y Celeb-DF, y el 16 de marzo de 2022 (el mismo día del lanzamiento) se utilizó para identificar el deepfake de Volodymyr Zelensky listo para usar. sin ningún reentrenamiento ni conocimiento del algoritmo con el que se creó el deepfake. [ cita necesaria ]

Otras técnicas sugieren que blockchain podría usarse para verificar la fuente de los medios. [176] Por ejemplo, es posible que sea necesario verificar un vídeo a través del libro de contabilidad antes de mostrarlo en las plataformas de redes sociales. [176] Con esta tecnología, solo se aprobarían videos de fuentes confiables, lo que disminuiría la propagación de medios deepfake posiblemente dañinos. [176]

Para luchar contra los deepfakes se sugirió la firma digital de todos los vídeos e imágenes mediante cámaras y videocámaras, incluidas las cámaras de los teléfonos inteligentes. [177] Eso permite rastrear cada fotografía o video hasta su propietario original que puede usarse para perseguir a los disidentes. [177]

Una forma sencilla de descubrir videollamadas deepfake consiste en pedirle a la persona que llama que se ponga de lado. [178]

Prevención

Henry Ajder, que trabaja para Deeptrace, una empresa que detecta deepfakes, dice que hay varias formas de protegerse contra los deepfakes en el lugar de trabajo. Se pueden utilizar contraseñas semánticas o preguntas secretas al mantener conversaciones importantes. La autenticación por voz y otras funciones de seguridad biométrica deben estar actualizadas. Educar a los empleados sobre los deepfakes. [4]

Controversias

En marzo de 2024 se mostró un videoclip desde el Palacio de Buckingham , donde Kate Middleton tenía cáncer y estaba recibiendo quimioterapia. Sin embargo, el clip alimentó los rumores de que la mujer en ese clip era una IA profunda. [179] El director de carrera de UCLA, Johnathan Perkins, dudaba que tuviera cáncer y especuló además que podría estar en estado crítico o muerta. [180]

Eventos de ejemplo

barack obama

El 17 de abril de 2018, el actor estadounidense Jordan Peele , BuzzFeed y Monkeypaw Productions publicaron un deepfake de Barack Obama en YouTube, que mostraba a Barack Obama maldiciendo y insultando a Donald Trump. [181] En este deepfake, la voz y el rostro de Peele fueron transformados y manipulados en los de Obama. La intención de este vídeo era retratar las peligrosas consecuencias y el poder de los deepfakes, y cómo los deepfakes pueden hacer que cualquiera diga cualquier cosa.

Donald Trump

El 5 de mayo de 2019, Derpfakes publicó un deepfake de Donald Trump en YouTube, basado en una parodia que Jimmy Fallon realizó en The Tonight Show . [182] En el sketch original (transmitido el 4 de mayo de 2016), Jimmy Fallon se vistió como Donald Trump y fingió participar en una llamada telefónica con Barack Obama, conversando de una manera que lo presentaba como si estuviera alardeando de su victoria en las primarias en Indiana. [182] En el deepfake, el rostro de Jimmy Fallon se transformó en el rostro de Donald Trump, y el audio permaneció igual. Este vídeo deepfake fue producido por Derpfakes con intención cómica.

Una imagen falsa creada a mitad de camino del arresto de Donald Trump [183]

En marzo de 2023, apareció una serie de imágenes que mostraban a agentes del Departamento de Policía de Nueva York sujetando a Trump. [184] Las imágenes, creadas con Midjourney , fueron publicadas inicialmente en Twitter por Eliot Higgins, pero luego se volvieron a compartir sin contexto, lo que llevó a algunos espectadores a creer que eran fotografías reales. [183]

Nancy Pelosi

En 2019, un clip del discurso de Nancy Pelosi en el Center for American Progress (pronunciado el 22 de mayo de 2019) en el que se ralentizó el vídeo, además de alterarse el tono del audio, para que pareciera como si estaba borracha, fue ampliamente difundida en las redes sociales. Los críticos argumentan que no se trataba de un deepfake, sino de un superficialfake , una forma menos sofisticada de manipulación de vídeo. [185] [186]

Mark Zuckerberg

En mayo de 2019, dos artistas que colaboraban con la empresa CannyAI crearon un vídeo falso del fundador de Facebook, Mark Zuckerberg, hablando sobre la recopilación y el control de datos de miles de millones de personas. El video fue parte de una exhibición para educar al público sobre los peligros de la inteligencia artificial . [187] [188]

Kim Jong-un y Vladimir Putin

Vídeo deepfake: Vladimir Putin advierte a los estadounidenses sobre la interferencia electoral y la creciente división política

El 29 de septiembre de 2020, se subieron a YouTube deepfakes del líder norcoreano Kim Jong-un y del presidente ruso Vladimir Putin , creados por un grupo de defensa no partidista RepresentUs . [189]

Los deepfakes de Kim y Putin estaban destinados a transmitirse públicamente como comerciales para transmitir la noción de que la interferencia de estos líderes en las elecciones estadounidenses sería perjudicial para la democracia de Estados Unidos. Los comerciales también pretendían impactar a los estadounidenses para que se dieran cuenta de lo frágil que es la democracia y de cómo los medios y las noticias pueden influir significativamente en el camino del país independientemente de su credibilidad. [189] Sin embargo, si bien los comerciales incluían un comentario final que detallaba que las imágenes no eran reales, finalmente no se emitieron debido a temores y sensibilidad sobre cómo podrían reaccionar los estadounidenses. [189]

El 5 de junio de 2023, una fuente desconocida transmitió un supuesto deepfake de Vladimir Putin en múltiples cadenas de radio y televisión. En el vídeo, Putin parece pronunciar un discurso anunciando la invasión de Rusia y pidiendo una movilización general del ejército. [190]

Volodymyr Zelensky

El 16 de marzo de 2022, circuló en las redes sociales un video falso de un minuto de duración que muestra al presidente de Ucrania, Volodymyr Zelenskyy, aparentemente diciéndoles a sus soldados que depongan las armas y se rindan durante la invasión rusa de Ucrania en 2022 . [14] Las redes sociales rusas lo impulsaron, pero después de que fue desacreditado, Facebook y YouTube lo eliminaron. Twitter permitió el video en tweets donde se expuso como falso, pero dijo que sería eliminado si se publicaba para engañar a la gente. Los piratas informáticos insertaron la desinformación en un texto de desplazamiento en vivo de noticias en la estación de televisión Ucrania 24, y el video apareció brevemente en el sitio web de la estación, además de afirmaciones falsas de que Zelenskyy había huido de la capital de su país, Kiev . No quedó claro de inmediato quién creó el deepfake, a lo que Zelenskyy respondió con su propio video, diciendo: "No planeamos deponer las armas. Hasta nuestra victoria". [191]

Noticias del lobo

A finales de 2022, los propagandistas pro-China comenzaron a difundir vídeos falsos que supuestamente pertenecían a "Wolf News" y que utilizaban actores sintéticos. La tecnología fue desarrollada por una empresa londinense llamada Synthesia, que la comercializa como una alternativa barata a los actores en vivo para capacitación y videos de recursos humanos. [192]

Papa Francisco

La imagen falsa creada por Midjourney del Papa Francisco con una chaqueta acolchada

En marzo de 2023, un trabajador de la construcción anónimo de Chicago utilizó Midjourney para crear una imagen falsa del Papa Francisco con una chaqueta acolchada blanca de Balenciaga . La imagen se volvió viral y recibió más de veinte millones de visitas. [193] El escritor Ryan Broderick lo denominó "el primer caso real de desinformación de IA a nivel masivo". [194] Los expertos consultados por Slate caracterizaron la imagen como poco sofisticada: "podrías haberla hecho en Photoshop hace cinco años". [195]

Keir Starmer

En octubre de 2023, el primer día de una conferencia del Partido Laborista se publicó un clip de audio falso del líder del Partido Laborista del Reino Unido, Keir Starmer, abusando de su personal. El clip pretendía ser una cinta de audio de Starmer abusando de su personal. [196]

Rashmika Mandanna

A principios de noviembre de 2023, un famoso actor del sur de la India , Rashmika Mandanna, fue víctima de DeepFake cuando un video transformado de una famosa influencer británico-india, Zara Patel, con el rostro de Rashmika comenzó a flotar en las redes sociales. Zara Patel afirma no participar en su creación. [197]

Bongbong Marcos

En abril de 2024, se publicó un vídeo falso que tergiversaba al presidente filipino Bongbong Marcos . Es una presentación de diapositivas acompañada de un audio falso de Marcos supuestamente ordenando a las Fuerzas Armadas de Filipinas y al grupo de trabajo especial que actúen "por más apropiado que sea" en caso de que China ataque a Filipinas. El vídeo fue publicado en medio de tensiones relacionadas con la disputa del Mar Meridional de China . [198] La Oficina de Comunicaciones Presidenciales ha dicho que no existe tal directiva del presidente y dijo que un actor extranjero podría estar detrás de los medios inventados. [199] Kapisanan ng mga Brodkaster ng Pilipinas ha presentado cargos penales en relación con los medios deepfake. [200]

En julio de 2024, en la manifestación Hakbang ng Maisug organizada por personas afines a su predecesor Rodrigo Duterte , se mostró un vídeo de Marcos supuestamente inhalando drogas ilegales. El vídeo bautizado como el polvorón por los medios coincide con la insinuación de Duterte de que Marcos es un drogadicto. [201] La Policía Nacional de Filipinas y la Oficina Nacional de Investigaciones han publicado sus propios hallazgos sobre el video y concluyen que estaba creando usando IA al señalar inconsistencias con la persona en el video con Marcos, como detalles en los oídos de las dos personas. [202]

Joe Biden

Antes de las elecciones presidenciales de Estados Unidos de 2024 , se realizaron llamadas telefónicas imitando la voz del actual presidente Joe Biden para disuadir a la gente de votar por él. El responsable de las llamadas fue acusado de supresión de votantes y suplantación de candidato. La FCC propuso multarlo con 6 millones de dólares y Lingo Telecom , la empresa que supuestamente transmitía las llamadas, con 2 millones de dólares. [203] [204]

Respuestas

Plataformas de redes sociales

Gorjeo

Twitter está tomando medidas activas para manejar medios sintéticos y manipulados en su plataforma. Para evitar que se propague desinformación, Twitter está colocando un aviso en los tweets que contienen medios manipulados y/o deepfakes que indican a los espectadores que los medios están manipulados. [205] También habrá una advertencia que aparecerá para los usuarios que planean retuitear, darle me gusta o interactuar con el tweet. [205] Twitter también trabajará para proporcionar a los usuarios un enlace junto al tweet que contenga medios sintéticos o manipulados que enlacen a un Momento de Twitter o un artículo de noticias creíble sobre el tema relacionado, como una acción de desacreditación. [205] Twitter también tiene la capacidad de eliminar cualquier tweet que contenga deepfakes o medios manipulados que puedan representar un daño a la seguridad de los usuarios. [205] Para mejorar la detección de deepfakes y medios manipulados por parte de Twitter, Twitter pidió a los usuarios interesados ​​en asociarse con ellos que trabajaran en soluciones de detección de deepfake para completar un formulario. [206]

Facebook

Facebook se ha esforzado por fomentar la creación de deepfakes para desarrollar un software de detección de deepfakes de última generación. Facebook fue el socio destacado en la organización del DeepfakeDetection Challenge (DFDC), celebrado en diciembre de 2019, con 2114 participantes que generaron más de 35.000 modelos. [207] Los modelos de mejor rendimiento con la mayor precisión de detección se analizaron en busca de similitudes y diferencias; Estos hallazgos son áreas de interés en futuras investigaciones para mejorar y perfeccionar los modelos de detección de deepfake. [207] Facebook también ha detallado que la plataforma eliminará los medios generados con inteligencia artificial utilizada para alterar el discurso de un individuo. [208] Sin embargo, los medios que hayan sido editados para alterar el orden o el contexto de las palabras en el mensaje permanecerán en el sitio pero serán etiquetados como falsos, ya que no fueron generados por inteligencia artificial. [208]

reacción de internet

El 31 de enero de 2018, Gfycat comenzó a eliminar todos los deepfakes de su sitio. [209] [15] En Reddit , el subreddit r/deepfakes fue prohibido el 7 de febrero de 2018, debido a la violación de la política de "pornografía involuntaria". [210] [211] [212] [213] [214] En el mismo mes, representantes de Twitter declararon que suspenderían las cuentas sospechosas de publicar contenido deepfake no consensuado. [215] El sitio de chat Discord ha tomado medidas contra los deepfakes en el pasado, [216] y ha adoptado una postura general contra los deepfakes. [15] [217] En septiembre de 2018, Google agregó "imágenes pornográficas sintéticas involuntarias" a su lista de prohibiciones, lo que permite a cualquiera solicitar el bloqueo de resultados que muestran sus desnudos falsos. [218] [ verifique la sintaxis de las citas ] En febrero de 2018, Pornhub dijo que prohibiría los videos deepfake en su sitio web porque se considera "contenido no consensuado" que viola sus términos de servicio. [219] También declararon anteriormente a Mashable que eliminarán el contenido marcado como deepfakes. [220] Los escritores de Placa base de Buzzfeed News informaron que la búsqueda de "deepfakes" en Pornhub aún arrojó múltiples videos deepfakes recientes. [219]

Facebook ha declarado anteriormente que no eliminaría los deepfakes de sus plataformas. [221] En cambio, los videos serán marcados como falsos por terceros y luego tendrán una prioridad reducida en los feeds de los usuarios. [222] Esta respuesta surgió en junio de 2019 después de que circulara en Facebook e Instagram un deepfake con un vídeo de 2016 de Mark Zuckerberg . [221]

En mayo de 2022, Google cambió oficialmente los términos de servicio de sus colaboraciones de Jupyter Notebook , prohibiendo el uso de su servicio de colaboración con el fin de crear deepfakes. [223] Esto se produjo unos días después de que se publicara un artículo de VICE, afirmando que "la mayoría de los deepfakes son pornografía no consensuada" y que el uso principal del popular software deepfake DeepFaceLab (DFL), "la tecnología más importante que impulsa a la gran mayoría de esta generación de deepfakes", que a menudo se utilizó en combinación con colaboraciones de Google, sería crear pornografía no consensuada, señalando el hecho de que, entre muchos otros ejemplos bien conocidos de implementaciones DFL de terceros, como los deepfakes encargados por The Walt Disney Company , videos musicales oficiales y la serie web Sassy Justice de los creadores de South Park , la página GitHub de DFL también tiene enlaces al sitio web de pornografía deepfake Mr. ‍ Deepfakes y los participantes del servidor DFL Discord también participan en Mr. ‍ Deepfakes . [224]

Respuesta legal

En Estados Unidos, ha habido algunas respuestas a los problemas que plantean los deepfakes. En 2018, se presentó al Senado de los Estados Unidos la Ley de Prohibición de Falsas Profundas y Maliciosas , [225] y en 2019 se presentó la Ley de Responsabilidad de DEEPFAKES en la Cámara de Representantes . [16] Varios estados también han introducido legislación sobre deepfakes, incluidos Virginia, [226] Texas, California y Nueva York. [227] El 3 de octubre de 2019, el gobernador de California, Gavin Newsom, promulgó los proyectos de ley de la Asamblea n.º 602 y n.º 730. [228] [229] El proyecto de ley de la Asamblea n.º 602 proporciona a las personas objetivo de contenido deepfake sexualmente explícito realizado sin su consentimiento una causa de acción contra el creador del contenido. [228] El Proyecto de Ley de la Asamblea No. 730 prohíbe la distribución de medios visuales o de audio maliciosos deepfake dirigidos a un candidato que se postula para un cargo público dentro de los 60 días posteriores a su elección. [229]

En noviembre de 2019, China anunció que los deepfakes y otras imágenes falsificadas sintéticamente deberían llevar un aviso claro sobre su falsedad a partir de 2020. El incumplimiento podría considerarse un delito, según declaró la Administración del Ciberespacio de China en su sitio web. [230] El gobierno chino parece reservarse el derecho de procesar tanto a los usuarios como a las plataformas de vídeo en línea que no cumplan las normas. [231]

En el Reino Unido, los productores de material deepfake pueden ser procesados ​​por acoso, pero hay llamados a convertir el deepfake en un delito específico; [232] En los Estados Unidos, donde se han presentado cargos tan variados como robo de identidad , acoso cibernético y pornografía de venganza , también se ha debatido la noción de un estatuto más completo. [218]

En Canadá, el Communications Security Establishment publicó un informe que decía que los deepfakes podrían utilizarse para interferir en la política canadiense, en particular para desacreditar a los políticos e influir en los votantes. [233] [234] Como resultado, existen múltiples formas para que los ciudadanos de Canadá puedan lidiar con los deepfakes si son el objetivo de ellos. [235]

En la India, no existen leyes ni reglamentos directos sobre la IA o los deepfakes, pero sí existen disposiciones en virtud del Código Penal de la India y la Ley de Tecnología de la Información de 2000/2008, que pueden examinarse en busca de soluciones legales, y la nueva propuesta de Ley de la India Digital tendrá un capítulo sobre IA y deepfakes en particular, según el ministro de gobierno Rajeev Chandrasekhar. [236]

En Europa, la Ley de Inteligencia Artificial (Ley de IA) de la Unión Europea adopta un enfoque basado en el riesgo para regular los sistemas de IA, incluidos los deepfakes. Establece categorías de "riesgo inaceptable", "alto riesgo", "riesgo específico/limitado o de transparencia" y "riesgo mínimo" para determinar el nivel de obligaciones regulatorias para los proveedores y usuarios de IA. Sin embargo, la falta de definiciones claras para estas categorías de riesgo en el contexto de los deepfakes crea desafíos potenciales para una implementación efectiva. Los juristas han expresado su preocupación por la clasificación de los deepfakes destinados a la desinformación política o la creación de imágenes íntimas no consensuadas. Existe un debate sobre si tales usos siempre deben considerarse sistemas de IA de "alto riesgo", lo que conduciría a requisitos regulatorios más estrictos. [237]

Respuesta de DARPA

En 2016, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) lanzó el programa Media Forensics (MediFor), que estuvo financiado hasta 2020. [238] MediFor tenía como objetivo detectar automáticamente la manipulación digital en imágenes y vídeos, incluidos los Deepfakes . [239] [240] En el verano de 2018, MediFor celebró un evento en el que las personas compitieron para crear videos, audio e imágenes generados por IA, así como herramientas automatizadas para detectar estos deepfakes. [241] Según el programa MediFor, estableció un marco de tres niveles de información (integridad digital, integridad física e integridad semántica) para generar una puntuación de integridad en un esfuerzo por permitir la detección precisa de medios manipulados. [242]

En 2019, DARPA organizó un "día de los proponentes" para el programa Semantic Forensics (SemaFor), donde los investigadores se vieron impulsados ​​a prevenir la propagación viral de medios manipulados por IA. [243] DARPA y el Programa Forense Semántico también estaban trabajando juntos para detectar medios manipulados por IA a través de esfuerzos para entrenar computadoras para utilizar el razonamiento lógico y el sentido común. [243] Basados ​​en las tecnologías de MediFor, los algoritmos de atribución de SemaFor infieren si los medios digitales se originan en una organización o individuo en particular, mientras que los algoritmos de caracterización determinan si los medios fueron generados o manipulados con fines maliciosos. [244] En marzo de 2024, SemaFor publicó un catálogo analítico que ofrece al público acceso a recursos de código abierto desarrollados bajo SemaFor. [245] [246]

Panel internacional sobre el entorno de la información

El Panel Internacional sobre el Entorno de la Información se lanzó en 2023 como un consorcio de más de 250 científicos que trabajan para desarrollar contramedidas efectivas contra las falsificaciones profundas y otros problemas creados por incentivos perversos en las organizaciones que difunden información a través de Internet. [247]

En la cultura popular

Ver también

Referencias

  1. ^ Brandon, John (16 de febrero de 2018). "Porno aterrador de alta tecnología: los vídeos espeluznantes 'deepfake' van en aumento". Fox News . Archivado desde el original el 15 de junio de 2018 . Consultado el 20 de febrero de 2018 .
  2. ^ "Prepárese, que no cunda el pánico: medios sintéticos y deepfakes". testigo.org. Archivado desde el original el 2 de diciembre de 2020 . Consultado el 25 de noviembre de 2020 .
  3. ^ "Tecnología deepfake: ¿Qué es, cómo funciona y para qué se puede utilizar?". Ronda de noticias de la BBC. 15 de mayo de 2024. Archivado desde el original el 23 de mayo de 2024 . Consultado el 7 de junio de 2024 .
  4. ^ abcde Somers, Meredith (21 de julio de 2020). "Deepfakes, explicado". MIT Sloan . Archivado desde el original el 5 de marzo de 2024 . Consultado el 6 de marzo de 2024 .
  5. ^ Juefei-Xu, Félix; Wang, corre; Huang, Yihao; Guo, Qing; Mamá, Lei; Liu, Yang (1 de julio de 2022). "Contrarrestar los DeepFakes maliciosos: encuesta, campo de batalla y horizonte". Revista Internacional de Visión por Computadora . 130 (7): 1678-1734. doi :10.1007/s11263-022-01606-8. ISSN  1573-1405. PMC 9066404 . PMID  35528632. Archivado desde el original el 10 de junio de 2024 . Consultado el 15 de julio de 2023 . 
  6. ^ ab Kietzmann, J.; Lee, LW; McCarthy, IP; Kietzmann, TC (2020). "Deepfakes: ¿Truco o trato?" (PDF) . Horizontes empresariales . 63 (2): 135-146. doi :10.1016/j.bushor.2019.11.006. S2CID  213818098. Archivado (PDF) desde el original el 29 de diciembre de 2022 . Consultado el 30 de diciembre de 2022 .
  7. ^ Waldrop, M. Mitchell (16 de marzo de 2020). "Medios sintéticos: el verdadero problema de los deepfakes". Revista Conocible . Revisiones anuales. doi : 10.1146/conocible-031320-1 . Archivado desde el original el 19 de noviembre de 2022 . Consultado el 19 de diciembre de 2022 .
  8. ^ Schwartz, Oscar (12 de noviembre de 2018). "¿Pensabas que las noticias falsas eran malas? Las falsificaciones profundas son donde la verdad muere". El guardián . Archivado desde el original el 16 de junio de 2019 . Consultado el 14 de noviembre de 2018 .
  9. ^ Farid, Hany (15 de septiembre de 2019). "Imagen forense". Revisión anual de la ciencia de la visión . 5 (1): 549–573. doi : 10.1146/annurev-vision-091718-014827. ISSN  2374-4642. PMID  31525144. S2CID  263558880. Archivado desde el original el 10 de junio de 2024 . Consultado el 20 de septiembre de 2023 .
  10. ^ Bancos, Alec (20 de febrero de 2018). "¿Qué son los deepfakes y por qué el futuro de la pornografía es aterrador?". Altanobieza . Archivado desde el original el 14 de julio de 2021 . Consultado el 20 de febrero de 2018 .
  11. ^ Cristiano, Jon. "Los expertos temen que el intercambio de caras pueda iniciar un enfrentamiento internacional". El contorno . Archivado desde el original el 16 de enero de 2020 . Consultado el 28 de febrero de 2018 .
  12. ^ Roose, Kevin (4 de marzo de 2018). "Aquí también vienen los vídeos falsos" . Los New York Times . ISSN  0362-4331. Archivado desde el original el 18 de junio de 2019 . Consultado el 24 de marzo de 2018 .
  13. ^ Schreyer, Marco; Sattarov, Timur; Reimer, Bernd; Borth, Damián (octubre de 2019). "Aprendizaje contradictorio de deepfakes en contabilidad". arXiv : 1910.03810 [cs.LG].
  14. ^ abc Pawelec, M (2022). "Deepfakes y democracia (teoría): cómo los medios audiovisuales sintéticos para la desinformación y el discurso de odio amenazan las funciones democráticas fundamentales". Sociedad Digital: Ética, Sociojurídica y Gobernanza de la Tecnología Digital . 1 (2): 19. doi :10.1007/s44206-022-00010-6. PMC 9453721 . PMID  36097613. 
  15. ^ abc Ghoshal, Abhimanyu (7 de febrero de 2018). "Twitter, Pornhub y otras plataformas prohíben la pornografía de celebridades generada por IA". La próxima web . Archivado desde el original el 20 de diciembre de 2019 . Consultado el 9 de noviembre de 2019 .
  16. ^ ab Clarke, Yvette D. (28 de junio de 2019). "HR3230 - 116º Congreso (2019-2020): Defender a todas y cada una de las personas de apariencias falsas manteniendo la explotación sujeta a la Ley de Responsabilidad de 2019". www.congreso.gov . Archivado desde el original el 17 de diciembre de 2019 . Consultado el 16 de octubre de 2019 .
  17. ^ Caramancion, Kevin Matthe (21 de abril de 2021). "El perfil demográfico con mayor riesgo de ser desinformado". 2021 Conferencia internacional IEEE IOT, Electrónica y Mecatrónica (IEMTRONICS) . IEEE. págs. 1–7. doi : 10.1109/iemtronics52119.2021.9422597. ISBN 978-1-6654-4067-7. S2CID  234499888. Archivado desde el original el 10 de junio de 2024 . Consultado el 9 de junio de 2023 .
  18. ^ Lalla, Vejay; Mitrani, Adine; Harned, Zach. "Inteligencia artificial: deepfakes en la industria del entretenimiento". Organización Mundial de la Propiedad Intelectual . Archivado desde el original el 8 de noviembre de 2022 . Consultado el 8 de noviembre de 2022 .
  19. ^ abc Harwell, Drew (12 de junio de 2019). "Los principales investigadores de IA corren para detectar videos 'deepfake': 'Estamos en desventaja'" . El Washington Post . Archivado desde el original el 31 de octubre de 2019 . Consultado el 8 de noviembre de 2019 .
  20. ^ Sánchez, Julián (8 de febrero de 2018). "Gracias a la IA, el futuro de las 'noticias falsas' está siendo pionero en el porno casero". Noticias NBC . Archivado desde el original el 9 de noviembre de 2019 . Consultado el 8 de noviembre de 2019 .
  21. ^ abcd Porter, Jon (2 de septiembre de 2019). "Otra aplicación deepfake convincente se vuelve viral y provoca una reacción inmediata a la privacidad". El borde . Archivado desde el original el 3 de septiembre de 2019 . Consultado el 8 de noviembre de 2019 .
  22. ^ Un presagio, Lisa; Lees, Dominic; Golding, Dan (29 de julio de 2021). "El rostro digital y los deepfakes en pantalla". Convergencia: Revista internacional de investigación sobre nuevas tecnologías de medios . 27 (4): 849–854. doi : 10.1177/13548565211034044 . ISSN  1354-8565. S2CID  237402465.
  23. ^ ab Holliday, Christopher (26 de julio de 2021). "Reescribiendo las estrellas: tensiones superficiales y problemas de género en la producción de deepfakes digitales en los medios online". Convergencia: Revista internacional de investigación sobre nuevas tecnologías de medios . 27 (4): 899–918. doi : 10.1177/13548565211029412 . ISSN  1354-8565. S2CID  237402548.
  24. ^ Gingrich, Oliver M. (5 de julio de 2021). "GENDER*UCK: Reformulación del género y el arte mediático". Actas de EVA London 2021 (EVA 2021) . Talleres de Electrónica en Computación. doi : 10.14236/ewic/EVA2021.25 . S2CID  236918199.
  25. ^ Fletcher, John (2018). "Deepfakes, inteligencia artificial y algún tipo de distopía: las nuevas caras del desempeño post-hecho en línea". Diario de Teatro . 70 (4): 455–471. doi :10.1353/tj.2018.0097. ISSN  1086-332X. S2CID  191988083.
  26. ^ Öhman, Carl (1 de junio de 2020). "Presentando el dilema del pervertido: una contribución a la crítica de la pornografía deepfake". Ética y Tecnología de la Información . 22 (2): 133-140. doi : 10.1007/s10676-019-09522-1 . ISSN  1572-8439. S2CID  208145457.
  27. ^ van der Nagel, Emily (1 de octubre de 2020). "Verificación de imágenes: deepfakes, control y consentimiento". Estudios de pornografía . 7 (4): 424–429. doi : 10.1080/23268743.2020.1741434. ISSN  2326-8743. S2CID  242891792. Archivado desde el original el 10 de junio de 2024 . Consultado el 9 de febrero de 2022 .
  28. ^ Fallis, Don (1 de diciembre de 2021). "La amenaza epistémica de los deepfakes". Filosofía y Tecnología . 34 (4): 623–643. doi :10.1007/s13347-020-00419-2. ISSN  2210-5433. PMC 7406872 . PMID  32837868. 
  29. ^ Chesney, Robert; Cidra, Danielle Keats (2018). "Deep Fakes: un desafío inminente para la privacidad, la democracia y la seguridad nacional". Revista Electrónica SSRN . doi :10.2139/ssrn.3213954. ISSN  1556-5068. Archivado desde el original el 21 de diciembre de 2019 . Consultado el 9 de febrero de 2022 .
  30. ^ Yadlin-Segal, Aya; Oppenheim, Yael (febrero de 2021). "¿De quién es la distopía de todos modos? Deepfakes y regulación de las redes sociales". Convergencia: Revista internacional de investigación sobre nuevas tecnologías de medios . 27 (1): 36–51. doi :10.1177/1354856520923963. ISSN  1354-8565. S2CID  219438536. Archivado desde el original el 9 de febrero de 2022 . Consultado el 9 de febrero de 2022 .
  31. ^ Hwang, Yoori; Ryu, Ji Youn; Jeong, Se-Hoon (1 de marzo de 2021). "Efectos de la desinformación mediante el uso de Deepfake: el efecto protector de la educación en alfabetización mediática". Ciberpsicología, Comportamiento y Redes Sociales . 24 (3): 188-193. doi : 10.1089/cyber.2020.0174. ISSN  2152-2715. PMID  33646021. S2CID  232078561. Archivado desde el original el 10 de junio de 2024 . Consultado el 9 de febrero de 2022 .
  32. ^ Alto, Craig (12 de noviembre de 2021). "Deepfakes y práctica documental en una era de desinformación". Continuo . 36 (3): 393–410. doi :10.1080/10304312.2021.2003756. ISSN  1030-4312. S2CID  244092288. Archivado desde el original el 9 de febrero de 2022 . Consultado el 9 de febrero de 2022 .
  33. ^ Hancock, Jeffrey T.; Bailenson, Jeremy N. (1 de marzo de 2021). "El impacto social de los deepfakes". Ciberpsicología, Comportamiento y Redes Sociales . 24 (3): 149-152. doi :10.1089/cyber.2021.29208.jth. ISSN  2152-2715. PMID  33760669. S2CID  232356146. Archivado desde el original el 10 de junio de 2024 . Consultado el 9 de febrero de 2022 .
  34. ^ de Seta, Gabriele (30 de julio de 2021). "Huanlian, o caras cambiantes: Deepfakes en las plataformas de medios digitales chinas". Convergencia: Revista internacional de investigación sobre nuevas tecnologías de medios . 27 (4): 935–953. doi :10.1177/13548565211030185. hdl : 11250/2833613 . ISSN  1354-8565. S2CID  237402447. Archivado desde el original el 10 de junio de 2024 . Consultado el 9 de febrero de 2022 .
  35. ^ ab Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). "Reescritura de video: impulsar el habla visual con audio". Actas de la 24ª conferencia anual sobre gráficos por computadora y técnicas interactivas - SIGGRAPH '97 . vol. 24. págs. 353–360. doi :10.1145/258734.258880. ISBN 0897918967. S2CID  2341707. Archivado desde el original el 10 de junio de 2024 . Consultado el 10 de julio de 2023 .
  36. ^ a b C Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (julio de 2017). "Sintetizando a Obama: aprendiendo sincronización de labios a partir del audio". Transmisión ACM. Grafico . 36 (4): 95:1–95:13. doi :10.1145/3072959.3073640. S2CID  207586187. Archivado desde el original el 19 de mayo de 2020 . Consultado el 10 de julio de 2023 .
  37. ^ abc Thies, Justo; Zollhöfer, Michael; Stamminger, Marc; Teobaldo, cristiano; Nießner, Matthias (junio de 2016). "Face2Face: captura de rostros en tiempo real y recreación de vídeos RGB". Conferencia IEEE 2016 sobre visión por computadora y reconocimiento de patrones (CVPR) . IEEE. págs. 2387–2395. arXiv : 2007.14808 . doi :10.1109/CVPR.2016.262. ISBN 9781467388511. S2CID  206593693.
  38. ^ "Deepfakes para bailar: ahora puedes usar la IA para fingir esos movimientos de baile que siempre quisiste". El borde . Archivado desde el original el 17 de mayo de 2019 . Consultado el 27 de agosto de 2018 .
  39. ^ Farquhar, Peter (27 de agosto de 2018). "Pronto estará aquí un programa de inteligencia artificial para ayudarte a bailar deepface, pero no lo llames deepfake". Business Insider Australia . Archivado desde el original el 10 de abril de 2019 . Consultado el 27 de agosto de 2018 .
  40. ^ Mirsky, Israel; Mahler, Tom; Shelef, Ilán; Elovici, Yuval (2019). CT-GAN: manipulación maliciosa de imágenes médicas 3D mediante aprendizaje profundo. págs. 461–478. arXiv : 1901.03597 . ISBN 978-1-939133-06-9. Archivado desde el original el 20 de junio de 2020 . Consultado el 18 de junio de 2020 .
  41. ^ O'Neill, Patrick Howell (3 de abril de 2019). "Los investigadores demuestran un malware que puede engañar a los médicos para que diagnostiquen erróneamente el cáncer". Gizmodo . Archivado desde el original el 10 de junio de 2024 . Consultado el 3 de junio de 2022 .
  42. ^ Mirsky, Israel; Lee, Wenke (12 de mayo de 2020). "La creación y detección de deepfakes: una encuesta". Encuestas de Computación ACM . arXiv : 2004.11138 . doi :10.1145/3425780. S2CID  216080410.
  43. ^ Karnouskos, Stamatis (2020). "Inteligencia artificial en medios digitales: la era de los deepfakes" (PDF) . Transacciones IEEE sobre tecnología y sociedad . 1 (3): 1. doi :10.1109/TTS.2020.3001312. S2CID  221716206. Archivado (PDF) desde el original el 14 de julio de 2021 . Consultado el 9 de julio de 2020 .
  44. ^ ab Cole, Samantha (24 de enero de 2018). "Estamos realmente jodidos: ahora todo el mundo está haciendo pornografía falsa generada por IA". Vicio . Archivado desde el original el 7 de septiembre de 2019 . Consultado el 4 de mayo de 2019 .
  45. ^ Haysom, Sam (31 de enero de 2018). "La gente está utilizando tecnología de intercambio de caras para agregar a Nicolas Cage a películas aleatorias y lo que es 2018". Machacable . Archivado desde el original el 24 de julio de 2019 . Consultado el 4 de abril de 2019 .
  46. ^ "r/SFWdeepfakes". Reddit . Archivado desde el original el 9 de agosto de 2019 . Consultado el 12 de diciembre de 2018 .
  47. ^ Hathaway, Jay (8 de febrero de 2018). "Aquí es donde llegaron los 'deepfakes', el nuevo porno falso de celebridades, después de la prohibición de Reddit". El punto diario . Archivado desde el original el 6 de julio de 2019 . Consultado el 22 de diciembre de 2018 .
  48. ^ "¿Qué es un Deepfake y cómo se hacen?". Consejos técnicos en línea . 23 de mayo de 2019. Archivado desde el original el 8 de noviembre de 2019 . Consultado el 8 de noviembre de 2019 .
  49. ^ Robertson, Adi (11 de febrero de 2018). "Estoy usando IA para intercambiar las caras de Elon Musk y Jeff Bezos, y soy muy malo en eso". El borde . Archivado desde el original el 24 de marzo de 2018 . Consultado el 8 de noviembre de 2019 .
  50. ^ "Deepfakes web | La mejor aplicación de intercambio de caras en línea". Web de deepfakes . Archivado desde el original el 14 de julio de 2021 . Consultado el 21 de febrero de 2021 .
  51. ^ "Faceswap es el software Deepfakes multiplataforma gratuito y de código abierto líder". 15 de octubre de 2019. Archivado desde el original el 31 de mayo de 2021 . Recuperado 14 de julio de 2021 - vía WordPress.
  52. ^ "DeepFaceLab es una herramienta que utiliza el aprendizaje automático para reemplazar caras en videos. Incluye binario independiente de Windows 7,8,10 prediseñado y listo para funcionar (consulte readme.md): iperov/DeepFaceLab". 19 de junio de 2019. Archivado desde el original el 9 de mayo de 2019 . Consultado el 6 de marzo de 2019 a través de GitHub.
  53. ^ Chandler, Simón. "Por qué los deepfakes son netos positivos para la humanidad". Forbes . Archivado desde el original el 16 de noviembre de 2020 . Consultado el 3 de noviembre de 2020 .
  54. ^ Pangburn, DJ (21 de septiembre de 2019). "Ha sido advertido: los deepfakes de cuerpo completo son el siguiente paso en la imitación humana basada en IA". Empresa Rápida . Archivado desde el original el 8 de noviembre de 2019 . Consultado el 8 de noviembre de 2019 .
  55. ^ Lyons, Kim (29 de enero de 2020). "La FTC dice que la tecnología detrás de los deepfakes de audio está mejorando". El borde . Archivado desde el original el 30 de enero de 2020 . Consultado el 8 de febrero de 2020 .
  56. ^ "Muestras de audio de" Transferir el aprendizaje de la verificación del hablante a la síntesis de texto a voz de varios hablantes"". google.github.io . Archivado desde el original el 14 de noviembre de 2019 . Consultado el 8 de febrero de 2020 .
  57. ^ Jia, sí; Zhang, Yu; Weiss, Ron J.; Wang, Quan; Shen, Jonatán; Ren, Fei; Chen, Zhifeng; Nguyen, Patricio; Pang, Ruoming; Moreno, Ignacio López; Wu, Yonghui (2 de enero de 2019). "Transferir el aprendizaje de la verificación del hablante a la síntesis de texto a voz de varios hablantes". arXiv : 1806.04558 [cs.CL].
  58. ^ "Computación visual TUM: Prof. Matthias Nießner". www.niessnerlab.org . Archivado desde el original el 21 de febrero de 2020 . Consultado el 8 de febrero de 2020 .
  59. ^ "Recarga de página completa". IEEE Spectrum: noticias sobre tecnología, ingeniería y ciencia . 11 de diciembre de 2019. Archivado desde el original el 26 de junio de 2020 . Consultado el 8 de febrero de 2020 .
  60. ^ "Aportación de datos a la investigación de detección de deepfake". 24 de septiembre de 2019. Archivado desde el original el 5 de febrero de 2020 . Consultado el 8 de febrero de 2020 .
  61. ^ Thalen, Mikaël. "Ahora puedes convertirte en una celebridad con sólo unos pocos clics". punto diario . Archivado desde el original el 6 de abril de 2020 . Consultado el 3 de abril de 2020 .
  62. ^ Matthews, Zane (6 de marzo de 2020). "Diversión o miedo: la aplicación Deepfake pone caras de celebridades en tus selfies". Kool1079 . Archivado desde el original el 24 de marzo de 2020 . Consultado el 6 de marzo de 2020 .
  63. ^ "Kanye West, Kim Kardashian y su padre: ¿Deberíamos hacer hologramas de los muertos?". Noticias de la BBC . 31 de octubre de 2020. Archivado desde el original el 15 de noviembre de 2020 . Consultado el 11 de noviembre de 2020 .
  64. ^ "Kanye West le regaló a Kim Kardashian un holograma de su padre por su cumpleaños". los módems . 30 de octubre de 2020. Archivado desde el original el 11 de noviembre de 2020 . Consultado el 11 de noviembre de 2020 .
  65. ^ "Joaquín Oliver, víctima de Parkland, vuelve a la vida en una desgarradora súplica a los votantes". adagio.com . 2 de octubre de 2020. Archivado desde el original el 11 de noviembre de 2020 . Consultado el 11 de noviembre de 2020 .
  66. ^ Bowenbank, Starr (14 de septiembre de 2022). "Simon Cowell hace dueto con Elvis en la última actuación de Deepfake 'AGT' de Metaphysic: Ver". Cartelera . Archivado desde el original el 15 de septiembre de 2022 . Consultado el 8 de noviembre de 2022 .
  67. ^ "Comercial de John Lennon 'Una computadora portátil por niño'". YouTube . 26 de diciembre de 2008. Archivado desde el original el 9 de marzo de 2023 . Consultado el 9 de marzo de 2023 .
  68. ^ Zucconi, Alan (14 de marzo de 2018). "Comprensión de la tecnología detrás de DeepFakes". Alan Zucconi . Archivado desde el original el 1 de noviembre de 2019 . Consultado el 8 de noviembre de 2019 .
  69. ^ "¿Qué es un Deepfake?". Blog - Síntesis . 3 de mayo de 2022. Archivado desde el original el 26 de junio de 2022 . Consultado el 17 de mayo de 2022 .
  70. ^ ab "Estos nuevos trucos pueden superar a los vídeos deepfake, por ahora". Cableado . ISSN  1059-1028. Archivado desde el original el 3 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  71. ^ Kemp, Luke (8 de julio de 2019). "En la era de los deepfakes, ¿podrían los actores virtuales sacar a los humanos del negocio?". El guardián . ISSN  0261-3077. Archivado desde el original el 20 de octubre de 2019 . Consultado el 20 de octubre de 2019 .
  72. ^ Verma, Pranshu (21 de julio de 2023). "Los clones digitales creados por tecnología de inteligencia artificial podrían hacer que los extras de Hollywood queden obsoletos". El Correo de Washington . Archivado desde el original el 20 de julio de 2023 . Consultado el 4 de enero de 2024 .
  73. ^ ab "Intercambio de caras neuronales de alta resolución para efectos visuales | Disney Research Studios". Archivado desde el original el 27 de noviembre de 2020 . Consultado el 7 de octubre de 2020 .
  74. ^ ab "La tecnología deepfake de Disney podría utilizarse en cine y televisión". Bloloop . 21 de julio de 2020. Archivado desde el original el 12 de noviembre de 2020 . Consultado el 7 de octubre de 2020 .
  75. ^ Lindley, Jon A. (2 de julio de 2020). "Disney se aventura a recuperar 'actores muertos' mediante el reconocimiento facial". Tiempos tecnológicos . Archivado desde el original el 14 de julio de 2021 . Consultado el 7 de octubre de 2020 .
  76. ^ Radulovic, Petrana (17 de octubre de 2018). "Harrison Ford es la estrella de Solo: A Star Wars Story gracias a la tecnología deepfake". Polígono . Archivado desde el original el 20 de octubre de 2019 . Consultado el 20 de octubre de 2019 .
  77. ^ Winick, Erin. "Cómo actuar como la marioneta de Carrie Fisher hizo carrera para la princesa Leia de Rogue One". Revisión de tecnología del MIT . Archivado desde el original el 23 de octubre de 2019 . Consultado el 20 de octubre de 2019 .
  78. ^ "El deepfake Luke Skywalker es un paso más en un macabro camino CGI". GQ británico . 10 de febrero de 2022. Archivado desde el original el 22 de mayo de 2022 . Consultado el 3 de junio de 2022 .
  79. ^ Aturdido (10 de febrero de 2022). "¿Los deepfakes reescribirán la historia tal como la conocemos?". Aturdido . Archivado desde el original el 8 de junio de 2022 . Consultado el 3 de junio de 2022 .
  80. ^ Schwartzel, Erich (21 de diciembre de 2023). "Detrás de la creación de mi doble digital de IA". Wall Street Journal . Archivado desde el original el 6 de enero de 2024 . Consultado el 4 de enero de 2024 .
  81. ^ Café, Patrick (18 de junio de 2023). "Las celebridades utilizan la inteligencia artificial para tomar el control de sus propias imágenes". Wall Street Journal . Archivado desde el original el 10 de junio de 2024 . Consultado el 4 de enero de 2024 .
  82. ^ Katerina Cizek, William Uricchio y Sarah Wolozin: sabiduría colectiva | Instituto de Tecnología de Massachusetts [1] Archivado el 4 de marzo de 2020 en Wayback Machine.
  83. ^ "ANSA | Ornella Muti en cortometraggio a Firenze". 3 de noviembre de 2017. Archivado desde el original el 27 de febrero de 2020 . Consultado el 27 de febrero de 2020 .
  84. ^ "'Los creadores de South Park lanzan la nueva serie de sátira deepfake 'Sassy Justice'". NME . 27 de octubre de 2020. Archivado desde el original el 10 de junio de 2024 . Consultado el 7 de junio de 2022 .
  85. ^ ab Tayler, Kelley M.; Harris, Laurie A. (8 de junio de 2021). Falsificaciones profundas y seguridad nacional (Reporte). Servicio de Investigación del Congreso . pag. 1. Archivado desde el original el 14 de junio de 2022 . Consultado el 19 de julio de 2021 .
  86. ^ Limberg, Peter (24 de mayo de 2020). "Chantaje a la inflación". Estado de culto . Archivado desde el original el 24 de enero de 2021 . Consultado el 18 de enero de 2021 .
  87. ^ "Para Kappy". Telégrafo . 24 de mayo de 2020. Archivado desde el original el 24 de enero de 2021 . Consultado el 18 de enero de 2021 .
  88. ^ "Los jueces de la AGT tuvieron reacciones invaluables ante esa audición de canto de Simon Cowell". Sitio oficial de NBC Insider . 8 de junio de 2022. Archivado desde el original el 29 de agosto de 2022 . Consultado el 29 de agosto de 2022 .
  89. ^ Marr, Bernard. "¿Puede una IA del metaverso ganar America's Got Talent? (Y lo que eso significa para la industria)". Forbes . Archivado desde el original el 30 de agosto de 2022 . Consultado el 30 de agosto de 2022 .
  90. ^ Morales, Jowi (10 de junio de 2022). "Los deepfakes se generalizan: cómo la entrada AGT de Metaphysic afectará el entretenimiento". MUO . Archivado desde el original el 10 de junio de 2024 . Consultado el 29 de agosto de 2022 .
  91. ^ Carter, Rebecca (1 de junio de 2019). "Los espectadores de BGT critican a Simon Cowell por un comentario 'grosero' y 'desagradable' al concursante". Entretenimiento diario . Archivado desde el original el 31 de agosto de 2022 . Consultado el 31 de agosto de 2022 .
  92. ^ ¿ Simon Cowell canta en el escenario? La metafísica te dejará sin palabras | AGT 2022, archivado desde el original el 29 de agosto de 2022 , recuperado 29 de agosto 2022
  93. ^ Segarra, Eduardo. "'Los jueces de AGT, Simon Cowell y Howie Mandel, reciben un tratamiento 'deepfake' por parte de AI en Metaphysic: mira aquí ". EE.UU. HOY EN DÍA . Archivado desde el original el 31 de agosto de 2022 . Consultado el 31 de agosto de 2022 .
  94. ^ Bowenbank, Starr (14 de septiembre de 2022). "Simon Cowell hace dueto con Elvis en la última actuación de Deepfake 'AGT' de Metaphysic: Ver". Cartelera . Archivado desde el original el 10 de junio de 2024 . Consultado el 15 de septiembre de 2022 .
  95. ^ Zwiezen, Zack (18 de enero de 2021). "El sitio web te permite hacer que GLaDOS diga lo que quieras". Kotaku . Archivado desde el original el 17 de enero de 2021 . Consultado el 18 de enero de 2021 .
  96. ^ Ruppert, Liana (18 de enero de 2021). "Haz que GLaDOS de Portal y otros personajes queridos digan las cosas más raras con esta aplicación". Informador del juego . Informador del juego . Archivado desde el original el 18 de enero de 2021 . Consultado el 18 de enero de 2021 .
  97. ^ Clayton, Natalie (19 de enero de 2021). "Haz que el elenco de TF2 recite viejos memes con esta herramienta de conversión de texto a voz con IA". Jugador de PC . Archivado desde el original el 19 de enero de 2021 . Consultado el 19 de enero de 2021 .
  98. ^ Sherman, María (3 de diciembre de 2023). "Kiss se despide de las giras en vivo y se convierte en la primera banda estadounidense en volverse virtual y convertirse en avatares digitales". Noticias AP . Associated Press. Archivado desde el original el 1 de enero de 2024 . Consultado el 4 de enero de 2024 .
  99. ^ abc Cerullo, Megan (9 de enero de 2024). "Anuncios generados por IA que utilizan la imagen de Taylor Swift y engañan a los fanáticos con un sorteo falso de Le Creuset". Noticias CBS . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  100. ^ ABCDE Hsu, Tiffany; Lu, Yiwen (9 de enero de 2024). "No, esa no es Taylor Swift vendiendo utensilios de cocina Le Creuset". Los New York Times . pag. B1 . Consultado el 10 de enero de 2024 .
  101. ^ abc Taylor, Derrick Bryson (2 de octubre de 2023). "Tom Hanks advierte sobre un anuncio dental que utiliza su versión AI". Los New York Times . ISSN  0362-4331. Archivado desde el original el 10 de junio de 2024 . Consultado el 12 de octubre de 2023 .
  102. ^ abc Johnson, Kirsten (11 de diciembre de 2023). "Una mujer de Arizona es víctima de una estafa deepfake que utiliza celebridades en las redes sociales". ABC 15 Arizona . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  103. ^ ab Kulundu, Mary (4 de enero de 2024). "Vídeos deepfake de Elon Musk utilizados en una estafa para hacerse rico rápidamente". Agencia France-Presse . Archivado desde el original el 10 de junio de 2024 . Consultado el 10 de enero de 2024 .
  104. ^ Esmael, Lisbet (3 de enero de 2024). "PH necesita un enfoque multifacético frente a los videos 'deepfake' utilizados para estafar a Pinoys". CNN Filipinas . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  105. ^ Gerken, Tom (4 de octubre de 2023). "Estrellas de MrBeast y la BBC utilizadas en vídeos de estafas deepfake". Noticias de la BBC . Archivado desde el original el 10 de junio de 2024 . Consultado el 10 de enero de 2024 .
  106. ^ ab Lim, Kimberly (29 de diciembre de 2023). "El primer ministro de Singapur, Lee, advierte sobre deepfakes 'muy convincentes' que 'difunden desinformación' después de que emerge un video falso de él" . Poste matutino del sur de China . Archivado desde el original el 9 de enero de 2024 . Consultado el 10 de enero de 2024 .
  107. ^ Taylor, Josh (30 de noviembre de 2023). "El estafador pagó a Facebook 7 centavos por vista para hacer circular un video de Jim Chalmers y Gina Rinehart falsos". El guardián . Archivado desde el original el 10 de junio de 2024 . Consultado el 10 de enero de 2024 .
  108. ^ Palmer, Joseph Olbrycht (14 de diciembre de 2023). "Deepfake del tesoro australiano, los funcionarios del banco central lo utilizaron para promover estafas de inversión". Agencia France-Presse . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  109. ^ abc Koebler, Jason (9 de enero de 2024). "Los anuncios de celebridades deepfake que promueven estafas contra Medicare proliferan en YouTube". 404 Medios . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  110. ^ abc Rosenblatt, Kalhan (3 de octubre de 2023). "MrBeast llama 'estafa' al anuncio de TikTok que muestra una versión de él con IA". Noticias NBC . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  111. ^ Koebler, Jason (25 de enero de 2024). "YouTube elimina 1000 vídeos de anuncios fraudulentos de inteligencia artificial de celebridades". 404 Medios . Archivado desde el original el 10 de junio de 2024 . Consultado el 2 de febrero de 2024 .
  112. ^ Bucci, Nino (27 de noviembre de 2023). "Dick Smith critica a Facebook después de que los estafadores hicieran circular anuncios de vídeo deepfake". El guardián . Archivado desde el original el 10 de junio de 2024 . Consultado el 10 de enero de 2024 .
  113. ^ Lomas, Natasha (7 de julio de 2023). "Martin Lewis advierte sobre el 'primer' anuncio fraudulento de vídeo deepfake que circula en Facebook". TechCrunch . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  114. ^ Lopatto, Elizabeth (3 de enero de 2024). "Nueva y divertida consecuencia de los deepfake: estafas criptográficas más convincentes". El borde . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  115. ^ Punto, Maia; Poritz, Isaiah (11 de octubre de 2023). "MrBeast, Tom Hanks afectados por estafas de inteligencia artificial mientras Law se apresura a mantener el ritmo". Ley Bloomberg . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  116. ^ Statt, Nick (5 de septiembre de 2019). "Los ladrones ahora están utilizando deepfakes de IA para engañar a las empresas para que les envíen dinero". Archivado desde el original el 15 de septiembre de 2019 . Consultado el 13 de septiembre de 2019 .
  117. ^ Damiani, Jesse. "Se utilizó una voz Deepfake para estafar a un director ejecutivo por 243.000 dólares". Forbes . Archivado desde el original el 14 de septiembre de 2019 . Consultado el 9 de noviembre de 2019 .
  118. ^ "Deepfakes, explicados". MIT Sloan . 5 de marzo de 2024. Archivado desde el original el 5 de marzo de 2024 . Consultado el 6 de marzo de 2024 .
  119. ^ Schwartz, Cristóbal; Wright, Matthew (17 de marzo de 2023). "Los deepfakes de voz están llamando: esto es lo que son y cómo evitar ser estafados". La conversación . Archivado desde el original el 4 de enero de 2024 . Consultado el 4 de enero de 2024 .
  120. ^ C, Kim (22 de agosto de 2020). "Coffin Dance y más: los memes musicales de 2020 hasta ahora". Tiempos de música . Archivado desde el original el 26 de junio de 2021 . Consultado el 26 de agosto de 2020 .
  121. ^ Sholihyn, Ilyas (7 de agosto de 2020). "Alguien falsificó a los políticos de Singapur para sincronizar los labios con esa canción meme japonesa". AsiaUno . Archivado desde el original el 3 de septiembre de 2020 . Consultado el 26 de agosto de 2020 .
  122. ^ abcd "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 3 de febrero de 2018. Archivado desde el original el 13 de abril de 2019 . Consultado el 9 de abril de 2018 .
  123. ^ Gensing, Patrick. "Deepfakes: ¿Auf dem Weg in eine alternativa Realität?". Archivado desde el original el 11 de octubre de 2018 . Consultado el 9 de abril de 2018 .
  124. ^ Romano, Aja (18 de abril de 2018). "El anuncio de servicio público simulado de Obama de Jordan Peele es una advertencia de doble filo contra las noticias falsas". Vox . Archivado desde el original el 11 de junio de 2019 . Consultado el 10 de septiembre de 2018 .
  125. ^ Swenson, Kyle (11 de enero de 2019). "Una estación de televisión de Seattle transmitió imágenes manipuladas del discurso de Trump en la Oficina Oval. El empleado ha sido despedido". El Washington Post . Archivado desde el original el 15 de abril de 2019 . Consultado el 11 de enero de 2019 .
  126. ^ O'Sullivan, Donie (4 de junio de 2019). "El Congreso investigará los deepfakes mientras un video manipulado de Pelosi causa revuelo". CNN . Archivado desde el original el 29 de junio de 2019 . Consultado el 9 de noviembre de 2019 .
  127. ^ "#TellTheTruthBelgium". Rebelión de Extinción Bélgica . Archivado desde el original el 25 de abril de 2020 . Consultado el 21 de abril de 2020 .
  128. ^ Holubowicz, Gerald (15 de abril de 2020). "Extinction Rebellion s'empare des deepfakes". Periodismo.diseño (en francés). Archivado desde el original el 29 de julio de 2020 . Consultado el 21 de abril de 2020 .
  129. ^ Carnahan, Dustin (16 de septiembre de 2020). "Los vídeos falsos refuerzan creencias falsas sobre la salud mental de Biden". La conversación . Archivado desde el original el 9 de abril de 2022 . Consultado el 9 de abril de 2022 .
  130. ^ Parker, Ashley (7 de septiembre de 2020). "Trump y sus aliados intensifican sus esfuerzos para difundir desinformación y noticias falsas" . El independiente . Consultado el 9 de abril de 2022 .
  131. ^ Christopher, Nilesh (18 de febrero de 2020). "Acabamos de ver el primer uso de deepfakes en una campaña electoral india". Vicio . Archivado desde el original el 19 de febrero de 2020 . Consultado el 19 de febrero de 2020 .
  132. ^ "Amabie: la criatura mítica que regresa al coronavirus". El economista . 28 de abril de 2020. ISSN  0013-0613. Archivado desde el original el 20 de mayo de 2021 . Consultado el 3 de junio de 2021 .
  133. ^ Roth, Andrew (22 de abril de 2021). "Parlamentarios europeos objeto de videollamadas falsas que imitan a la oposición rusa". El guardián . Archivado desde el original el 29 de marzo de 2022 . Consultado el 29 de marzo de 2022 .
  134. ^ Ivanov, Máxima; Rothrock, Kevin (22 de abril de 2021). "Hola, soy Leonid Volkov* Utilizando vídeos deepfake y haciéndose pasar por la mano derecha de Navalny, los bromistas rusos engañan a políticos y periodistas letones para que los inviten y los entrevisten en televisión". Medusa . Archivado desde el original el 29 de marzo de 2022 . Consultado el 29 de marzo de 2022 .
  135. ^ "Parlamentarios holandeses en videoconferencia con una profunda imitación falsa del Jefe de Estado Mayor de Navalny". Tiempos de Holanda . 24 de abril de 2021. Archivado desde el original el 10 de junio de 2024 . Consultado el 29 de marzo de 2022 .
  136. ^ "'Asistente de Navalny 'deepfake' apunta a legisladores europeos" . Los tiempos de Moscú . 23 de abril de 2021. Archivado desde el original el 29 de marzo de 2022 . Consultado el 29 de marzo de 2022 .
  137. ^ Vincent, James (30 de abril de 2021). "'Deepfake 'que supuestamente engañó a los políticos europeos era sólo un doble, dicen los bromistas ". El borde . Archivado desde el original el 29 de marzo de 2022 . Consultado el 29 de marzo de 2022 .
  138. ^ Novak, Matt (8 de mayo de 2023). "El vídeo viral de Kamala Harris hablando galimatías es en realidad un deepfake". Forbes . Archivado desde el original el 18 de julio de 2023 . Consultado el 18 de julio de 2023 .
  139. ^ "PolitiFact: Kamala Harris no hablaba mal de hoy, ayer o mañana. Este video está modificado". Politifacto . Archivado desde el original el 10 de junio de 2024 . Consultado el 18 de julio de 2023 .
  140. ^ Shuham, Matt (8 de junio de 2023). "El anuncio de la campaña de DeSantis muestra imágenes falsas de IA de Trump abrazando a Fauci". Huffpost . Archivado desde el original el 10 de junio de 2024 . Consultado el 8 de junio de 2023 .
  141. ^ ab Roettgers, Janko (21 de febrero de 2018). "Los productores de pornografía se ofrecen para ayudar a Hollywood a eliminar los videos deepfake". Variedad . Archivado desde el original el 10 de junio de 2019 . Consultado el 28 de febrero de 2018 .
  142. ^ abc Dickson, EJ (7 de octubre de 2019). "La pornografía deepfake sigue siendo una amenaza, especialmente para las estrellas del K-Pop". Piedra rodante . Archivado desde el original el 30 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  143. ^ "El estado de Deepfake: panorama, amenazas e impacto" (PDF) . Traza profunda . 1 de octubre de 2019. Archivado (PDF) desde el original el 9 de agosto de 2020 . Consultado el 7 de julio de 2020 .
  144. ^ Goggin, Benjamin (7 de junio de 2019). "Del porno a 'Juego de Tronos': cómo los deepfakes y los vídeos falsos de aspecto realista triunfan". Business Insider . Archivado desde el original el 8 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  145. ^ Lee, Dave (3 de febrero de 2018). "La 'pornografía falsa' tiene graves consecuencias". Archivado desde el original el 1 de diciembre de 2019 . Consultado el 9 de noviembre de 2019 .
  146. ^ Cole, Samantha (19 de junio de 2018). "La solución de inteligencia artificial de Gfycat para combatir los deepfakes no funciona". Vicio . Archivado desde el original el 8 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  147. ^ Zoe, Freni (24 de noviembre de 2019). "El porno deepfake llegó para quedarse". Medio . Archivado desde el original el 10 de diciembre de 2019 . Consultado el 10 de diciembre de 2019 .
  148. ^ Cole, Samantha; Maiberg, Emanuel; Koebler, Jason (26 de junio de 2019). "Esta horrible aplicación desnuda una foto de cualquier mujer con un solo clic". Vicio . Archivado desde el original el 2 de julio de 2019 . Consultado el 2 de julio de 2019 .
  149. ^ Cox, Joseph (9 de julio de 2019). "GitHub eliminó las versiones de código abierto de DeepNude". Vicemedios . Archivado desde el original el 24 de septiembre de 2020 . Consultado el 14 de julio de 2019 .
  150. ^ "pic.twitter.com/8uJKBQTZ0o". 27 de junio de 2019. Archivado desde el original el 6 de abril de 2021 . Consultado el 3 de agosto de 2019 .
  151. ^ "Cientos de anuncios sexuales falsos que utilizan el rostro de Emma Watson se publicaron en Facebook e Instagram en los últimos dos días". Noticias NBC . 7 de marzo de 2023. Archivado desde el original el 29 de febrero de 2024 . Consultado el 8 de marzo de 2024 .
  152. ^ Filipovic, Jill (31 de enero de 2024). "Cualquiera podría ser víctima de 'deepfakes'. Pero hay una razón por la que Taylor Swift es un objetivo". El guardián . ISSN  0261-3077. Archivado desde el original el 10 de junio de 2024 . Consultado el 8 de marzo de 2024 .
  153. ^ Damiani, Jesse. "La aplicación china Deepfake Zao se vuelve viral y enfrenta críticas inmediatas por la política de seguridad y los datos del usuario". Forbes . Archivado desde el original el 14 de septiembre de 2019 . Consultado el 18 de noviembre de 2019 .
  154. ^ "Antes de las elecciones irlandesas y estadounidenses, Facebook anuncia nuevas medidas contra los vídeos 'deepfake'". Independiente.es decir . 7 de enero de 2020. Archivado desde el original el 8 de enero de 2020 . Consultado el 7 de enero de 2020 .
  155. ^ "Cómo el experto visual belga Chris Ume ideó los deepfakes de Tom Cruise". El estadista . 6 de marzo de 2021. Archivado desde el original el 24 de agosto de 2022 . Consultado el 24 de agosto de 2022 .
  156. ^ Metz, Raquel. "Cómo un Tom Cruise falso en TikTok se convirtió en una empresa de inteligencia artificial muy real". CNN . Archivado desde el original el 10 de junio de 2024 . Consultado el 17 de marzo de 2022 .
  157. ^ Corcoran, Marcos; Henry, Matt (23 de junio de 2021). "Este no es Tom Cruise. Eso es lo que tanto preocupa a los expertos en seguridad". ABC Noticias . Archivado desde el original el 28 de marzo de 2022 . Consultado el 28 de marzo de 2022 .
  158. ^ Reuters, 15 de julio de 2020, Deepfake utilizado para atacar a una pareja de activistas muestra una nueva frontera de desinformación Archivado el 26 de septiembre de 2020 en Wayback Machine.
  159. ^ 972 Magazine, 12 de agosto de 2020, "¿'Izquierdistas por Bibi'? Propaganda deepfake pro-Netanyahu expuesta: según una serie de publicaciones en Facebook, el primer ministro israelí se está ganando seguidores de izquierda, excepto que ninguna de las personas en La pregunta existe" Archivado el 14 de agosto de 2020 en Wayback Machine.
  160. ^ El séptimo ojo, 9 de junio de 2020, הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזו יפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות ריות על מנת להגביר את השנאה והפילוג בחברה הישראלית Archivado el 18 de agosto de 2020 en Wayback Machine.
  161. ^ ab "La tecnología perfecta Deepfake podría llegar antes de lo esperado". www.wbur.org . 2 de octubre de 2019. Archivado desde el original el 30 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  162. ^ Sonnemaker, Tyler. "Mientras las plataformas de redes sociales se preparan para la ola entrante de deepfakes, el ex 'zar del fraude' de Google predice que el mayor peligro es que los deepfakes eventualmente se vuelvan aburridos". Business Insider . Archivado desde el original el 14 de abril de 2021 . Consultado el 14 de abril de 2021 .
  163. ^ Vaccari, Cristian; Chadwick, Andrew (enero de 2020). "Deepfakes y desinformación: exploración del impacto de los vídeos políticos sintéticos en el engaño, la incertidumbre y la confianza en las noticias". Redes Sociales + Sociedad . 6 (1): 205630512090340. doi : 10.1177/2056305120903408 . ISSN  2056-3051. S2CID  214265502.
  164. ^ abc Bateman, Jon (2020). "Resumen". Deepfakes y medios sintéticos en el sistema financiero : 1–2. Archivado desde el original el 20 de abril de 2021 . Consultado el 28 de octubre de 2020 .
  165. ^ Kelion, Leo (septiembre de 2020). "Herramienta de detección de deepfake presentada por Microsoft". Noticias de la BBC . Archivado desde el original el 14 de abril de 2021 . Consultado el 15 de abril de 2021 .
  166. ^ Cohen, Ariel; Rimón, Inbal; Aflalo, Eran; Permuter, Haim H. (junio de 2022). "Un estudio sobre el aumento de datos en la lucha contra la suplantación de voz". Comunicación del habla . 141 : 56–67. arXiv : 2110.10491 . doi :10.1016/j.specom.2022.04.005. S2CID  239050551.
  167. ^ abc Manke, Kara (18 de junio de 2019). "Los investigadores utilizan peculiaridades faciales para desenmascarar los 'deepfakes'". Noticias de Berkeley . Archivado desde el original el 9 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  168. ^ Farid, Hany (1 de diciembre de 2006). "Médico digital: cómo distinguir lo real de lo falso". Significado . 3 (4): 162–166. doi : 10.1111/j.1740-9713.2006.00197.x . S2CID  13861938.
  169. ^ "Únase al desafío de detección de deepfake (DFDC)". deepfakedetectionchallenge.ai. Archivado desde el original el 12 de enero de 2020 . Consultado el 8 de noviembre de 2019 .
  170. ^ "Resultados del desafío de detección de deepfake: una iniciativa abierta para avanzar en la IA". ai.facebook.com . Archivado desde el original el 29 de octubre de 2020 . Consultado el 30 de septiembre de 2022 .
  171. ^ Groh, Mateo; Epstein, Ziv; Piedra de fuego, Chaz; Picard, Rosalinda (2022). "Detección de deepfake por parte de multitudes humanas, máquinas y multitudes informadas por máquinas". Procedimientos de la Academia Nacional de Ciencias . 119 (1). arXiv : 2105.06496 . Código Bib : 2022PNAS..11910013G. doi : 10.1073/pnas.2110013119 . PMC 8740705 . PMID  34969837. 
  172. ^ Hu, Shu; Li, Yuezun; Lyu, Siwei (12 de octubre de 2020). "Exponer rostros generados por GAN utilizando reflejos especulares corneales inconsistentes". arXiv : 2009.11924 [cs.CV].
  173. ^ Boháček, M; Farid, H (29 de noviembre de 2022). "Proteger a los líderes mundiales contra falsificaciones profundas mediante gestos faciales, gestuales y vocales". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 119 (48): e2216035119. Código Bib : 2022PNAS..11916035B. doi : 10.1073/pnas.2216035119 . PMC 9860138 . PMID  36417442. 
  174. ^ ab "Google Académico". académico.google.com . Consultado el 30 de abril de 2022 .
  175. ^ ab Masi, Iacopo; Killekar, Aditya; Mascarenhas, Royston Marian; Gurudatt, Shenoy Pratik; Abdalmaged, Wael (2020). Red recurrente de dos ramas para aislar deepfakes en vídeos. Apuntes de conferencias sobre informática. vol. 12352. págs. 667–684. arXiv : 2008.03412 . doi :10.1007/978-3-030-58571-6_39. ISBN 978-3-030-58570-9. Archivado desde el original el 10 de junio de 2024 . Consultado el 30 de abril de 2022 .
  176. ^ abc "La solución Blockchain a nuestros problemas de deepfake". Cableado . ISSN  1059-1028. Archivado desde el original el 7 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  177. ^ ab Leetaru, Kalev. "Por qué las firmas digitales no evitarán falsificaciones profundas pero ayudarán a los gobiernos represivos". Forbes . Archivado desde el original el 14 de abril de 2021 . Consultado el 17 de febrero de 2021 .
  178. ^ "Para descubrir una videollamada deepfake, pídale a la persona que llama que se gire de lado". Metafísica . 8 de agosto de 2022. Archivado desde el original el 26 de agosto de 2022 . Consultado el 24 de agosto de 2022 .
  179. ^ "El anillo de Kate Middleton desaparece misteriosamente y genera más preocupaciones sobre la IA". MSN. 25 de marzo de 2024. Archivado desde el original el 10 de junio de 2024 . Consultado el 19 de mayo de 2024 .
  180. ^ Hindustan Times (5 de abril de 2024). " ' La admisión de cáncer de Kate es falsa', el fanático de Meghan Markle y director de UCLA, Johnathan Perkins, plantea una teoría de la conspiración" . Los tiempos del Hindustan. Archivado desde el original el 10 de junio de 2024 . Consultado el 19 de mayo de 2024 .
  181. ^ Fagan, Kaylee. "Un video viral que parecía mostrar a Obama llamando a Trump 'caídas---' muestra una nueva e inquietante tendencia llamada 'deepfakes'". Business Insider . Archivado desde el original el 22 de septiembre de 2020 . Consultado el 3 de noviembre de 2020 .
  182. ^ ab "El auge de los deepfake y la amenaza a la democracia". El guardián . Archivado desde el original el 1 de noviembre de 2020 . Consultado el 3 de noviembre de 2020 .
  183. ^ ab "En las redes sociales circulan imágenes generadas por inteligencia artificial del arresto de Trump". Noticias AP. 21 de marzo de 2023. Archivado desde el original el 10 de junio de 2024 . Consultado el 10 de octubre de 2023 .
  184. ^ "Trump comparte una foto falsa de sí mismo orando mientras las imágenes de arresto de IA se difunden en línea". El independiente . 24 de marzo de 2023. Archivado desde el original el 28 de mayo de 2023 . Consultado el 16 de junio de 2023 .
  185. ^ Torres-Clark, Charles. "Mona Lisa y Nancy Pelosi: las implicaciones de los deepfakes". Forbes . Archivado desde el original el 23 de noviembre de 2020 . Consultado el 7 de octubre de 2020 .
  186. ^ "¿Cuál es la diferencia entre un Deepfake y un Shallowfake?". 21 de abril de 2020. Archivado desde el original el 26 de junio de 2022 . Consultado el 5 de diciembre de 2021 .
  187. ^ "Galería: Lanzamiento de 'Spectre' (Comunicado de prensa)". Carteles de facturas . 29 de mayo de 2019. Archivado desde el original el 10 de junio de 2024 . Consultado el 15 de mayo de 2024 .
  188. ^ Cole, Samantha (11 de junio de 2019). "Este Deepfake de Mark Zuckerberg pone a prueba las políticas de vídeos falsos de Facebook". Vicio . Archivado desde el original el 10 de junio de 2024 . Consultado el 15 de mayo de 2024 .
  189. ^ abc "Deepfake Putin está aquí para advertir a los estadounidenses sobre su perdición autoinfligida". Revisión de tecnología del MIT . Archivado desde el original el 30 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  190. ^ Sonne, Paul (5 de junio de 2023). "Discurso falso de Putin pidiendo la ley marcial transmitido en Rusia". Los New York Times . Archivado desde el original el 10 de junio de 2024 . Consultado el 6 de junio de 2023 .
  191. ^ Allyn, Bobby (16 de marzo de 2022). "El vídeo deepfake de Zelenskyy podría ser la 'punta del iceberg' en la guerra de la información, advierten los expertos". NPR . Archivado desde el original el 29 de marzo de 2022 . Consultado el 17 de marzo de 2022 .
  192. ^ Satariano, Adán; Mozur, Paul (7 de febrero de 2023). "La gente que aparece en pantalla es falsa. La desinformación es real". Los New York Times . Archivado desde el original el 10 de junio de 2024 . Consultado el 10 de febrero de 2023 .
  193. ^ "El Papa Francisco en el deepfake de Balenciaga engaña a millones: 'Definitivamente aterrador'". Correo de Nueva York . 28 de marzo de 2023. Archivado desde el original el 10 de junio de 2024 . Consultado el 16 de junio de 2023 .
  194. ^ Lu, Donna (31 de marzo de 2023). "Desinformación, errores y el Papa en un inhalador: lo que la IA en rápida evolución puede y no puede hacer" . El guardián . Archivado desde el original el 10 de junio de 2024 . Consultado el 16 de junio de 2023 .
  195. ^ Murphy, Heather Tal (29 de marzo de 2023). "El Papa con abrigo no es de un lugar santo". Pizarra . Archivado desde el original el 10 de junio de 2024 . Consultado el 16 de junio de 2023 .
  196. ^ "Audio deepfake de Sir Keir Starmer publicado el primer día de la conferencia laborista". Noticias del cielo . Consultado el 29 de mayo de 2024 .
  197. ^ "Mujer en video deepfake con el rostro de Rashmika Mandanna rompe el silencio: estoy profundamente perturbada y molesta por lo que está sucediendo". Los tiempos de la India . 9 de noviembre de 2023. ISSN  0971-8257. Archivado desde el original el 23 de noviembre de 2023 . Consultado el 23 de noviembre de 2023 .
  198. ^ Cupin, Bea (24 de abril de 2024). "Malacañang señala audio falso de Marcos ordenando un ataque militar". Rappler . Archivado desde el original el 10 de junio de 2024 . Consultado el 14 de mayo de 2024 .
  199. ^ Flores, Helen (27 de abril de 2024). "'Actor extranjero 'visto detrás del audio deepfake del presidente Marcos ". La estrella de Filipinas . Archivado desde el original el 10 de junio de 2024 . Consultado el 14 de mayo de 2024 .
  200. ^ Argosino, Fe (14 de mayo de 2024). "Raps archivados versus páginas de redes sociales por contenido difamatorio, Marcos deepfake". Investigador diario filipino . Archivado desde el original el 10 de junio de 2024 . Consultado el 14 de mayo de 2024 .
  201. ^ "¿Intercambio de cara? El detector de deepfake marca el presunto video de Marcos como 'sospechoso'". Rappler . 23 de julio de 2024 . Consultado el 25 de julio de 2024 .
  202. ^ "Los hallazgos de NBI y PNP muestran un video falso de 'polvorón'". La estrella filipina . 24 de julio de 2024 . Consultado el 25 de julio de 2024 .
  203. ^ Shepardson, David (23 de mayo de 2024). "Consultor político estadounidense acusado de llamadas automáticas de Biden generadas por IA". Reuters .
  204. ^ "Consultor político estadounidense acusado de llamadas automáticas de Biden generadas por IA". Noticias AP . 23 de mayo de 2024. Archivado desde el original el 10 de junio de 2024 . Consultado el 8 de junio de 2024 .
  205. ^ abcd "Ayúdanos a dar forma a nuestro enfoque hacia los medios sintéticos y manipulados". blog.twitter.com . Archivado desde el original el 28 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  206. ^ "TecnologíaCrunch". TechCrunch . 11 de noviembre de 2019. Archivado desde el original el 14 de julio de 2021 . Consultado el 7 de octubre de 2020 .
  207. ^ ab "Resultados del desafío de detección de deepfake: una iniciativa abierta para avanzar en la IA". ai.facebook.com . Archivado desde el original el 29 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  208. ^ ab Paul, Katie (4 de febrero de 2020). "Twitter para etiquetar deepfakes y otros medios engañosos". Reuters . Archivado desde el original el 10 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  209. ^ Cole, Samantha (31 de enero de 2018). "Los creadores de pornografía falsa generada por IA han sido expulsados ​​de su presentador favorito". Vicio . Archivado desde el original el 1 de noviembre de 2019 . Consultado el 18 de noviembre de 2019 .
  210. ^ Böhm, Markus (7 de febrero de 2018). ""Deepfakes ": Firmen gehen gegen gefälschte Promi-Pornos vor". Spiegel en línea . Archivado desde el original el 23 de septiembre de 2019 . Consultado el 9 de noviembre de 2019 .
  211. ^ barbara.wimmer (8 de febrero de 2018). "Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos". Futurezone.at (en alemán). Archivado desde el original el 8 de febrero de 2018 . Consultado el 9 de noviembre de 2019 .
  212. ^ "Deepfakes: también Reddit dice porno falso". heise en línea (en alemán). 8 de febrero de 2018. Archivado desde el original el 10 de abril de 2019 . Consultado el 9 de noviembre de 2019 .
  213. ^ "Reddit verbannt Deepfake-Pornos - derStandard.de". DER STANDARD (en alemán austriaco). Archivado desde el original el 9 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  214. ^ Robertson, Adi (7 de febrero de 2018). "Reddit prohíbe las comunidades pornográficas de IA 'deepfakes'". El borde . Archivado desde el original el 24 de septiembre de 2019 . Consultado el 9 de noviembre de 2019 .
  215. ^ Cole, Samantha (6 de febrero de 2018). "Twitter es la última plataforma en prohibir la pornografía generada por IA". Vicio . Archivado desde el original el 1 de noviembre de 2019 . Consultado el 8 de noviembre de 2019 .
  216. ^ Precio, Rob (27 de enero de 2018). "Discord acaba de cerrar un grupo de chat dedicado a compartir videos porno editados con IA para incluir celebridades". Business Insider Australia . Archivado desde el original el 15 de diciembre de 2019 . Consultado el 28 de noviembre de 2019 .
  217. ^ "Twitter prohíbe la pornografía 'deepfake' generada por IA". Engadget . 20 de julio de 2019. Archivado desde el original el 15 de diciembre de 2019 . Consultado el 28 de noviembre de 2019 .
  218. ^ ab Harrell, Drew. "Los vídeos porno falsos se están utilizando como arma para acosar y humillar a las mujeres: 'Todo el mundo es un objetivo potencial'". El Washington Post . Archivado desde el original el 2 de enero de 2019 . Consultado el 1 de enero de 2019 .
  219. ^ ab Cole, Samantha (6 de febrero de 2018). "Pornhub está prohibiendo los vídeos porno falsos generados por IA, dice que no son consensuales". Vicio . Archivado desde el original el 1 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  220. ^ Beres, Damon; Gilmer, Marcus (2 de febrero de 2018). "Una guía sobre los 'deepfakes', la última crisis moral de Internet". Machacable . Archivado desde el original el 9 de diciembre de 2019 . Consultado el 9 de noviembre de 2019 .
  221. ^ ab "Facebook ha prometido dejar un video falso de Mark Zuckerberg". Revisión de tecnología del MIT . Archivado desde el original el 16 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  222. ^ Cole, Samantha (11 de junio de 2019). "Este Deepfake de Mark Zuckerberg pone a prueba las políticas de vídeos falsos de Facebook". Vicio . Archivado desde el original el 12 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  223. ^ Anderson, Martín (2022). Google ha prohibido el entrenamiento de deepfakes en Colab Archivado el 30 de mayo de 2022 en Wayback Machine , Unite.ai, 28 de mayo de 2022
  224. ^ Maiberg, Emanuel (2022). Se necesitan 2 clics para pasar de 'Deep Tom Cruise' a vil pornografía deepfake Archivado el 30 de mayo de 2022 en Wayback Machine , VICE, 17 de mayo de 2022
  225. ^ Sasse, Ben (21 de diciembre de 2018). "S. 3805-115.º Congreso (2017-2018): Ley de prohibición de falsificaciones profundas y maliciosas de 2018". www.congreso.gov . Archivado desde el original el 16 de octubre de 2019 . Consultado el 16 de octubre de 2019 .
  226. ^ "La pornografía de venganza 'deepfake' ahora es ilegal en Virginia" . TechCrunch . Julio de 2019. Archivado desde el original el 14 de julio de 2021 . Consultado el 16 de octubre de 2019 .
  227. ^ Iacono Brown, Nina (15 de julio de 2019). "El Congreso quiere resolver los deepfakes para 2020. Eso debería preocuparnos". Revista Pizarra . Archivado desde el original el 16 de octubre de 2019 . Consultado el 16 de octubre de 2019 .
  228. ^ ab "Texto del proyecto de ley - AB-602 Representación de una persona utilizando tecnología digital o electrónica: material sexualmente explícito: causa de acción". leginfo.legislature.ca.gov . Archivado desde el original el 17 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  229. ^ ab "Texto del proyecto de ley - Elecciones AB-730: medios visuales o de audio engañosos". leginfo.legislature.ca.gov . Archivado desde el original el 31 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  230. ^ "China busca erradicar las noticias falsas y los deepfakes con nuevas reglas de contenido en línea". Reuters.com . Reuters . 29 de noviembre de 2019. Archivado desde el original el 17 de diciembre de 2019 . Consultado el 17 de diciembre de 2019 .
  231. ^ Statt, Nick (29 de noviembre de 2019). "China tipifica como delito la publicación de deepfakes o noticias falsas sin divulgación" . El borde . Archivado desde el original el 22 de diciembre de 2019 . Consultado el 17 de diciembre de 2019 .
  232. ^ Solicitud de proyecto de ley sobre upskirting que incluya la prohibición de la pornografía 'deepfake' Archivado el 21 de junio de 2018 en Wayback Machine The Guardian
  233. ^ [2] Archivado el 22 de noviembre de 2019 en Wayback Machine, consulte la página 18.
  234. ^ Bogart, Nicole (10 de septiembre de 2019). "Cómo los deepfakes podrían afectar las elecciones canadienses de 2019". Elecciones Federales 2019 . Archivado desde el original el 27 de enero de 2020 . Consultado el 28 de enero de 2020 .
  235. ^ "¿Qué puede hacer la ley con respecto a los deepfake?". mcmillan.ca . Archivado desde el original el 7 de diciembre de 2019 . Consultado el 28 de enero de 2020 .
  236. ^ Venkatasubbbu, Satish (27 de junio de 2023). "¿Cómo se utilizan los deepfakes para estafarnos a usted y a mí? Tendencias actuales sobre detección mediante inteligencia artificial y regulaciones legales en todo el mundo". cybermithra.in . Archivado desde el original el 10 de junio de 2024 . Consultado el 3 de julio de 2023 .
  237. ^ Romero-Moreno, Felipe (29 de marzo de 2024). "IA generativa y deepfakes: un enfoque de derechos humanos para abordar el contenido dañino". Revista Internacional de Derecho, Informática y Tecnología . 39 (2): 1–30. doi : 10.1080/13600869.2024.2324540 . hdl : 2299/20431 . ISSN  1360-0869.
  238. ^ Hatmaker, Taylor (1 de mayo de 2018). "DARPA está financiando nueva tecnología que puede identificar vídeos manipulados y 'deepfakes'". TechCrunch . Archivado desde el original el 8 de diciembre de 2023 . Consultado el 14 de abril de 2024 .
  239. ^ Hsu, Jeremy (22 de junio de 2018). "Los expertos apuestan por el primer escándalo político de los deepfakes: IEEE Spectrum". IEEE . Archivado desde el original el 22 de febrero de 2024 . Consultado el 14 de abril de 2024 .
  240. ^ "Ciencia forense de medios". www.darpa.mil . Archivado desde el original el 29 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  241. ^ "El ejército estadounidense está financiando un esfuerzo para detectar deepfakes y otros engaños de la IA". Revisión de tecnología del MIT . Archivado desde el original el 1 de noviembre de 2020 . Consultado el 7 de octubre de 2020 .
  242. ^ Collins, Connor (11 de marzo de 2019). "DARPA aborda los deepfakes con IA". GovCIO Medios e investigación . Archivado desde el original el 2 de marzo de 2024 . Consultado el 14 de abril de 2024 .
  243. ^ ab "DARPA está asumiendo el problema de los deepfake". Nextgov.com . 6 de agosto de 2019. Archivado desde el original el 28 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  244. ^ Sybert, Sarah (16 de septiembre de 2021). "DARPA lanza nuevos programas para detectar medios falsificados". GovCIO Medios e investigación . Archivado desde el original el 10 de junio de 2024 . Consultado el 14 de abril de 2024 .
  245. ^ Cooper, Naomi (15 de marzo de 2024). "DARPA lanza dos nuevos esfuerzos para impulsar las defensas contra los medios manipulados". Archivado desde el original el 15 de marzo de 2024 . Consultado el 14 de abril de 2024 .
  246. ^ "Ciencia forense semántica: catálogo analítico". semanticforensics.com . Archivado desde el original el 18 de abril de 2024 . Consultado el 14 de abril de 2024 .
  247. ^ Academias Nacionales de Ciencias, Ingeniería y Medicina (22 de junio de 2023). "La Cumbre del Premio Nobel impulsa iniciativas para combatir la desinformación y la desinformación y generar confianza en la ciencia". Academias Nacionales de Ciencias, Ingeniería y Medicina . Wikidata  Q124711722.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  248. ^ "Picaper". Base de datos de ficción especulativa de Internet . Archivado desde el original el 29 de julio de 2020 . Consultado el 9 de julio de 2019 .
  249. ^ Kerr, Felipe (2010). Una investigación filosófica . Libros de National Geographic. ISBN 978-0143117537.
  250. ^ Bernal, Natasha (8 de octubre de 2019). "La inquietante verdad detrás de The Capture y los deepfakes de la vida real". El Telégrafo . Archivado desde el original el 14 de octubre de 2019 . Consultado el 24 de octubre de 2019 .
  251. ^ Crawley, Peter (5 de septiembre de 2019). "The Capture: un thriller de la BBC sobre vigilancia, distorsión y duplicidad". Los tiempos irlandeses . Archivado desde el original el 9 de septiembre de 2019 . Consultado el 24 de octubre de 2019 .
  252. ^ John Travolta es Forrest Gump [DeepFake]. Archivado desde el original el 20 de abril de 2024 . Consultado el 20 de abril de 2024 , a través de www.youtube.com.
  253. ^ Novak, Lauren (24 de noviembre de 2023). "John Travolta rechazó 'Forrest Gump' y otras estrellas que optaron por no interpretar personajes icónicos". Recordar . Archivado desde el original el 10 de junio de 2024 . Consultado el 20 de abril de 2024 .
  254. ^ "ESPN Films Latest 30 for 30 Documental Al Davis vs. The NFL se estrenará el 4 de febrero" (Presione soltar). ESPN. 15 de enero de 2021. Archivado desde el original el 6 de febrero de 2021 . Consultado el 5 de febrero de 2021 .
  255. ^ Sprung, Shlomo (1 de febrero de 2021). "El documental de ESPN 'Al Davis Vs The NFL' utiliza tecnología Deepfake para devolverle la vida al difunto propietario de los Raiders". Forbes . Archivado desde el original el 14 de abril de 2021 . Consultado el 4 de febrero de 2021 .
  256. ^ "Hudson y Rex". Archivado desde el original el 13 de enero de 2022 . Consultado el 13 de enero de 2022 .
  257. ^ ab Wood, Mikael (9 de mayo de 2022). "Mira a Kendrick Lamar transformarse en OJ, Kanye, Kobe, Nipsey Hussle en un nuevo video". Los Ángeles Times . Archivado desde el original el 30 de octubre de 2022 . Consultado el 10 de mayo de 2022 .
  258. ^ Aloe Blacc - Wake Me Up (Universal Language Mix), 20 de abril de 2022, archivado desde el original el 24 de agosto de 2022 , recuperado 24 de agosto de 2022
  259. ^ "Mira a Aloe Blacc interpretar" Wake Me Up "en tres idiomas para honrar a Avicii utilizando la traducción de Respeecher AI". Voicebot.ai . 5 de mayo de 2022. Archivado desde el original el 24 de agosto de 2022 . Consultado el 24 de agosto de 2022 .
  260. ^ Lees, Dominic (27 de enero de 2023). "Deep Fake Neighbor Wars: la comedia de ITV muestra cómo la IA puede transformar la cultura popular". La conversación . Archivado desde el original el 24 de junio de 2023 . Consultado el 3 de julio de 2023 .

Otras lecturas

enlaces externos