stringtranslate.com

falso

Los deepfakes ( común de " aprendizaje profundo " y "falso" [1] ) son medios sintéticos [2] que han sido manipulados digitalmente para reemplazar de manera convincente la imagen de una persona con la de otra. Los deepfakes son la manipulación de la apariencia facial a través de métodos generativos profundos. [3] Si bien el acto de crear contenido falso no es nuevo, los deepfakes aprovechan poderosas técnicas de aprendizaje automático e inteligencia artificial para manipular o generar contenido visual y de audio que puede engañar más fácilmente. [4] [5] Los principales métodos de aprendizaje automático utilizados para crear deepfakes se basan en el aprendizaje profundo e implican el entrenamiento de arquitecturas de redes neuronales generativas , como los codificadores automáticos , [4] o redes generativas adversarias (GAN). [6] [7] A su vez el campo de la imagen forense desarrolla técnicas para detectar imágenes manipuladas . [8]

Los deepfakes han atraído una amplia atención por su uso potencial en la creación de material de abuso sexual infantil , videos pornográficos de celebridades , pornografía de venganza , noticias falsas , engaños , intimidación y fraude financiero . [9] [10] [11] [12] La difusión de desinformación y discursos de odio a través de deepfakes tiene el potencial de socavar funciones y normas centrales de los sistemas democráticos al interferir con la capacidad de las personas para participar en decisiones que las afectan, determinar agendas colectivas y expresar voluntad política mediante la toma de decisiones informadas. [13] Esto ha suscitado respuestas tanto de la industria como del gobierno para detectar y limitar su uso. [14] [15]

Desde el entretenimiento tradicional hasta los juegos , la tecnología deepfake ha evolucionado para ser cada vez más convincente [16] y estar disponible para el público, lo que ha permitido la disrupción de las industrias del entretenimiento y los medios . [17]

Historia

Imagen de un personaje ficticio de Stable Diffusion

La manipulación fotográfica se desarrolló en el siglo XIX y pronto se aplicó a las películas. La tecnología mejoró constantemente durante el siglo XX y más rápidamente con la llegada del vídeo digital .

La tecnología deepfake ha sido desarrollada por investigadores de instituciones académicas a partir de la década de 1990 y, más tarde, por aficionados en comunidades en línea. [18] [19] Más recientemente, los métodos han sido adoptados por la industria. [20]

Investigación académica

La investigación académica relacionada con los deepfakes se divide entre el campo de la visión por computadora , un subcampo de la informática, [18] que desarrolla técnicas para crear e identificar deepfakes, y enfoques de humanidades y ciencias sociales que estudian las implicaciones sociales, éticas y estéticas de los deepfakes. falsificaciones profundas.

Aproximaciones de las ciencias sociales y las humanidades a los deepfakes

En los estudios cinematográficos, los deepfakes demuestran cómo "el rostro humano se está convirtiendo en un objeto central de ambivalencia en la era digital". [21] Los videoartistas han utilizado deepfakes para "reescribir de manera divertida la historia del cine modernizando el cine canónico con nuevos artistas estrella". [22] El estudioso del cine Christopher Holliday analiza cómo cambiar el género y la raza de los actores en escenas cinematográficas familiares desestabiliza las clasificaciones y categorías de género. [22] La idea de los deepfakes " queering " también se analiza en el análisis de Oliver M. Gingrich sobre las obras de arte mediáticas que utilizan deepfakes para replantear el género, [23] incluido Zizi: Queering the Dataset del artista británico Jake Elwes , una obra de arte que utiliza deepfakes de drag queens para jugar intencionalmente con el género. También se están empezando a explorar los potenciales estéticos de los deepfakes. El historiador del teatro John Fletcher señala que las primeras demostraciones de deepfakes se presentan como representaciones y las sitúa en el contexto del teatro, analizando "algunos de los cambios de paradigma más preocupantes" que los deepfakes representan como género de actuación. [24]

Filósofos y estudiosos de los medios han debatido la ética de los deepfakes, especialmente en relación con la pornografía. [25] La académica en medios Emily van der Nagel se basa en investigaciones en estudios fotográficos sobre imágenes manipuladas para discutir los sistemas de verificación que permiten a las mujeres dar su consentimiento para el uso de sus imágenes. [26]

Más allá de la pornografía, los filósofos han enmarcado los deepfakes como una "amenaza epistémica" al conocimiento y, por tanto, a la sociedad. [27] Hay varias otras sugerencias sobre cómo abordar los riesgos que los deepfakes generan más allá de la pornografía, pero también a las corporaciones, políticos y otros, de "explotación, intimidación y sabotaje personal", [28] y hay varias discusiones académicas. de posibles respuestas legales y regulatorias tanto en estudios legales como en estudios de medios. [29] En psicología y estudios de medios, los académicos discuten los efectos de la desinformación que utiliza deepfakes, [30] [31] y el impacto social de los deepfakes. [32]

Mientras que la mayoría de los estudios académicos en inglés sobre los deepfakes se centran en las ansiedades occidentales por la desinformación y la pornografía, el antropólogo digital Gabriele de Seta ha analizado la recepción china de los deepfakes, conocidos como huanlian , que se traduce como "rostros cambiantes". El término chino no contiene el "falso" del inglés deepfake, y de Seta sostiene que este contexto cultural puede explicar por qué la respuesta china ha sido más bien respuestas regulatorias prácticas a "riesgos de fraude, derechos de imagen, ganancias económicas y desequilibrios éticos". ". [33]

Investigación informática sobre deepfakes

Uno de los primeros proyectos emblemáticos fue el programa Video Rewrite, publicado en 1997, que modificaba imágenes de vídeo existentes de una persona hablando para representar a esa persona pronunciando las palabras contenidas en una pista de audio diferente. [34] Fue el primer sistema en automatizar completamente este tipo de reanimación facial, y lo hizo utilizando técnicas de aprendizaje automático para establecer conexiones entre los sonidos producidos por el sujeto de un video y la forma de la cara del sujeto. [34]

Los proyectos académicos contemporáneos se han centrado en la creación de vídeos más realistas y en la mejora de técnicas. [35] [36] El programa "Synthesizing Obama", publicado en 2017, modifica imágenes de video del ex presidente Barack Obama para mostrarlo pronunciando las palabras contenidas en una pista de audio separada. [35] El proyecto enumera como principal contribución de investigación su técnica fotorrealista para sintetizar formas de boca a partir de audio. [35] El programa Face2Face, publicado en 2016, modifica imágenes de vídeo del rostro de una persona para representarla imitando las expresiones faciales de otra persona en tiempo real. [36] El proyecto enumera como principal contribución de investigación el primer método para recrear expresiones faciales en tiempo real usando una cámara que no captura la profundidad, lo que hace posible que la técnica se realice usando cámaras comunes de consumo. [36]

En agosto de 2018, investigadores de la Universidad de California en Berkeley publicaron un artículo en el que presentaban una aplicación de baile falsa que puede crear la impresión de una habilidad de baile magistral utilizando IA. [37] Este proyecto amplía la aplicación de deepfakes a todo el cuerpo; trabajos anteriores se centraron en la cabeza o partes del rostro. [38]

Los investigadores también han demostrado que los deepfakes se están expandiendo a otros ámbitos, como la manipulación de imágenes médicas. [39] En este trabajo, se demostró cómo un atacante puede inyectar o eliminar automáticamente cáncer de pulmón en una tomografía computarizada 3D de un paciente . El resultado fue tan convincente que engañó a tres radiólogos y a una IA de última generación para la detección del cáncer de pulmón. Para demostrar la amenaza, los autores realizaron con éxito el ataque a un hospital en una prueba de penetración de sombrero blanco . [40]

Una encuesta sobre deepfakes, publicada en mayo de 2020, proporciona una cronología de cómo ha avanzado la creación y detección de deepfakes en los últimos años. [41] La encuesta identifica que los investigadores se han centrado en resolver los siguientes desafíos de la creación de deepfake:

En general, se espera que los deepfakes tengan varias implicaciones en los medios y la sociedad, la producción de los medios, las representaciones de los medios, las audiencias de los medios, el género, las leyes y regulaciones, y la política. [42]

Desarrollo aficionado

El término deepfakes se originó a finales de 2017 por un usuario de Reddit llamado "deepfakes". [43] Él, así como otros en la comunidad de Reddit r/deepfakes, compartieron los deepfakes que crearon; muchos videos involucraban rostros de celebridades intercambiados en cuerpos de actrices en videos pornográficos, [43] mientras que el contenido no pornográfico incluía muchos videos con el rostro del actor Nicolas Cage intercambiado en varias películas. [44]

Otras comunidades en línea permanecen, incluidas las comunidades de Reddit que no comparten pornografía, como r/SFWdeepfakes (abreviatura de "safe for work deepfakes"), en las que los miembros de la comunidad comparten deepfakes que representan a celebridades, políticos y otras personas en escenarios no pornográficos. [45] Otras comunidades en línea continúan compartiendo pornografía en plataformas que no han prohibido la pornografía deepfake. [46]

Desarrollo comercial

En enero de 2018, se lanzó una aplicación de escritorio patentada llamada FakeApp. [47] Esta aplicación permite a los usuarios crear y compartir videos fácilmente con sus caras intercambiadas entre sí. [48] ​​A partir de 2019, FakeApp ha sido reemplazada por alternativas de código abierto como Faceswap, DeepFaceLab basado en línea de comandos y aplicaciones basadas en web como DeepfakesWeb.com [49] [50] [51]

Las empresas más grandes empezaron a utilizar deepfakes. [20] Se pueden crear vídeos de formación corporativa utilizando avatares deepfake y sus voces, por ejemplo Synthesia, que utiliza tecnología deepfake con avatares para crear vídeos personalizados. [52] El gigante de las aplicaciones móviles Momo creó la aplicación Zao que permite a los usuarios superponer su rostro en clips de televisión y películas con una sola imagen. [20] A partir de 2019, la empresa japonesa de inteligencia artificial DataGrid creó un deepfake de cuerpo completo que podía crear una persona desde cero. [53] Tienen la intención de utilizarlos para moda y prendas de vestir.

A partir de 2020 , también existen deepfakes de audio y software de inteligencia artificial capaz de detectar deepfakes y clonar voces humanas después de 5 segundos de tiempo de escucha. [54] [55] [56] [57] [58] [59] En marzo de 2020 se lanzó una aplicación móvil deepfake, Impressions. Fue la primera aplicación para la creación de vídeos deepfake de celebridades desde teléfonos móviles. [60] [61]

Resurrección

La tecnología deepfakes no sólo se puede utilizar para fabricar mensajes y acciones de otros, sino que también se puede utilizar para revivir a personas fallecidas. El 29 de octubre de 2020, Kim Kardashian publicó un vídeo de su difunto padre, Robert Kardashian ; El rostro del vídeo de Robert Kardashian fue creado con tecnología deepfake. [62] El holograma fue creado por la empresa Kaleida, que utilizó una combinación de tecnologías de rendimiento, seguimiento de movimiento, SFX, VFX y DeepFake en la creación de su holograma . [63]

En 2020, se creó un vídeo deepfake de Joaquín Oliver, víctima del tiroteo en Parkland, como parte de una campaña de seguridad con las armas. Los padres de Oliver se asociaron con la organización sin fines de lucro Change the Ref y McCann Health para producir un video en el que Oliver anima a la gente a apoyar la legislación sobre seguridad de armas y a los políticos que la respaldan que también lo hagan. [64]

En 2022, se utilizó un vídeo deepfake de Elvis Presley en el programa America's Got Talent 17 . [sesenta y cinco]

Un comercial de televisión utilizó un video deepfake del miembro de los Beatles John Lennon , quien fue asesinado en 1980. [66]

Técnicas

Los deepfakes se basan en un tipo de red neuronal llamada codificador automático . [7] [67] Consisten en un codificador, que reduce una imagen a un espacio latente de dimensiones inferiores , y un decodificador, que reconstruye la imagen a partir de la representación latente. [68] Los deepfakes utilizan esta arquitectura al tener un codificador universal que codifica a una persona en el espacio latente. [69] La representación latente contiene características clave sobre sus rasgos faciales y postura corporal. Luego, esto se puede decodificar con un modelo entrenado específicamente para el objetivo. [7] Esto significa que la información detallada del objetivo se superpondrá a las características faciales y corporales subyacentes del video original, representadas en el espacio latente. [7]

Una actualización popular de esta arquitectura adjunta una red generativa adversaria al decodificador. [69] Una GAN entrena a un generador, en este caso el decodificador, y a un discriminador en una relación de confrontación. [69] El generador crea nuevas imágenes a partir de la representación latente del material fuente, mientras que el discriminador intenta determinar si la imagen se genera o no. [69] Esto hace que el generador cree imágenes que imitan la realidad extremadamente bien, ya que el discriminador detectaría cualquier defecto. [70] Ambos algoritmos mejoran constantemente en un juego de suma cero . [69] Esto hace que los deepfakes sean difíciles de combatir, ya que están en constante evolución; cada vez que se determina un defecto, se puede corregir. [70]

Aplicaciones

Interino

Los clones digitales de actores profesionales han aparecido en películas antes, y se espera que el progreso en la tecnología deepfake mejore la accesibilidad y eficacia de dichos clones. [71] El uso de tecnología de inteligencia artificial fue un problema importante en la huelga SAG-AFTRA de 2023 , ya que las nuevas técnicas permitieron la capacidad de generar y almacenar una imagen digital para usar en lugar de los actores. [72]

Disney ha mejorado sus efectos visuales utilizando tecnología de intercambio de rostros deepfake de alta resolución. [73] Disney mejoró su tecnología mediante un entrenamiento progresivo programado para identificar expresiones faciales, implementando una función de intercambio de caras e iterando para estabilizar y refinar el resultado. [73] Esta tecnología deepfake de alta resolución ahorra importantes costos operativos y de producción. [74] El modelo de generación de deepfake de Disney puede producir medios generados por IA con una resolución de 1024 x 1024, a diferencia de los modelos comunes que producen medios con una resolución de 256 x 256. [74] La tecnología permite a Disney reducir la edad de los personajes o revivir a los actores fallecidos. [75] Los fanáticos utilizaron inicialmente una tecnología similar para insertar extraoficialmente rostros en medios existentes, como superponer el rostro joven de Harrison Ford sobre el rostro de Han Solo en Solo: Una historia de Star Wars . [76] Disney utilizó deepfakes para los personajes de la Princesa Leia y el Gran Moff Tarkin en Rogue One . [77] [78]

El documental de 2020 Bienvenido a Chechenia utilizó tecnología deepfake para ocultar la identidad de las personas entrevistadas, a fin de protegerlas de represalias. [79]

Creative Artists Agency ha desarrollado una instalación para capturar la imagen de un actor "en un solo día", para desarrollar un clon digital del actor, que sería controlado por el actor o su patrimonio junto con otros derechos de personalidad . [80]

Entre las empresas que han utilizado clones digitales de actores profesionales en anuncios se encuentran Puma , Nike y Procter & Gamble . [81]

Arte

En marzo de 2018, el artista multidisciplinario Joseph Ayerle publicó la obra de arte en video Un'emozione per sempre 2.0 (título en inglés: The Italian Game ). El artista trabajó con tecnología Deepfake para crear una actriz con IA , una versión sintética de la estrella de cine de los 80 Ornella Muti , que viajó en el tiempo de 1978 a 2018. El Instituto Tecnológico de Massachusetts se refirió a esta obra de arte en el estudio "Collective Wisdom". [82] El artista utilizó el viaje en el tiempo de Ornella Muti para explorar reflexiones generacionales, al mismo tiempo que investigaba cuestiones sobre el papel de la provocación en el mundo del arte. [83] Para la realización técnica, Ayerle utilizó escenas de la modelo fotográfica Kendall Jenner . El programa reemplazó el rostro de Jenner por un rostro calculado por IA de Ornella Muti. Como resultado, la actriz de AI tiene el rostro de la actriz italiana Ornella Muti y el cuerpo de Kendall Jenner.

Los deepfakes se han utilizado ampliamente en sátiras o para parodiar a celebridades y políticos. La serie web de 2020 Sassy Justice , creada por Trey Parker y Matt Stone , presenta en gran medida el uso de figuras públicas deepfake para satirizar eventos actuales y crear conciencia sobre la tecnología deepfake. [84]

Chantaje

Los deepfakes se pueden utilizar para generar materiales de chantaje que incriminen falsamente a una víctima. Un informe del Servicio de Investigación del Congreso estadounidense advirtió que los deepfakes podrían usarse para chantajear a funcionarios electos o a quienes tienen acceso a información clasificada con fines de espionaje o influencia . [85]

Alternativamente, dado que las falsificaciones no pueden distinguirse de manera confiable de los materiales genuinos, las víctimas de un chantaje real ahora pueden afirmar que los verdaderos artefactos son falsos, lo que les otorga una negación plausible. El efecto es anular la credibilidad de los materiales de chantaje existentes, lo que borra la lealtad a los chantajistas y destruye el control de los chantajistas. Este fenómeno puede denominarse "inflación del chantaje", ya que "devalúa" el verdadero chantaje, dejándolo sin valor. [86] Es posible utilizar hardware GPU básico con un pequeño programa de software para generar este contenido de chantaje para cualquier número de sujetos en grandes cantidades, aumentando el suministro de contenido de chantaje falso de forma ilimitada y altamente escalable. [87]

Entretenimiento

El 8 de junio de 2022, [88] Daniel Emmet, un ex concursante de AGT , se asoció con la startup de inteligencia artificial [89] [90] Metaphysic AI, para crear un deepfake hiperrealista que lo hiciera aparecer como Simon Cowell . Cowell, conocido por criticar severamente a los concursantes, [91] estaba en el escenario interpretando " You're The Inspiration " de Chicago . Emmet cantó en el escenario mientras una imagen de Simon Cowell aparecía en la pantalla detrás de él en perfecta sincronía. [92]

El 30 de agosto de 2022, Metaphysic AI tenía a Simon Cowell , Howie Mandel y Terry Crews 'falsos' cantando ópera en el escenario. [93]

El 13 de septiembre de 2022, Metaphysic AI actuó con una versión sintética de Elvis Presley para la final de America's Got Talent . [94]

El proyecto de inteligencia artificial 15.ai del MIT se ha utilizado para la creación de contenido para múltiples fandoms de Internet , particularmente en las redes sociales. [95] [96] [97]

En 2023, las bandas ABBA y KISS se asociaron con Industrial Light & Magic y Pophouse Entertainment para desarrollar avatares deepfake capaces de realizar conciertos virtuales . [98]

Fraudes y estafas

Los estafadores y estafadores utilizan deepfakes para engañar a las personas con esquemas de inversión falsos, fraude financiero , criptomonedas , envío de dinero y seguimiento de patrocinios . Se han utilizado retratos de celebridades y políticos para estafas a gran escala, así como los de particulares, que se utilizan en ataques de phishing . Según Better Business Bureau , las estafas deepfake son cada vez más frecuentes. [99]

Los respaldos falsos han abusado de las identidades de celebridades como Taylor Swift , [100] [99] Tom Hanks , [101] Oprah Winfrey , [102] y Elon Musk ; [103] presentadores de noticias [104] como Gayle King [101] y Sally Bundock ; [105] y políticos como Lee Hsien Loong [106] y Jim Chalmers . [107] [108] Han aparecido videos de ellos en anuncios en línea en YouTube , Facebook y TikTok , que tienen políticas contra los medios sintéticos y manipulados . [109] [100] [110] Millones de personas ven los anuncios que muestran estos vídeos. Una sola campaña de fraude a Medicare había sido vista más de 195 millones de veces en miles de videos. [109] [111] Los deepfakes se han utilizado para: un sorteo falso de utensilios de cocina Le Creuset por una "tarifa de envío" sin recibir los productos, excepto por cargos mensuales ocultos; [100] gomitas para bajar de peso que cobran significativamente más de lo dicho; [102] un sorteo de iPhone falso; [100] [110] y esquemas fraudulentos de enriquecimiento rápido , [103] [112] de inversión, [113] y de criptomonedas . [106] [114]

Muchos anuncios combinan la clonación de voz mediante IA con "vídeos descontextualizados de la celebridad" para imitar la autenticidad. Otros usan un clip completo de una celebridad antes de pasar a un actor o voz diferente. [109] Algunas estafas pueden implicar deepfakes en tiempo real. [110]

Las celebridades han estado advirtiendo a la gente sobre estos respaldos falsos y que estén más atentos a ellos. [99] [100] [102] Es poco probable que las celebridades presenten demandas contra todas las personas que realizan estafas deepfake, ya que "encontrar y demandar a usuarios anónimos de redes sociales requiere muchos recursos", aunque las cartas de cese y desistimiento a las empresas de redes sociales funcionan para obtener videos y anuncios eliminados. [115]

Los deepfakes de audio se han utilizado como parte de estafas de ingeniería social , engañando a las personas haciéndoles creer que están recibiendo instrucciones de una persona de confianza. [116] En 2019, el director ejecutivo de una empresa de energía con sede en el Reino Unido fue estafado por teléfono cuando un individuo que utilizó tecnología de audio deepfake le ordenó transferir 220 000 € a una cuenta bancaria húngara para hacerse pasar por la voz del director ejecutivo de la empresa matriz de la empresa. . [117]

A partir de 2023, la combinación de avances en la tecnología deepfake, que podría clonar la voz de un individuo a partir de una grabación de unos pocos segundos a un minuto, y nuevas herramientas de generación de texto , permitió estafas de suplantación de identidad automatizadas, dirigidas a las víctimas utilizando un clon digital convincente de un amigo o relativo. [118]

Memes

En 2020, surgió un meme de Internet que utiliza deepfakes para generar videos de personas cantando el coro de "Baka Mitai" (ばかみたい) , una canción del juego Yakuza 0 de la serie de videojuegos Yakuza . En la serie, el jugador canta la canción melancólica en un minijuego de karaoke . La mayoría de las iteraciones de este meme utilizan como plantilla un vídeo de 2017 subido por el usuario Dobbsyrules, que sincroniza los labios con la canción. [119] [120]

Política

Los deepfakes se han utilizado para tergiversar a políticos conocidos en vídeos.

Pornografía

En 2017, la pornografía deepfake apareció de manera destacada en Internet, particularmente en Reddit . [140] A partir de 2019, muchos deepfakes en Internet presentan pornografía de celebridades femeninas cuyas imágenes se suelen utilizar sin su consentimiento. [141] Un informe publicado en octubre de 2019 por la startup holandesa de ciberseguridad Deeptrace estimó que el 96% de todos los deepfakes en línea eran pornográficos. [142] A partir de 2018, un deepfake de Daisy Ridley captó la atención por primera vez, [140] entre otros. [143] [144] [145] En octubre de 2019, la mayoría de los sujetos deepfake en Internet eran actrices británicas y estadounidenses. [141] Sin embargo, alrededor de una cuarta parte de los sujetos son surcoreanos, la mayoría de los cuales son estrellas del K-pop. [141] [146]

En junio de 2019, se lanzó una aplicación descargable para Windows y Linux llamada DeepNude que utilizaba redes neuronales, específicamente redes generativas adversarias , para eliminar la ropa de imágenes de mujeres. La aplicación tenía una versión paga y otra gratuita, y la versión paga costaba 50 dólares. [147] [148] El 27 de junio, los creadores eliminaron la aplicación y reembolsaron a los consumidores. [149]

Medios de comunicación social

Los deepfakes han comenzado a verse utilizados en plataformas de redes sociales populares, especialmente a través de Zao, una aplicación china de deepfake que permite a los usuarios sustituir sus propios rostros por los de personajes en escenas de películas y programas de televisión como Romeo + Julieta y Juego de Tronos . [150] La aplicación originalmente enfrentó un escrutinio por su política de privacidad y datos de usuario invasivos, después de lo cual la compañía emitió una declaración afirmando que revisaría la política. [20] En enero de 2020, Facebook anunció que introduciría nuevas medidas para contrarrestar esto en sus plataformas. [151]

El Servicio de Investigación del Congreso citó evidencia no especificada que muestra que agentes de inteligencia extranjeros utilizaron deepfakes para crear cuentas de redes sociales con el fin de reclutar personas con acceso a información clasificada . [85]

En 2021, se publicaron en TikTok vídeos realistas deepfake del actor Tom Cruise , que se volvieron virales y obtuvieron más de decenas de millones de visitas. Los videos deepfake presentaban a un "doppelganger generado por inteligencia artificial" de Cruise realizando diversas actividades, como jugar al golf, mostrar un truco con monedas y morder una paleta. El creador de los clips, el artista belga de efectos visuales Chris Umé, [152] dijo que se interesó por primera vez en los deepfakes en 2018 y vio el "potencial creativo" de ellos. [153] [154]

títeres de calcetines

Las fotografías deepfake se pueden utilizar para crear títeres , personas inexistentes, que están activas tanto en línea como en los medios tradicionales. Una fotografía deepfake parece haber sido generada junto con una leyenda de una persona aparentemente inexistente llamada Oliver Taylor, cuya identidad fue descrita como un estudiante universitario en el Reino Unido. El personaje de Oliver Taylor envió artículos de opinión en varios periódicos y participó activamente en los medios en línea atacando a un académico de derecho británico y a su esposa, calificándolos de "simpatizantes terroristas". El académico había llamado la atención internacional en 2018 cuando inició una demanda en Israel contra NSO, una empresa de vigilancia, en nombre de personas en México que alegaban ser víctimas de la tecnología de piratería telefónica de NSO . Reuters sólo pudo encontrar escasos registros de Oliver Taylor y "su" universidad no tenía registros sobre él. Muchos expertos coincidieron en que la foto de perfil es un deepfake. Varios periódicos no se han retractado de los artículos que se le atribuyen ni los han eliminado de sus sitios web. Se teme que tales técnicas sean un nuevo campo de batalla en materia de desinformación . [155]

También se han desplegado colecciones de fotografías deepfake de personas inexistentes en las redes sociales como parte de la propaganda partidista israelí . La página de Facebook "Primavera Sionista" presentaba fotografías de personas inexistentes junto con sus "testimonios" que pretendían explicar por qué habían abandonado su política de izquierda para abrazar la política de derecha , y la página también contenía una gran cantidad de publicaciones del Primer Ministro Ministro de Israel Benjamín Netanyahu y su hijo y de otras fuentes de derecha israelíes. Las fotografías parecen haber sido generadas mediante tecnología de " síntesis de imágenes humanas ", un software informático que toma datos de fotografías de personas reales para producir una imagen compuesta realista de una persona inexistente. En muchos de los "testimonios", la razón dada para abrazar la derecha política fue el shock al enterarse de una supuesta incitación a la violencia contra el primer ministro. Las emisoras de televisión israelíes de derecha transmitieron luego los "testimonios" de estas personas inexistentes basándose en el hecho de que estaban "compartidos" en línea. Los locutores transmitieron estos "testimonios" a pesar de no poder encontrar a esas personas, explicando "¿Por qué importa el origen?". Otros perfiles falsos de Facebook (perfiles de personas ficticias) contenían material que supuestamente contenía tal incitación contra el primer ministro de derecha, en respuesta a lo cual el primer ministro se quejó de que había un complot para asesinarlo. [156] [157]

Preocupaciones

Credibilidad y autenticidad

Aunque las fotos falsas han abundado durante mucho tiempo, falsificar películas ha sido más difícil, y la presencia de deepfakes aumenta la dificultad de clasificar videos como genuinos o no. [122] El investigador de inteligencia artificial Alex Champandard ha dicho que la gente debería saber qué tan rápido se pueden corromper las cosas con la tecnología deepfake, y que el problema no es técnico, sino que debe resolverse confiando en la información y el periodismo. [122] Los deepfakes se pueden aprovechar para difamar, hacerse pasar por personas y difundir desinformación. [158]

Un peligro principal es que la humanidad podría caer en una era en la que ya no se pueda determinar si el contenido de un medio corresponde a la verdad. [122] [159] Los deepfakes son una de varias herramientas para ataques de desinformación , que crean dudas y socavan la confianza. Tienen el potencial de interferir con las funciones democráticas en las sociedades, como identificar agendas colectivas, debatir temas, informar decisiones y resolver problemas mediante el ejercicio de la voluntad política. [13]

De manera similar, el profesor asociado de informática Hao Li de la Universidad del Sur de California afirma que los deepfakes creados para uso malicioso, como las noticias falsas , serán aún más dañinos si no se hace nada para difundir la conciencia sobre la tecnología deepfake. [160] Li predijo que los videos genuinos y los deepfakes se volverían indistinguibles en tan solo medio año, a partir de octubre de 2019, debido al rápido avance en la inteligencia artificial y los gráficos por computadora. [160]

El ex zar del fraude de Google, Shuman Ghosemajumder, calificó los deepfakes como un área de "preocupación social" y dijo que inevitablemente evolucionarán hasta un punto en el que puedan generarse automáticamente, y un individuo podría usar esa tecnología para producir millones de videos deepfake. [161]

Los deepfakes poseen la capacidad de dañar enormemente a entidades individuales. [162] Esto se debe a que los deepfakes a menudo están dirigidos a un individuo y/o sus relaciones con otros con la esperanza de crear una narrativa lo suficientemente poderosa como para influir en la opinión pública o las creencias. Esto se puede hacer mediante phishing de voz deepfake, que manipula el audio para crear llamadas telefónicas o conversaciones falsas. [162] Otro método de uso de deepfake son los comentarios privados fabricados, que manipulan los medios para transmitir a personas que expresan comentarios dañinos. [162]

En septiembre de 2020, Microsoft hizo público que estaba desarrollando una herramienta de software de detección de Deepfake. [163]

Eventos de ejemplo

barack obama

El 17 de abril de 2018, el actor estadounidense Jordan Peele , BuzzFeed y Monkeypaw Productions publicaron un deepfake de Barack Obama en YouTube, que mostraba a Barack Obama maldiciendo y insultando a Donald Trump. [164] En este deepfake, la voz y el rostro de Peele fueron transformados y manipulados en los de Obama. La intención de este vídeo era retratar las peligrosas consecuencias y el poder de los deepfakes, y cómo los deepfakes pueden hacer que cualquiera diga cualquier cosa.

Donald Trump

El 5 de mayo de 2019, Derpfakes publicó un deepfake de Donald Trump en YouTube, basado en una parodia que Jimmy Fallon realizó en The Tonight Show . [165] En el sketch original (transmitido el 4 de mayo de 2016), Jimmy Fallon se vistió como Donald Trump y fingió participar en una llamada telefónica con Barack Obama, conversando de una manera que lo presentaba como si estuviera alardeando de su victoria en las primarias en Indiana. [165] En el deepfake, el rostro de Jimmy Fallon se transformó en el rostro de Donald Trump, y el audio permaneció igual. Este vídeo deepfake fue producido por Derpfakes con intención cómica.

Una imagen falsa creada a mitad de camino del arresto de Donald Trump [166]

En marzo de 2023, apareció una serie de imágenes que mostraban a agentes del Departamento de Policía de Nueva York sujetando a Trump. [167] Las imágenes, creadas con Midjourney , fueron publicadas inicialmente en Twitter por Eliot Higgins , pero luego fueron compartidas nuevamente sin contexto, lo que llevó a algunos espectadores a creer que eran fotografías reales. [166]

Nancy Pelosi

En 2019, un clip del discurso de Nancy Pelosi en el Center for American Progress (pronunciado el 22 de mayo de 2019) en el que se ralentizó el vídeo, además de alterarse el tono del audio, para que pareciera como si estaba borracha, fue ampliamente difundida en las redes sociales. Los críticos argumentan que no se trataba de un deepfake, sino de un superficialfake , una forma menos sofisticada de manipulación de vídeo. [168] [169]

Kim Jong-un y Vladimir Putin

"Kim Jong Un"

El 29 de septiembre de 2020, se subieron a YouTube deepfakes del líder norcoreano Kim Jong-un y del presidente ruso Vladimir Putin , creados por un grupo de defensa no partidista RepresentUs . [170]

Vídeo deepfake: Vladimir Putin advierte a los estadounidenses sobre la interferencia electoral y la creciente división política

Los deepfakes de Kim y Putin estaban destinados a transmitirse públicamente como comerciales para transmitir la noción de que la interferencia de estos líderes en las elecciones estadounidenses sería perjudicial para la democracia de Estados Unidos. Los comerciales también pretendían impactar a los estadounidenses para que se dieran cuenta de lo frágil que es la democracia y de cómo los medios y las noticias pueden influir significativamente en el camino del país independientemente de su credibilidad. [170] Sin embargo, si bien los comerciales incluían un comentario final que detallaba que las imágenes no eran reales, finalmente no se emitieron debido a temores y sensibilidad sobre cómo podrían reaccionar los estadounidenses. [170]

El 5 de junio de 2023, una fuente desconocida transmitió un supuesto deepfake de Vladimir Putin en múltiples cadenas de radio y televisión. En el vídeo, Putin parece pronunciar un discurso anunciando la invasión de Rusia y pidiendo una movilización general del ejército. [171]

Volodymyr Zelensky

El 16 de marzo de 2022, circuló en las redes sociales un video falso de un minuto de duración que muestra al presidente de Ucrania, Volodymyr Zelenskyy, aparentemente diciéndoles a sus soldados que depongan las armas y se rindan durante la invasión rusa de Ucrania en 2022 . [13] Las redes sociales rusas lo impulsaron, pero después de que fue desacreditado, Facebook y YouTube lo eliminaron. Twitter permitió el video en tweets donde se expuso como falso, pero dijo que sería eliminado si se publicaba para engañar a la gente. Los piratas informáticos insertaron la desinformación en un texto de desplazamiento en vivo de noticias en la estación de televisión Ucrania 24, y el video apareció brevemente en el sitio web de la estación, además de afirmaciones falsas de que Zelenskyy había huido de la capital de su país, Kiev . No quedó claro de inmediato quién creó el deepfake, a lo que Zelenskyy respondió con su propio video, diciendo: "No planeamos deponer las armas. Hasta nuestra victoria". [172]

Noticias del lobo

A finales de 2022, los propagandistas pro-China comenzaron a difundir vídeos falsos que supuestamente pertenecían a "Wolf News" y que utilizaban actores sintéticos. La tecnología fue desarrollada por una empresa londinense llamada Synthesia, que la comercializa como una alternativa barata a los actores en vivo para capacitación y videos de recursos humanos. [173]

Papa Francisco

La imagen falsa creada por Midjourney del Papa Francisco con una chaqueta acolchada

En marzo de 2023, un trabajador de la construcción anónimo de Chicago utilizó Midjourney para crear una imagen falsa del Papa Francisco con una chaqueta acolchada blanca de Balenciaga . La imagen se volvió viral y recibió más de veinte millones de visitas. [174] El escritor Ryan Broderick lo denominó "el primer caso real de desinformación de IA a nivel masivo". [175] Los expertos consultados por Slate caracterizaron la imagen como poco sofisticada: "podrías haberla hecho en Photoshop hace cinco años". [176]

Rashmika Mandanna

A principios de noviembre de 2023, un famoso actor del sur de la India , Rashmika Mandanna , fue víctima de DeepFake cuando un video transformado de una famosa influencer británico-india, Zara Patel, con el rostro de Rashmika comenzó a flotar en las redes sociales. Zara Patel afirma no participar en su creación. [177]

Respuestas

Plataformas de redes sociales

Gorjeo

Twitter está tomando medidas activas para manejar medios sintéticos y manipulados en su plataforma. Para evitar que se propague desinformación, Twitter está colocando un aviso en los tweets que contienen medios manipulados y/o deepfakes que indican a los espectadores que los medios están manipulados. [178] También habrá una advertencia que aparecerá para los usuarios que planeen retuitear, darle me gusta o interactuar con el tweet. [178] Twitter también trabajará para proporcionar a los usuarios un enlace junto al tweet que contenga medios sintéticos o manipulados que enlacen a un Momento de Twitter o un artículo de noticias creíble sobre el tema relacionado, como una acción de desacreditación. [178] Twitter también tiene la capacidad de eliminar cualquier tweet que contenga deepfakes o medios manipulados que puedan representar un daño a la seguridad de los usuarios. [178] Para mejorar la detección de deepfakes y medios manipulados por parte de Twitter, Twitter pidió a los usuarios interesados ​​en asociarse con ellos que trabajaran en soluciones de detección de deepfake para completar un formulario. [179]

Facebook

Facebook se ha esforzado por fomentar la creación de deepfakes para desarrollar un software de detección de deepfakes de última generación. Facebook fue el socio destacado en la organización del DeepfakeDetection Challenge (DFDC), celebrado en diciembre de 2019, con 2114 participantes que generaron más de 35.000 modelos. [180] Los modelos de mejor rendimiento con la mayor precisión de detección se analizaron en busca de similitudes y diferencias; Estos hallazgos son áreas de interés en futuras investigaciones para mejorar y refinar los modelos de detección de deepfake. [180] Facebook también ha detallado que la plataforma eliminará los medios generados con inteligencia artificial utilizada para alterar el discurso de un individuo. [181] Sin embargo, los medios que hayan sido editados para alterar el orden o el contexto de las palabras en el mensaje permanecerán en el sitio pero serán etiquetados como falsos, ya que no fueron generados por inteligencia artificial. [181]

Detección

Audio

Detectar audio falso es una tarea muy compleja que requiere una atención cuidadosa a la señal de audio para lograr un buen rendimiento. Se ha demostrado que el uso del aprendizaje profundo, el preprocesamiento del diseño de funciones y el aumento de enmascaramiento son eficaces para mejorar el rendimiento. [182]

Video

La mayor parte de la investigación académica sobre los deepfakes se centra en la detección de vídeos deepfake. [183] ​​Un enfoque para la detección de deepfake es utilizar algoritmos para reconocer patrones y detectar inconsistencias sutiles que surgen en videos deepfake. [183] ​​Por ejemplo, los investigadores han desarrollado sistemas automáticos que examinan los vídeos en busca de errores, como patrones de iluminación intermitentes irregulares. [184] [18] Este enfoque ha sido criticado porque la detección de deepfakes se caracteriza por una " meta móvil " donde la producción de deepfakes continúa cambiando y mejorando a medida que mejoran los algoritmos para detectar deepfakes. [183] ​​Con el fin de evaluar los algoritmos más efectivos para detectar deepfakes, una coalición de empresas de tecnología líderes organizó el DeepfakeDetection Challenge para acelerar la tecnología para identificar contenido manipulado. [185] El modelo ganador del Desafío de detección de Deepfake tuvo una precisión del 65% en el conjunto de 4.000 videos restantes. [186] Un equipo del Instituto de Tecnología de Massachusetts publicó un artículo en diciembre de 2021 que demuestra que los humanos comunes y corrientes tienen entre un 69% y un 72% de precisión al identificar una muestra aleatoria de 50 de estos videos. [187]

Un equipo de la Universidad de Buffalo publicó un artículo en octubre de 2020 en el que describe su técnica de utilizar reflejos de luz en los ojos de las personas representadas para detectar deepfakes con una alta tasa de éxito, incluso sin el uso de una herramienta de detección de IA, al menos para el momento. [188]

En el caso de personas bien documentadas, como los líderes políticos, se han desarrollado algoritmos para distinguir rasgos basados ​​en la identidad, como patrones de gestos faciales, gestuales y vocales, y detectar imitadores muy falsos. [189]

Otro equipo dirigido por Wael AbdAlmageed con el Laboratorio de Inteligencia Visual y Análisis Multimedia (VIMAL) del Instituto de Ciencias de la Información de la Universidad del Sur de California desarrolló dos generaciones [190] [191] de detectores deepfake basados ​​en redes neuronales convolucionales . La primera generación [190] utilizó redes neuronales recurrentes para detectar inconsistencias espacio-temporales e identificar artefactos visuales dejados por el proceso de generación de deepfake. El algoritmo logró una precisión del 96% en FaceForensics++, el único punto de referencia de deepfake a gran escala disponible en ese momento. La segunda generación [191] utilizó redes profundas de extremo a extremo para diferenciar entre artefactos e información facial semántica de alto nivel utilizando redes de dos ramas. La primera rama propaga información de color mientras que la otra suprime el contenido facial y amplifica las frecuencias de bajo nivel utilizando Laplaciano de Gauss (LoG) . Además, incluyeron una nueva función de pérdida que aprende una representación compacta de rostros auténticos, mientras dispersa las representaciones (es decir, características) de los deepfakes. El enfoque de VIMAL mostró un rendimiento de última generación en los puntos de referencia FaceForensics++ y Celeb-DF, y el 16 de marzo de 2022 (el mismo día del lanzamiento) se utilizó para identificar el deepfake de Volodymyr Zelensky listo para usar. sin ningún reentrenamiento ni conocimiento del algoritmo con el que se creó el deepfake. [ cita necesaria ]

Otras técnicas sugieren que blockchain podría usarse para verificar la fuente de los medios. [192] Por ejemplo, es posible que sea necesario verificar un vídeo a través del libro mayor antes de mostrarlo en las plataformas de redes sociales. [192] Con esta tecnología, solo se aprobarían videos de fuentes confiables, lo que disminuiría la propagación de medios deepfake posiblemente dañinos. [192]

Para luchar contra los deepfakes se sugirió la firma digital de todos los vídeos e imágenes mediante cámaras y videocámaras, incluidas las cámaras de los teléfonos inteligentes. [193] Eso permite rastrear cada fotografía o video hasta su propietario original que puede usarse para perseguir a los disidentes. [193]

Una forma sencilla de descubrir videollamadas deepfake consiste en pedirle a la persona que llama que se ponga de lado. [194]

reacción de internet

Desde 2017, Samantha Cole de Vice publica una serie de artículos que cubren noticias sobre pornografía deepfake. [195] [196] [197] [147] [145] [198] [199] [43] [ citas excesivas ] El 31 de enero de 2018, Gfycat comenzó a eliminar todos los deepfakes de su sitio. [197] [14] En Reddit , el subreddit r/deepfakes fue prohibido el 7 de febrero de 2018, debido a la violación de la política de "pornografía involuntaria". [200] [201] [202] [203] [204] En el mismo mes, representantes de Twitter declararon que suspenderían las cuentas sospechosas de publicar contenido deepfake no consensuado. [198] El sitio de chat Discord ha tomado medidas contra los deepfakes en el pasado, [205] y ha adoptado una postura general contra los deepfakes. [14] [206] En septiembre de 2018, Google agregó "imágenes pornográficas sintéticas involuntarias" a su lista de prohibiciones, lo que permite a cualquiera solicitar el bloqueo de resultados que muestran sus desnudos falsos. [207] [ verifique la sintaxis de las citas ] En febrero de 2018, Pornhub dijo que prohibiría los videos deepfake en su sitio web porque se considera "contenido no consensuado" que viola sus términos de servicio. [196] También declararon anteriormente a Mashable que eliminarán el contenido marcado como deepfakes. [208] Los escritores de Placa base de Buzzfeed News informaron que la búsqueda de "deepfakes" en Pornhub aún arrojó múltiples videos deepfake recientes. [196]

Facebook ha declarado anteriormente que no eliminaría los deepfakes de sus plataformas. [209] En cambio, los videos serán marcados como falsos por terceros y luego tendrán una prioridad reducida en los feeds de los usuarios. [195] Esta respuesta surgió en junio de 2019 después de que circulara en Facebook e Instagram un deepfake con un vídeo de 2016 de Mark Zuckerberg . [209]

En mayo de 2022, Google cambió oficialmente los términos de servicio de sus colaboraciones de Jupyter Notebook , prohibiendo el uso de su servicio de colaboración con el fin de crear deepfakes. [210] Esto se produjo unos días después de que se publicara un artículo de VICE, afirmando que "la mayoría de los deepfakes son pornografía no consensuada" y que el uso principal del popular software deepfake DeepFaceLab (DFL), "la tecnología más importante que impulsa a la gran mayoría de esta generación de deepfakes", que a menudo se utilizó en combinación con colaboraciones de Google, sería crear pornografía no consensuada, señalando el hecho de que, entre muchos otros ejemplos bien conocidos de implementaciones DFL de terceros, como los deepfakes encargados por The Walt Disney Company , videos musicales oficiales y la serie web Sassy Justice de los creadores de South Park , la página GitHub de DFL también tiene enlaces al sitio web de pornografía deepfake Mr. ‍ Deepfakes y los participantes del servidor DFL Discord también participan en Mr. ‍ Deepfakes . [211]

Respuesta legal

En Estados Unidos, ha habido algunas respuestas a los problemas que plantean los deepfakes. En 2018, se presentó al Senado de los EE. UU. la Ley de Prohibición de Falsas Profundas y Maliciosas , [212] y en 2019 se presentó la Ley de Responsabilidad de DEEPFAKES en la Cámara de Representantes . [15] Varios estados también han introducido legislación sobre deepfakes, incluidos Virginia, [213] Texas, California y Nueva York. [214] El 3 de octubre de 2019, el gobernador de California, Gavin Newsom, promulgó los proyectos de ley de la Asamblea n.º 602 y n.º 730. [215] [216] El proyecto de ley de la Asamblea n.º 602 proporciona a las personas objetivo de contenido deepfake sexualmente explícito realizado sin su consentimiento una causa de acción contra el creador del contenido. [215] El Proyecto de Ley de la Asamblea No. 730 prohíbe la distribución de medios visuales o de audio deepfake maliciosos dirigidos a un candidato que se postula para un cargo público dentro de los 60 días posteriores a su elección. [216]

En noviembre de 2019, China anunció que los deepfakes y otras imágenes falsificadas sintéticamente deberían llevar un aviso claro sobre su falsedad a partir de 2020. El incumplimiento podría considerarse un delito, según declaró la Administración del Ciberespacio de China en su sitio web. [217] El gobierno chino parece reservarse el derecho de procesar tanto a los usuarios como a las plataformas de vídeo en línea que no cumplan las normas. [218]

En el Reino Unido, los productores de material deepfake pueden ser procesados ​​por acoso, pero hay llamados a convertir el deepfake en un delito específico; [219] En los Estados Unidos, donde se han presentado cargos tan variados como robo de identidad , acoso cibernético y pornografía de venganza , también se ha debatido la noción de un estatuto más completo. [207]

En Canadá, el Communications Security Establishment publicó un informe que decía que los deepfakes podrían utilizarse para interferir en la política canadiense, en particular para desacreditar a los políticos e influir en los votantes. [220] [221] Como resultado, existen múltiples formas para que los ciudadanos de Canadá se ocupen de los deepfakes si son el objetivo de ellos. [222]

En la India, no existen leyes ni reglamentos directos sobre la IA o los deepfakes, pero sí existen disposiciones en virtud del Código Penal de la India y la Ley de Tecnología de la Información de 2000/2008, que pueden examinarse en busca de soluciones legales, y la nueva propuesta de Ley de la India Digital tendrá un capítulo sobre IA y deepfakes en particular, según el ministro de gobierno Rajeev Chandrasekhar. [223]

Respuesta de DARPA

En 2018, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) financió un proyecto en el que individuos competirán para crear videos, audio e imágenes generados por IA, así como herramientas automatizadas para detectar estos deepfakes. [224] En 2019, DARPA organizó un "día de los proponentes" para un proyecto afiliado al Programa de Análisis Forense Semántico donde los investigadores se vieron impulsados ​​a prevenir la propagación viral de medios manipulados por IA. [225] DARPA y el Programa Forense Semántico también estaban trabajando juntos para detectar medios manipulados por IA a través de esfuerzos para entrenar computadoras para utilizar el razonamiento lógico y el sentido común. [225] En 2020, DARPA creó un programa Media Forensics (MediFor), para detectar y mitigar el daño cada vez mayor que plantean los deepfakes y los medios generados por IA, para proporcionar información sobre cómo se crearon los medios y para abordar y enfatizar el papel consecuente de los deepfakes. y su influencia en la toma de decisiones. [226]

En la cultura popular

Ver también

Referencias

  1. ^ Brandon, John (16 de febrero de 2018). "Porno aterrador de alta tecnología: los vídeos espeluznantes 'deepfake' van en aumento". Fox News . Archivado desde el original el 15 de junio de 2018 . Consultado el 20 de febrero de 2018 .
  2. ^ "Prepárese, que no cunda el pánico: medios sintéticos y deepfakes". testigo.org. Archivado desde el original el 2 de diciembre de 2020 . Consultado el 25 de noviembre de 2020 .
  3. ^ Juefei-Xu, Félix; Wang, corre; Huang, Yihao; Guo, Qing; Mamá, Lei; Liu, Yang (1 de julio de 2022). "Contrarrestar los DeepFakes maliciosos: encuesta, campo de batalla y horizonte". Revista Internacional de Visión por Computadora . 130 (7): 1678-1734. doi :10.1007/s11263-022-01606-8. ISSN  1573-1405. PMC 9066404 . PMID  35528632. 
  4. ^ ab Kietzmann, J.; Lee, LW; McCarthy, IP; Kietzmann, TC (2020). "Deepfakes: ¿Truco o trato?" (PDF) . Horizontes empresariales . 63 (2): 135-146. doi :10.1016/j.bushor.2019.11.006. S2CID  213818098.
  5. ^ Waldrop, M. Mitchell (16 de marzo de 2020). "Medios sintéticos: el verdadero problema de los deepfakes". Revista Conocible . Revisiones anuales. doi : 10.1146/conocible-031320-1 . Consultado el 19 de diciembre de 2022 .
  6. ^ Schwartz, Oscar (12 de noviembre de 2018). "¿Pensabas que las noticias falsas eran malas? Las falsificaciones profundas son donde la verdad muere". El guardián . Archivado desde el original el 16 de junio de 2019 . Consultado el 14 de noviembre de 2018 .
  7. ^ abcd Charleer, Sven (17 de mayo de 2019). "Diversión familiar con deepfakes. O cómo conseguí que mi esposa entrara al Tonight Show". Medio . Archivado desde el original el 11 de febrero de 2018 . Consultado el 8 de noviembre de 2019 .
  8. ^ Farid, Hany (15 de septiembre de 2019). "Imagen forense". Revisión anual de la ciencia de la visión . 5 (1): 549–573. doi : 10.1146/annurev-vision-091718-014827. ISSN  2374-4642. PMID  31525144. S2CID  263558880.
  9. ^ Bancos, Alec (20 de febrero de 2018). "¿Qué son los deepfakes y por qué el futuro de la pornografía es aterrador?". Altanobieza . Archivado desde el original el 14 de julio de 2021 . Consultado el 20 de febrero de 2018 .
  10. ^ Cristiano, Jon. "Los expertos temen que el intercambio de caras pueda iniciar un enfrentamiento internacional". El contorno . Archivado desde el original el 16 de enero de 2020 . Consultado el 28 de febrero de 2018 .
  11. ^ Roose, Kevin (4 de marzo de 2018). "Aquí también vienen los vídeos falsos" . Los New York Times . ISSN  0362-4331. Archivado desde el original el 18 de junio de 2019 . Consultado el 24 de marzo de 2018 .
  12. ^ Schreyer, Marco; Sattarov, Timur; Reimer, Bernd; Borth, Damián (octubre de 2019). "Aprendizaje contradictorio de deepfakes en contabilidad". arXiv : 1910.03810 [cs.LG].
  13. ^ abc Pawelec, M (2022). "Deepfakes y democracia (teoría): cómo los medios audiovisuales sintéticos para la desinformación y el discurso de odio amenazan las funciones democráticas fundamentales". Sociedad Digital: Ética, Sociojurídica y Gobernanza de la Tecnología Digital . 1 (2): 19. doi :10.1007/s44206-022-00010-6. PMC 9453721 . PMID  36097613. 
  14. ^ abc Ghoshal, Abhimanyu (7 de febrero de 2018). "Twitter, Pornhub y otras plataformas prohíben la pornografía de celebridades generada por IA". La próxima web . Archivado desde el original el 20 de diciembre de 2019 . Consultado el 9 de noviembre de 2019 .
  15. ^ ab Clarke, Yvette D. (28 de junio de 2019). "HR3230 - 116º Congreso (2019-2020): Defender a todas y cada una de las personas de apariencias falsas manteniendo la explotación sujeta a la Ley de Responsabilidad de 2019". www.congreso.gov . Archivado desde el original el 17 de diciembre de 2019 . Consultado el 16 de octubre de 2019 .
  16. ^ Caramancion, Kevin Matthe (21 de abril de 2021). "El perfil demográfico con mayor riesgo de ser desinformado". 2021 Conferencia internacional IEEE IOT, Electrónica y Mecatrónica (IEMTRONICS) . IEEE. págs. 1–7. doi : 10.1109/iemtronics52119.2021.9422597. ISBN 978-1-6654-4067-7. S2CID  234499888.
  17. ^ Lalla, Vejay; Mitrani, Adine; Harned, Zach. "Inteligencia artificial: deepfakes en la industria del entretenimiento". Organización Mundial de la Propiedad Intelectual . Consultado el 8 de noviembre de 2022 .
  18. ^ abc Harwell, Drew (12 de junio de 2019). "Los principales investigadores de IA corren para detectar videos 'deepfake': 'Estamos en desventaja'" . El Washington Post . Archivado desde el original el 31 de octubre de 2019 . Consultado el 8 de noviembre de 2019 .
  19. ^ Sánchez, Julián (8 de febrero de 2018). "Gracias a la IA, el futuro de las 'noticias falsas' está siendo pionero en el porno casero". Noticias NBC . Archivado desde el original el 9 de noviembre de 2019 . Consultado el 8 de noviembre de 2019 .
  20. ^ abcd Porter, Jon (2 de septiembre de 2019). "Otra aplicación deepfake convincente se vuelve viral y provoca una reacción inmediata a la privacidad". El borde . Archivado desde el original el 3 de septiembre de 2019 . Consultado el 8 de noviembre de 2019 .
  21. ^ Un presagio, Lisa; Lees, Dominic; Golding, Dan (29 de julio de 2021). "El rostro digital y los deepfakes en pantalla". Convergencia: Revista internacional de investigación sobre nuevas tecnologías de medios . 27 (4): 849–854. doi : 10.1177/13548565211034044 . ISSN  1354-8565. S2CID  237402465.
  22. ^ ab Holliday, Christopher (26 de julio de 2021). "Reescribiendo las estrellas: tensiones superficiales y problemas de género en la producción de deepfakes digitales en los medios online". Convergencia: Revista internacional de investigación sobre nuevas tecnologías de medios . 27 (4): 899–918. doi : 10.1177/13548565211029412 . ISSN  1354-8565. S2CID  237402548.
  23. ^ Gingrich, Oliver M. (5 de julio de 2021). "GENDER*UCK: Reformulación del género y el arte mediático". Actas de EVA London 2021 (EVA 2021) . Talleres de Electrónica en Computación. doi : 10.14236/ewic/EVA2021.25 . S2CID  236918199.
  24. ^ Fletcher, John (2018). "Deepfakes, inteligencia artificial y algún tipo de distopía: las nuevas caras del desempeño post-hecho en línea". Diario de Teatro . 70 (4): 455–471. doi :10.1353/tj.2018.0097. ISSN  1086-332X. S2CID  191988083.
  25. ^ Öhman, Carl (1 de junio de 2020). "Presentando el dilema del pervertido: una contribución a la crítica de la pornografía deepfake". Ética y Tecnología de la Información . 22 (2): 133-140. doi : 10.1007/s10676-019-09522-1 . ISSN  1572-8439. S2CID  208145457.
  26. ^ van der Nagel, Emily (1 de octubre de 2020). "Verificación de imágenes: deepfakes, control y consentimiento". Estudios de pornografía . 7 (4): 424–429. doi : 10.1080/23268743.2020.1741434. ISSN  2326-8743. S2CID  242891792.
  27. ^ Fallis, Don (1 de diciembre de 2021). "La amenaza epistémica de los deepfakes". Filosofía y Tecnología . 34 (4): 623–643. doi :10.1007/s13347-020-00419-2. ISSN  2210-5433. PMC 7406872 . PMID  32837868. 
  28. ^ Chesney, Robert; Cidra, Danielle Keats (2018). "Deep Fakes: un desafío inminente para la privacidad, la democracia y la seguridad nacional". Revista Electrónica SSRN . doi :10.2139/ssrn.3213954. ISSN  1556-5068.
  29. ^ Yadlin-Segal, Aya; Oppenheim, Yael (febrero de 2021). "¿De quién es la distopía? Deepfakes y regulación de las redes sociales". Convergencia: Revista internacional de investigación sobre nuevas tecnologías de medios . 27 (1): 36–51. doi :10.1177/1354856520923963. ISSN  1354-8565. S2CID  219438536.
  30. ^ Hwang, Yoori; Ryu, Ji Youn; Jeong, Se-Hoon (1 de marzo de 2021). "Efectos de la desinformación mediante el uso de Deepfake: el efecto protector de la educación en alfabetización mediática". Ciberpsicología, Comportamiento y Redes Sociales . 24 (3): 188-193. doi : 10.1089/cyber.2020.0174. ISSN  2152-2715. PMID  33646021. S2CID  232078561.
  31. ^ Alto, Craig (12 de noviembre de 2021). "Deepfakes y práctica documental en una era de desinformación". Continuo . 36 (3): 393–410. doi :10.1080/10304312.2021.2003756. ISSN  1030-4312. S2CID  244092288.
  32. ^ Hancock, Jeffrey T.; Bailenson, Jeremy N. (1 de marzo de 2021). "El impacto social de los deepfakes". Ciberpsicología, Comportamiento y Redes Sociales . 24 (3): 149-152. doi :10.1089/cyber.2021.29208.jth. ISSN  2152-2715. PMID  33760669. S2CID  232356146.
  33. ^ de Seta, Gabriele (30 de julio de 2021). "Huanlian, o caras cambiantes: Deepfakes en las plataformas de medios digitales chinas". Convergencia: Revista internacional de investigación sobre nuevas tecnologías de medios . 27 (4): 935–953. doi :10.1177/13548565211030185. hdl : 11250/2833613 . ISSN  1354-8565. S2CID  237402447.
  34. ^ ab Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). "Reescritura de video: impulsar el habla visual con audio". Actas de la 24ª conferencia anual sobre gráficos por computadora y técnicas interactivas - SIGGRAPH '97 . vol. 24. págs. 353–360. doi :10.1145/258734.258880. ISBN 0897918967. S2CID  2341707.
  35. ^ a b C Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (julio de 2017). "Sintetizando a Obama: aprendiendo sincronización de labios a partir del audio". Transmisión ACM. Grafico . 36 (4): 95:1–95:13. doi :10.1145/3072959.3073640. S2CID  207586187.
  36. ^ abc Thies, Justo; Zollhöfer, Michael; Stamminger, Marc; Teobaldo, cristiano; Nießner, Matthias (junio de 2016). "Face2Face: captura de rostros en tiempo real y recreación de vídeos RGB". Conferencia IEEE 2016 sobre visión por computadora y reconocimiento de patrones (CVPR) . IEEE. págs. 2387–2395. arXiv : 2007.14808 . doi :10.1109/CVPR.2016.262. ISBN 9781467388511. S2CID  206593693.
  37. ^ "Deepfakes para bailar: ahora puedes usar la IA para fingir esos movimientos de baile que siempre quisiste". El borde . Archivado desde el original el 17 de mayo de 2019 . Consultado el 27 de agosto de 2018 .
  38. ^ Farquhar, Peter (27 de agosto de 2018). "Pronto estará aquí un programa de inteligencia artificial para ayudarte a bailar deepface, pero no lo llames deepfake". Business Insider Australia . Archivado desde el original el 10 de abril de 2019 . Consultado el 27 de agosto de 2018 .
  39. ^ Mirsky, Israel; Mahler, Tom; Shelef, Ilán; Elovici, Yuval (2019). CT-GAN: manipulación maliciosa de imágenes médicas 3D mediante aprendizaje profundo. págs. 461–478. arXiv : 1901.03597 . ISBN 978-1-939133-06-9. Archivado desde el original el 20 de junio de 2020 . Consultado el 18 de junio de 2020 .
  40. ^ O'Neill, Patrick Howell (3 de abril de 2019). "Los investigadores demuestran un malware que puede engañar a los médicos para que diagnostiquen erróneamente el cáncer". Gizmodo . Consultado el 3 de junio de 2022 .
  41. ^ Mirsky, Israel; Lee, Wenke (12 de mayo de 2020). "La creación y detección de deepfakes: una encuesta". Encuestas de Computación ACM . arXiv : 2004.11138 . doi :10.1145/3425780. S2CID  216080410.
  42. ^ Karnouskos, Stamatis (2020). "Inteligencia artificial en medios digitales: la era de los deepfakes" (PDF) . Transacciones IEEE sobre tecnología y sociedad . 1 (3): 1. doi :10.1109/TTS.2020.3001312. S2CID  221716206. Archivado (PDF) desde el original el 14 de julio de 2021 . Consultado el 9 de julio de 2020 .
  43. ^ abc Cole, Samantha (24 de enero de 2018). "Estamos realmente jodidos: ahora todo el mundo está haciendo pornografía falsa generada por IA". Vicio . Archivado desde el original el 7 de septiembre de 2019 . Consultado el 4 de mayo de 2019 .
  44. ^ Haysom, Sam (31 de enero de 2018). "La gente está utilizando tecnología de intercambio de caras para agregar a Nicolas Cage a películas aleatorias y lo que es 2018". Machacable . Archivado desde el original el 24 de julio de 2019 . Consultado el 4 de abril de 2019 .
  45. ^ "r/SFWdeepfakes". Reddit . Archivado desde el original el 9 de agosto de 2019 . Consultado el 12 de diciembre de 2018 .
  46. ^ Hathaway, Jay (8 de febrero de 2018). "Aquí es donde llegaron los 'deepfakes', el nuevo porno falso de celebridades, después de la prohibición de Reddit". El punto diario . Archivado desde el original el 6 de julio de 2019 . Consultado el 22 de diciembre de 2018 .
  47. ^ "¿Qué es un Deepfake y cómo se hacen?". Consejos técnicos en línea . 23 de mayo de 2019. Archivado desde el original el 8 de noviembre de 2019 . Consultado el 8 de noviembre de 2019 .
  48. ^ Robertson, Adi (11 de febrero de 2018). "Estoy usando IA para intercambiar las caras de Elon Musk y Jeff Bezos, y soy muy malo en eso". El borde . Archivado desde el original el 24 de marzo de 2018 . Consultado el 8 de noviembre de 2019 .
  49. ^ "Deepfakes web | La mejor aplicación de intercambio de caras en línea". Web de deepfakes . Archivado desde el original el 14 de julio de 2021 . Consultado el 21 de febrero de 2021 .
  50. ^ "Faceswap es el software Deepfakes multiplataforma gratuito y de código abierto líder". 15 de octubre de 2019. Archivado desde el original el 31 de mayo de 2021 . Recuperado 14 de julio de 2021 - vía WordPress.
  51. ^ "DeepFaceLab es una herramienta que utiliza el aprendizaje automático para reemplazar caras en videos. Incluye binario independiente de Windows 7,8,10 prediseñado y listo para funcionar (consulte readme.md): iperov/DeepFaceLab". 19 de junio de 2019. Archivado desde el original el 9 de mayo de 2019 . Consultado el 6 de marzo de 2019 a través de GitHub.
  52. ^ Chandler, Simón. "Por qué los deepfakes son netos positivos para la humanidad". Forbes . Archivado desde el original el 16 de noviembre de 2020 . Consultado el 3 de noviembre de 2020 .
  53. ^ Pangburn, DJ (21 de septiembre de 2019). "Estás advertido: los deepfakes de cuerpo completo son el siguiente paso en el mimetismo humano basado en IA". Empresa Rápida . Archivado desde el original el 8 de noviembre de 2019 . Consultado el 8 de noviembre de 2019 .
  54. ^ Lyons, Kim (29 de enero de 2020). "La FTC dice que la tecnología detrás de los deepfakes de audio está mejorando". El borde . Archivado desde el original el 30 de enero de 2020 . Consultado el 8 de febrero de 2020 .
  55. ^ "Muestras de audio de" Transferir el aprendizaje de la verificación del hablante a la síntesis de texto a voz de varios hablantes"". google.github.io . Archivado desde el original el 14 de noviembre de 2019 . Consultado el 8 de febrero de 2020 .
  56. ^ Jia, sí; Zhang, Yu; Weiss, Ron J.; Wang, Quan; Shen, Jonatán; Ren, Fei; Chen, Zhifeng; Nguyen, Patricio; Pang, Ruoming; Moreno, Ignacio López; Wu, Yonghui (2 de enero de 2019). "Transferir el aprendizaje de la verificación del hablante a la síntesis de texto a voz de varios hablantes". arXiv : 1806.04558 [cs.CL].
  57. ^ "Computación visual TUM: Prof. Matthias Nießner". www.niessnerlab.org . Archivado desde el original el 21 de febrero de 2020 . Consultado el 8 de febrero de 2020 .
  58. ^ "Recarga de página completa". IEEE Spectrum: noticias sobre tecnología, ingeniería y ciencia . 11 de diciembre de 2019. Archivado desde el original el 26 de junio de 2020 . Consultado el 8 de febrero de 2020 .
  59. ^ "Aportación de datos a la investigación de detección de deepfake". 24 de septiembre de 2019. Archivado desde el original el 5 de febrero de 2020 . Consultado el 8 de febrero de 2020 .
  60. ^ Thalen, Mikaël. "Ahora puedes convertirte en una celebridad con sólo unos pocos clics". punto diario . Archivado desde el original el 6 de abril de 2020 . Consultado el 3 de abril de 2020 .
  61. ^ Matthews, Zane (6 de marzo de 2020). "Diversión o miedo: la aplicación Deepfake pone caras de celebridades en tus selfies". Kool1079 . Archivado desde el original el 24 de marzo de 2020 . Consultado el 6 de marzo de 2020 .
  62. ^ "Kanye West, Kim Kardashian y su padre: ¿Deberíamos hacer hologramas de los muertos?". Noticias de la BBC . 31 de octubre de 2020. Archivado desde el original el 15 de noviembre de 2020 . Consultado el 11 de noviembre de 2020 .
  63. ^ "Kanye West le regaló a Kim Kardashian un holograma de su padre por su cumpleaños". los módems . 30 de octubre de 2020. Archivado desde el original el 11 de noviembre de 2020 . Consultado el 11 de noviembre de 2020 .
  64. ^ "Joaquín Oliver, víctima de Parkland, vuelve a la vida en una desgarradora súplica a los votantes". adagio.com . 2 de octubre de 2020. Archivado desde el original el 11 de noviembre de 2020 . Consultado el 11 de noviembre de 2020 .
  65. ^ Bowenbank, Starr (14 de septiembre de 2022). "Simon Cowell hace dueto con Elvis en la última actuación de Deepfake 'AGT' de Metaphysic: Ver". Cartelera . Consultado el 8 de noviembre de 2022 .
  66. ^ "Comercial de John Lennon 'Una computadora portátil por niño'". YouTube .
  67. ^ Zucconi, Alan (14 de marzo de 2018). "Comprensión de la tecnología detrás de DeepFakes". Alan Zucconi . Archivado desde el original el 1 de noviembre de 2019 . Consultado el 8 de noviembre de 2019 .
  68. ^ "¿Qué es un Deepfake?". Blog - Síntesis . 3 de mayo de 2022 . Consultado el 17 de mayo de 2022 .
  69. ^ abcde Kan, CE (10 de diciembre de 2018). "¿Qué diablos son los VAE-GAN?". Medio . Archivado desde el original el 14 de julio de 2021 . Consultado el 8 de noviembre de 2019 .
  70. ^ ab "Estos nuevos trucos pueden superar a los vídeos deepfake, por ahora". Cableado . ISSN  1059-1028. Archivado desde el original el 3 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  71. ^ Kemp, Luke (8 de julio de 2019). "En la era de los deepfakes, ¿podrían los actores virtuales sacar a los humanos del negocio?". El guardián . ISSN  0261-3077. Archivado desde el original el 20 de octubre de 2019 . Consultado el 20 de octubre de 2019 .
  72. ^ Verma, Pranshu (21 de julio de 2023). "Los clones digitales creados por tecnología de inteligencia artificial podrían hacer que los extras de Hollywood queden obsoletos". El Correo de Washington . Consultado el 4 de enero de 2024 .
  73. ^ ab "Intercambio de caras neuronales de alta resolución para efectos visuales | Disney Research Studios". Archivado desde el original el 27 de noviembre de 2020 . Consultado el 7 de octubre de 2020 .
  74. ^ ab "La tecnología deepfake de Disney podría utilizarse en cine y televisión". Bloloop . 21 de julio de 2020. Archivado desde el original el 12 de noviembre de 2020 . Consultado el 7 de octubre de 2020 .
  75. ^ Lindley, Jon A. (2 de julio de 2020). "Disney se aventura a recuperar 'actores muertos' mediante el reconocimiento facial". Tiempos tecnológicos . Archivado desde el original el 14 de julio de 2021 . Consultado el 7 de octubre de 2020 .
  76. ^ Radulovic, Petrana (17 de octubre de 2018). "Harrison Ford es la estrella de Solo: A Star Wars Story gracias a la tecnología deepfake". Polígono . Archivado desde el original el 20 de octubre de 2019 . Consultado el 20 de octubre de 2019 .
  77. ^ Winick, Erin. "Cómo actuar como la marioneta de Carrie Fisher hizo carrera para la princesa Leia de Rogue One". Revisión de tecnología del MIT . Archivado desde el original el 23 de octubre de 2019 . Consultado el 20 de octubre de 2019 .
  78. ^ "El deepfake Luke Skywalker es un paso más en un macabro camino CGI". GQ británico . 10 de febrero de 2022 . Consultado el 3 de junio de 2022 .
  79. ^ Aturdido (10 de febrero de 2022). "¿Los deepfakes reescribirán la historia tal como la conocemos?". Aturdido . Consultado el 3 de junio de 2022 .
  80. ^ Schwartzel, Erich (21 de diciembre de 2023). "Detrás de la creación de mi doble digital de IA". Wall Street Journal . Consultado el 4 de enero de 2024 .
  81. ^ Café, Patrick (18 de junio de 2023). "Las celebridades utilizan la inteligencia artificial para tomar el control de sus propias imágenes". Wall Street Journal . Consultado el 4 de enero de 2024 .
  82. ^ Katerina Cizek, William Uricchio y Sarah Wolozin: sabiduría colectiva | Instituto de Tecnología de Massachusetts [1] Archivado el 4 de marzo de 2020 en Wayback Machine.
  83. ^ "ANSA | Ornella Muti en cortometraggio a Firenze". 3 de noviembre de 2017. Archivado desde el original el 27 de febrero de 2020 . Consultado el 27 de febrero de 2020 .
  84. ^ "'Los creadores de South Park lanzan la nueva serie de sátira deepfake 'Sassy Justice'". NME . 27 de octubre de 2020 . Consultado el 7 de junio de 2022 .
  85. ^ ab Tayler, Kelley M.; Harris, Laurie A. (8 de junio de 2021). Falsificaciones profundas y seguridad nacional (Reporte). Servicio de Investigación del Congreso . pag. 1 . Consultado el 19 de julio de 2021 .
  86. ^ Limberg, Peter (24 de mayo de 2020). "Chantaje a la inflación". Estado de culto . Archivado desde el original el 24 de enero de 2021 . Consultado el 18 de enero de 2021 .
  87. ^ "Para Kappy". Telégrafo . 24 de mayo de 2020. Archivado desde el original el 24 de enero de 2021 . Consultado el 18 de enero de 2021 .
  88. ^ "Los jueces de la AGT tuvieron reacciones invaluables ante esa audición de canto de Simon Cowell". Sitio oficial de NBC Insider . 8 de junio de 2022 . Consultado el 29 de agosto de 2022 .
  89. ^ Marr, Bernard. "¿Puede una IA del metaverso ganar America's Got Talent? (Y lo que eso significa para la industria)". Forbes . Consultado el 30 de agosto de 2022 .
  90. ^ Morales, Jowi (10 de junio de 2022). "Los deepfakes se generalizan: cómo la entrada AGT de Metaphysic afectará el entretenimiento". MUO . Consultado el 29 de agosto de 2022 .
  91. ^ Carter, Rebecca (1 de junio de 2019). "Los espectadores de BGT critican a Simon Cowell por un comentario 'grosero' y 'desagradable' al concursante". Entretenimiento diario . Consultado el 31 de agosto de 2022 .
  92. ^ ¿ Simon Cowell canta en el escenario? La metafísica te dejará sin palabras | AGT 2022 , consultado el 29 de agosto de 2022.
  93. ^ Segarra, Eduardo. "'Los jueces de AGT, Simon Cowell y Howie Mandel, reciben un tratamiento 'deepfake' por parte de AI en Metaphysic: mira aquí ". EE.UU. HOY EN DÍA . Consultado el 31 de agosto de 2022 .
  94. ^ Bowenbank, Starr (14 de septiembre de 2022). "Simon Cowell hace dueto con Elvis en la última actuación de Deepfake 'AGT' de Metaphysic: Ver". Cartelera . Consultado el 15 de septiembre de 2022 .
  95. ^ Zwiezen, Zack (18 de enero de 2021). "El sitio web te permite hacer que GLaDOS diga lo que quieras". Kotaku . Archivado desde el original el 17 de enero de 2021 . Consultado el 18 de enero de 2021 .
  96. ^ Ruppert, Liana (18 de enero de 2021). "Haz que GLaDOS de Portal y otros personajes queridos digan las cosas más raras con esta aplicación". Informador del juego . Informador del juego . Archivado desde el original el 18 de enero de 2021 . Consultado el 18 de enero de 2021 .
  97. ^ Clayton, Natalie (19 de enero de 2021). "Haz que el elenco de TF2 recite viejos memes con esta herramienta de conversión de texto a voz con IA". Jugador de PC . Archivado desde el original el 19 de enero de 2021 . Consultado el 19 de enero de 2021 .
  98. ^ Sherman, María (3 de diciembre de 2023). "Kiss se despide de las giras en vivo y se convierte en la primera banda estadounidense en volverse virtual y convertirse en avatares digitales". Noticias AP . Associated Press . Consultado el 4 de enero de 2024 .
  99. ^ abc Cerullo, Megan (9 de enero de 2024). "Anuncios generados por IA que utilizan la imagen de Taylor Swift y engañan a los fanáticos con un sorteo falso de Le Creuset". Noticias CBS . Consultado el 10 de enero de 2024 .
  100. ^ ABCDE Hsu, Tiffany; Lu, Yiwen (9 de enero de 2024). "No, esa no es Taylor Swift vendiendo utensilios de cocina Le Creuset". Los New York Times . pag. B1 . Consultado el 10 de enero de 2024 .
  101. ^ abc Taylor, Derrick Bryson (2 de octubre de 2023). "Tom Hanks advierte sobre un anuncio dental que utiliza su versión AI". Los New York Times . ISSN  0362-4331 . Consultado el 12 de octubre de 2023 .
  102. ^ abc Johnson, Kirsten (11 de diciembre de 2023). "Una mujer de Arizona es víctima de una estafa deepfake que utiliza celebridades en las redes sociales". ABC 15 Arizona . Consultado el 10 de enero de 2024 .
  103. ^ ab Kulundu, Mary (4 de enero de 2024). "Vídeos deepfake de Elon Musk utilizados en una estafa para hacerse rico rápidamente". Agencia France-Presse . Consultado el 10 de enero de 2024 .
  104. ^ Esmael, Lisbet (3 de enero de 2024). "PH necesita un enfoque multifacético frente a los videos 'deepfake' utilizados para estafar a Pinoys". CNN Filipinas . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  105. ^ Gerken, Tom (4 de octubre de 2023). "Estrellas de MrBeast y la BBC utilizadas en vídeos de estafas deepfake". Noticias de la BBC . Consultado el 10 de enero de 2024 .
  106. ^ ab Lim, Kimberly (29 de diciembre de 2023). "El primer ministro de Singapur, Lee, advierte sobre deepfakes 'muy convincentes' que 'difunden desinformación' después de que emerge un video falso de él" . Poste matutino del sur de China . Archivado desde el original el 9 de enero de 2024 . Consultado el 10 de enero de 2024 .
  107. ^ Taylor, Josh (30 de noviembre de 2023). "El estafador pagó a Facebook 7 centavos por vista para hacer circular un video de Jim Chalmers y Gina Rinehart falsos". El guardián . Consultado el 10 de enero de 2024 .
  108. ^ Palmer, Joseph Olbrycht (14 de diciembre de 2023). "Deepfake del tesoro australiano, los funcionarios del banco central lo utilizaron para promover estafas de inversión". Agencia France-Presse . Consultado el 10 de enero de 2024 .
  109. ^ abc Koebler, Jason (9 de enero de 2024). "Los anuncios de celebridades deepfake que promueven estafas contra Medicare proliferan en YouTube". 404 Medios . Consultado el 10 de enero de 2024 .
  110. ^ abc Rosenblatt, Kalhan (3 de octubre de 2023). "MrBeast llama 'estafa' al anuncio de TikTok que muestra una versión de él con IA". Noticias NBC . Consultado el 10 de enero de 2024 .
  111. ^ Koebler, Jason (25 de enero de 2024). "YouTube elimina 1000 vídeos de anuncios fraudulentos de inteligencia artificial de celebridades". 404 Medios . Consultado el 2 de febrero de 2024 .
  112. ^ Bucci, Nino (27 de noviembre de 2023). "Dick Smith critica a Facebook después de que los estafadores hicieran circular anuncios de vídeo deepfake". El guardián . Consultado el 10 de enero de 2024 .
  113. ^ Lomas, Natasha (7 de julio de 2023). "Martin Lewis advierte sobre el 'primer' anuncio fraudulento de vídeo deepfake que circula en Facebook". TechCrunch . Consultado el 10 de enero de 2024 .
  114. ^ Lopatto, Elizabeth (3 de enero de 2024). "Nueva y divertida consecuencia de los deepfake: estafas criptográficas más convincentes". El borde . Consultado el 10 de enero de 2024 .
  115. ^ Punto, Maia; Poritz, Isaiah (11 de octubre de 2023). "MrBeast, Tom Hanks afectados por estafas de inteligencia artificial mientras Law se apresura a mantener el ritmo". Ley Bloomberg . Consultado el 10 de enero de 2024 .
  116. ^ Statt, Nick (5 de septiembre de 2019). "Los ladrones ahora están utilizando deepfakes de IA para engañar a las empresas para que les envíen dinero". Archivado desde el original el 15 de septiembre de 2019 . Consultado el 13 de septiembre de 2019 .
  117. ^ Damiani, Jesse. "Se utilizó una voz Deepfake para estafar a un director ejecutivo por 243.000 dólares". Forbes . Archivado desde el original el 14 de septiembre de 2019 . Consultado el 9 de noviembre de 2019 .
  118. ^ Schwartz, Cristóbal; Wright, Matthew (17 de marzo de 2023). "Los deepfakes de voz están llamando: esto es lo que son y cómo evitar ser estafados". La conversación .
  119. ^ C, Kim (22 de agosto de 2020). "Coffin Dance y más: los memes musicales de 2020 hasta ahora". Tiempos de música . Archivado desde el original el 26 de junio de 2021 . Consultado el 26 de agosto de 2020 .
  120. ^ Sholihyn, Ilyas (7 de agosto de 2020). "Alguien falsificó a los políticos de Singapur para sincronizar los labios con esa canción meme japonesa". AsiaUno . Archivado desde el original el 3 de septiembre de 2020 . Consultado el 26 de agosto de 2020 .
  121. ^ Romano, Aja (18 de abril de 2018). "El anuncio de servicio público simulado de Obama de Jordan Peele es una advertencia de doble filo contra las noticias falsas". Vox . Archivado desde el original el 11 de junio de 2019 . Consultado el 10 de septiembre de 2018 .
  122. ^ abcd "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 3 de febrero de 2018. Archivado desde el original el 13 de abril de 2019 . Consultado el 9 de abril de 2018 .
  123. ^ Gensing, Patrick. "Deepfakes: ¿Auf dem Weg in eine alternativa Realität?". Archivado desde el original el 11 de octubre de 2018 . Consultado el 9 de abril de 2018 .
  124. ^ Swenson, Kyle (11 de enero de 2019). "Una estación de televisión de Seattle transmitió imágenes manipuladas del discurso de Trump en la Oficina Oval. El empleado ha sido despedido". El Washington Post . Archivado desde el original el 15 de abril de 2019 . Consultado el 11 de enero de 2019 .
  125. ^ O'Sullivan, Donie (4 de junio de 2019). "El Congreso investigará los deepfakes mientras un video manipulado de Pelosi causa revuelo". CNN . Archivado desde el original el 29 de junio de 2019 . Consultado el 9 de noviembre de 2019 .
  126. ^ "#TellTheTruthBelgium". Rebelión de Extinción Bélgica . Archivado desde el original el 25 de abril de 2020 . Consultado el 21 de abril de 2020 .
  127. ^ Holubowicz, Gerald (15 de abril de 2020). "Extinction Rebellion s'empare des deepfakes". Periodismo.diseño (en francés). Archivado desde el original el 29 de julio de 2020 . Consultado el 21 de abril de 2020 .
  128. ^ Carnahan, Dustin (16 de septiembre de 2020). "Los vídeos falsos refuerzan creencias falsas sobre la salud mental de Biden". La conversación . Consultado el 9 de abril de 2022 .
  129. ^ Parker, Ashley (7 de septiembre de 2020). "Trump y sus aliados intensifican sus esfuerzos para difundir desinformación y noticias falsas" . El independiente . Consultado el 9 de abril de 2022 .
  130. ^ Christopher, Nilesh (18 de febrero de 2020). "Acabamos de ver el primer uso de deepfakes en una campaña electoral india". Vicio . Archivado desde el original el 19 de febrero de 2020 . Consultado el 19 de febrero de 2020 .
  131. ^ "Amabie: la criatura mítica que regresa al coronavirus". El economista . 28 de abril de 2020. ISSN  0013-0613. Archivado desde el original el 20 de mayo de 2021 . Consultado el 3 de junio de 2021 .
  132. ^ Roth, Andrew (22 de abril de 2021). "Parlamentarios europeos objeto de videollamadas falsas que imitan a la oposición rusa". El guardián . Consultado el 29 de marzo de 2022 .
  133. ^ Ivanov, Máxima; Rothrock, Kevin (22 de abril de 2021). "Hola, soy Leonid Volkov* Utilizando vídeos deepfake y haciéndose pasar por la mano derecha de Navalny, los bromistas rusos engañan a políticos y periodistas letones para que los inviten y los entrevisten en televisión". Medusa . Consultado el 29 de marzo de 2022 .
  134. ^ "Parlamentarios holandeses en videoconferencia con una profunda imitación falsa del Jefe de Estado Mayor de Navalny". Tiempos de Holanda . 24 de abril de 2021 . Consultado el 29 de marzo de 2022 .
  135. ^ "'Asistente de Navalny 'deepfake' apunta a legisladores europeos" . Los tiempos de Moscú . 23 de abril de 2021 . Consultado el 29 de marzo de 2022 .
  136. ^ Vincent, James (30 de abril de 2021). "'Deepfake 'que supuestamente engañó a los políticos europeos era sólo un doble, dicen los bromistas ". El borde .
  137. ^ Novak, Matt (8 de mayo de 2023). "El vídeo viral de Kamala Harris hablando galimatías es en realidad un deepfake". Forbes .
  138. ^ "PolitiFact: Kamala Harris no hablaba mal de hoy, ayer o mañana. Este video está modificado". Politifacto .
  139. ^ Shuham, Matt (8 de junio de 2023). "El anuncio de la campaña de DeSantis muestra imágenes falsas de IA de Trump abrazando a Fauci". Huffpost . Consultado el 8 de junio de 2023 .
  140. ^ ab Roettgers, Janko (21 de febrero de 2018). "Los productores de pornografía se ofrecen para ayudar a Hollywood a eliminar los videos deepfake". Variedad . Archivado desde el original el 10 de junio de 2019 . Consultado el 28 de febrero de 2018 .
  141. ^ abc Dickson, EJ (7 de octubre de 2019). "La pornografía deepfake sigue siendo una amenaza, especialmente para las estrellas del K-Pop". Piedra rodante . Archivado desde el original el 30 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  142. ^ "El estado de Deepfake: panorama, amenazas e impacto" (PDF) . Traza profunda . 1 de octubre de 2019. Archivado (PDF) desde el original el 9 de agosto de 2020 . Consultado el 7 de julio de 2020 .
  143. ^ Goggin, Benjamin (7 de junio de 2019). "Del porno a 'Juego de Tronos': cómo los deepfakes y los vídeos falsos de aspecto realista triunfan". Business Insider . Archivado desde el original el 8 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  144. ^ Lee, Dave (3 de febrero de 2018). "La 'pornografía falsa' tiene graves consecuencias". Archivado desde el original el 1 de diciembre de 2019 . Consultado el 9 de noviembre de 2019 .
  145. ^ ab Cole, Samantha (19 de junio de 2018). "La solución de inteligencia artificial de Gfycat para combatir los deepfakes no funciona". Vicio . Archivado desde el original el 8 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  146. ^ Zoe, Freni (24 de noviembre de 2019). "El porno deepfake llegó para quedarse". Medio . Archivado desde el original el 10 de diciembre de 2019 . Consultado el 10 de diciembre de 2019 .
  147. ^ ab Cole, Samantha; Maiberg, Emanuel; Koebler, Jason (26 de junio de 2019). "Esta horrible aplicación desnuda una foto de cualquier mujer con un solo clic". Vicio . Archivado desde el original el 2 de julio de 2019 . Consultado el 2 de julio de 2019 .
  148. ^ Cox, Joseph (9 de julio de 2019). "GitHub eliminó las versiones de código abierto de DeepNude". Vicemedios . Archivado desde el original el 24 de septiembre de 2020 . Consultado el 14 de julio de 2019 .
  149. ^ "pic.twitter.com/8uJKBQTZ0o". 27 de junio de 2019. Archivado desde el original el 6 de abril de 2021 . Consultado el 3 de agosto de 2019 .
  150. ^ Damiani, Jesse. "La aplicación china Deepfake Zao se vuelve viral y enfrenta críticas inmediatas por la política de seguridad y los datos del usuario". Forbes . Archivado desde el original el 14 de septiembre de 2019 . Consultado el 18 de noviembre de 2019 .
  151. ^ "Antes de las elecciones irlandesas y estadounidenses, Facebook anuncia nuevas medidas contra los vídeos 'deepfake'". Independiente.es decir . 7 de enero de 2020. Archivado desde el original el 8 de enero de 2020 . Consultado el 7 de enero de 2020 .
  152. ^ "Cómo el experto visual belga Chris Ume ideó los deepfakes de Tom Cruise". El estadista . 6 de marzo de 2021 . Consultado el 24 de agosto de 2022 .
  153. ^ Metz, Raquel. "Cómo un Tom Cruise falso en TikTok se convirtió en una empresa de inteligencia artificial muy real". CNN .
  154. ^ Corcoran, Marcos; Henry, Matt (23 de junio de 2021). "Este no es Tom Cruise. Eso es lo que tanto preocupa a los expertos en seguridad". ABC Noticias . Consultado el 28 de marzo de 2022 .
  155. ^ Reuters, 15 de julio de 2020, Deepfake utilizado para atacar a una pareja de activistas muestra una nueva frontera de desinformación Archivado el 26 de septiembre de 2020 en Wayback Machine.
  156. ^ 972 Magazine, 12 de agosto de 2020, "¿'Izquierdistas por Bibi'? Propaganda deepfake pro-Netanyahu expuesta: según una serie de publicaciones en Facebook, el primer ministro israelí se está ganando seguidores de izquierda, excepto que ninguna de las personas en La pregunta existe" Archivado el 14 de agosto de 2020 en Wayback Machine.
  157. ^ El séptimo ojo, 9 de junio de 2020, הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזו יפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות שקר יות על מנת להגביר את השנאה והפילוג בחברה הישראלית Archivado el 18 de agosto de 2020 en Wayback Machine .
  158. ^ "Deepfakes armados: seguridad nacional y democracia en JSTOR". www.jstor.org . Archivado desde el original el 22 de octubre de 2020 . Consultado el 21 de octubre de 2020 .
  159. ^ Vaccari, Cristian; Chadwick, Andrew (enero de 2020). "Deepfakes y desinformación: exploración del impacto de los vídeos políticos sintéticos en el engaño, la incertidumbre y la confianza en las noticias". Redes Sociales + Sociedad . 6 (1): 205630512090340. doi : 10.1177/2056305120903408 . ISSN  2056-3051. S2CID  214265502.
  160. ^ ab "La tecnología perfecta Deepfake podría llegar antes de lo esperado". www.wbur.org . 2 de octubre de 2019. Archivado desde el original el 30 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  161. ^ Sonnemaker, Tyler. "Mientras las plataformas de redes sociales se preparan para la ola entrante de deepfakes, el ex 'zar del fraude' de Google predice que el mayor peligro es que los deepfakes eventualmente se vuelvan aburridos". Business Insider . Archivado desde el original el 14 de abril de 2021 . Consultado el 14 de abril de 2021 .
  162. ^ abc Bateman, Jon (2020). "Resumen". Deepfakes y medios sintéticos en el sistema financiero : 1–2. Archivado desde el original el 20 de abril de 2021 . Consultado el 28 de octubre de 2020 .
  163. ^ Kelion, Leo (septiembre de 2020). "Herramienta de detección de deepfake presentada por Microsoft". Noticias de la BBC . Archivado desde el original el 14 de abril de 2021 . Consultado el 15 de abril de 2021 .
  164. ^ Fagan, Kaylee. "Un video viral que parecía mostrar a Obama llamando a Trump 'caída---' muestra una nueva e inquietante tendencia llamada 'deepfakes'". Business Insider . Archivado desde el original el 22 de septiembre de 2020 . Consultado el 3 de noviembre de 2020 .
  165. ^ ab "El auge de los deepfake y la amenaza a la democracia". El guardián . Archivado desde el original el 1 de noviembre de 2020 . Consultado el 3 de noviembre de 2020 .
  166. ^ ab "En las redes sociales circulan imágenes generadas por inteligencia artificial del arresto de Trump". Noticias AP. 21 de marzo de 2023 . Consultado el 10 de octubre de 2023 .
  167. ^ "Trump comparte una foto falsa de sí mismo orando mientras las imágenes de arresto de IA se difunden en línea". El independiente . 24 de marzo de 2023 . Consultado el 16 de junio de 2023 .
  168. ^ Torres-Clark, Charles. "Mona Lisa y Nancy Pelosi: las implicaciones de los deepfakes". Forbes . Archivado desde el original el 23 de noviembre de 2020 . Consultado el 7 de octubre de 2020 .
  169. ^ "¿Cuál es la diferencia entre un Deepfake y un Shallowfake?". 21 de abril de 2020. Archivado desde el original el 26 de junio de 2022 . Consultado el 5 de diciembre de 2021 .
  170. ^ abc "Deepfake Putin está aquí para advertir a los estadounidenses sobre su perdición autoinfligida". Revisión de tecnología del MIT . Archivado desde el original el 30 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  171. ^ Sonne, Paul (5 de junio de 2023). "Discurso falso de Putin pidiendo la ley marcial transmitido en Rusia". Los New York Times . Consultado el 6 de junio de 2023 .
  172. ^ Allyn, Bobby (16 de marzo de 2022). "El vídeo deepfake de Zelenskyy podría ser la 'punta del iceberg' en la guerra de la información, advierten los expertos". NPR . Consultado el 17 de marzo de 2022 .
  173. ^ Satariano, Adán; Mozur, Paul (7 de febrero de 2023). "La gente que aparece en pantalla es falsa. La desinformación es real". Los New York Times .
  174. ^ "El Papa Francisco en el deepfake de Balenciaga engaña a millones: 'Definitivamente aterrador'". Correo de Nueva York . 28 de marzo de 2023 . Consultado el 16 de junio de 2023 .
  175. ^ Lu, Donna (31 de marzo de 2023). "Desinformación, errores y el Papa en un inhalador: lo que la IA en rápida evolución puede y no puede hacer" . El guardián . Consultado el 16 de junio de 2023 .
  176. ^ Murphy, Heather Tal (29 de marzo de 2023). "El Papa con abrigo no es de un lugar santo". Pizarra . Consultado el 16 de junio de 2023 .
  177. ^ "Mujer en video deepfake con el rostro de Rashmika Mandanna rompe el silencio: estoy profundamente perturbada y molesta por lo que está sucediendo". Los tiempos de la India . 9 de noviembre de 2023. ISSN  0971-8257 . Consultado el 23 de noviembre de 2023 .
  178. ^ abcd "Ayúdanos a dar forma a nuestro enfoque hacia los medios sintéticos y manipulados". blog.twitter.com . Archivado desde el original el 28 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  179. ^ "TecnologíaCrunch". TechCrunch . 11 de noviembre de 2019. Archivado desde el original el 14 de julio de 2021 . Consultado el 7 de octubre de 2020 .
  180. ^ ab "Resultados del desafío de detección de deepfake: una iniciativa abierta para avanzar en la IA". ai.facebook.com . Archivado desde el original el 29 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  181. ^ ab Paul, Katie (4 de febrero de 2020). "Twitter para etiquetar deepfakes y otros medios engañosos". Reuters . Archivado desde el original el 10 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  182. ^ Cohen, Ariel; Rimón, Inbal; Aflalo, Eran; Permuter, Haim H. (junio de 2022). "Un estudio sobre el aumento de datos en la lucha contra la suplantación de voz". Comunicación del habla . 141 : 56–67. arXiv : 2110.10491 . doi :10.1016/j.specom.2022.04.005. S2CID  239050551.
  183. ^ abc Manke, Kara (18 de junio de 2019). "Los investigadores utilizan peculiaridades faciales para desenmascarar los 'deepfakes'". Noticias de Berkeley . Archivado desde el original el 9 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  184. ^ Farid, Hany (1 de diciembre de 2006). "Médico digital: cómo distinguir lo real de lo falso". Significado . 3 (4): 162–166. doi : 10.1111/j.1740-9713.2006.00197.x . S2CID  13861938.
  185. ^ "Únase al desafío de detección de deepfake (DFDC)". deepfakedetectionchallenge.ai. Archivado desde el original el 12 de enero de 2020 . Consultado el 8 de noviembre de 2019 .
  186. ^ "Resultados del desafío de detección de deepfake: una iniciativa abierta para avanzar en la IA". ai.facebook.com . Consultado el 30 de septiembre de 2022 .
  187. ^ Groh, Mateo; Epstein, Ziv; Piedra de fuego, Chaz; Picard, Rosalinda (2022). "Detección de deepfake por parte de multitudes humanas, máquinas y multitudes informadas por máquinas". Procedimientos de la Academia Nacional de Ciencias . 119 (1). arXiv : 2105.06496 . Código Bib : 2022PNAS..11910013G. doi : 10.1073/pnas.2110013119 . PMC 8740705 . PMID  34969837. 
  188. ^ Hu, Shu; Li, Yuezun; Lyu, Siwei (12 de octubre de 2020). "Exponer rostros generados por GAN utilizando reflejos especulares corneales inconsistentes". arXiv : 2009.11924 [cs.CV].
  189. ^ Boháček, M; Farid, H (29 de noviembre de 2022). "Proteger a los líderes mundiales contra falsificaciones profundas mediante gestos faciales, gestuales y vocales". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 119 (48): e2216035119. Código Bib : 2022PNAS..11916035B. doi : 10.1073/pnas.2216035119 . PMC 9860138 . PMID  36417442. 
  190. ^ ab "Google Académico". académico.google.com . Consultado el 30 de abril de 2022 .
  191. ^ ab "Red recurrente de dos ramas para aislar deepfakes en videos". académico.google.com . Consultado el 30 de abril de 2022 .
  192. ^ abc "La solución Blockchain a nuestros problemas de deepfake". Cableado . ISSN  1059-1028. Archivado desde el original el 7 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  193. ^ ab Leetaru, Kalev. "Por qué las firmas digitales no evitarán falsificaciones profundas pero ayudarán a los gobiernos represivos". Forbes . Archivado desde el original el 14 de abril de 2021 . Consultado el 17 de febrero de 2021 .
  194. ^ "Para descubrir una videollamada deepfake, pídale a la persona que llama que se gire de lado". Metafísica . 8 de agosto de 2022 . Consultado el 24 de agosto de 2022 .
  195. ^ ab Cole, Samantha (11 de junio de 2019). "Este Deepfake de Mark Zuckerberg pone a prueba las políticas de vídeos falsos de Facebook". Vicio . Archivado desde el original el 12 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  196. ^ abc Cole, Samantha (6 de febrero de 2018). "Pornhub está prohibiendo los vídeos porno falsos generados por IA, dice que no son consensuales". Vicio . Archivado desde el original el 1 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  197. ^ ab Cole, Samantha (31 de enero de 2018). "Los creadores de pornografía falsa generada por IA han sido expulsados ​​de su presentador favorito". Vicio . Archivado desde el original el 1 de noviembre de 2019 . Consultado el 18 de noviembre de 2019 .
  198. ^ ab Cole, Samantha (6 de febrero de 2018). "Twitter es la última plataforma en prohibir la pornografía generada por IA". Vicio . Archivado desde el original el 1 de noviembre de 2019 . Consultado el 8 de noviembre de 2019 .
  199. ^ Cole, Samantha (11 de diciembre de 2017). "La pornografía falsa asistida por IA ya está aquí y estamos todos jodidos". Vicio . Archivado desde el original el 7 de septiembre de 2019 . Consultado el 19 de diciembre de 2018 .
  200. ^ Böhm, Markus (7 de febrero de 2018). ""Deepfakes ": Firmen gehen gegen gefälschte Promi-Pornos vor". Spiegel en línea . Archivado desde el original el 23 de septiembre de 2019 . Consultado el 9 de noviembre de 2019 .
  201. ^ barbara.wimmer (8 de febrero de 2018). "Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos". Futurezone.at (en alemán). Archivado desde el original el 8 de febrero de 2018 . Consultado el 9 de noviembre de 2019 .
  202. ^ "Deepfakes: también Reddit dice porno falso". heise en línea (en alemán). 8 de febrero de 2018. Archivado desde el original el 10 de abril de 2019 . Consultado el 9 de noviembre de 2019 .
  203. ^ "Reddit verbannt Deepfake-Pornos - derStandard.de". DER STANDARD (en alemán austriaco). Archivado desde el original el 9 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  204. ^ Robertson, Adi (7 de febrero de 2018). "Reddit prohíbe las comunidades pornográficas de IA 'deepfakes'". El borde . Archivado desde el original el 24 de septiembre de 2019 . Consultado el 9 de noviembre de 2019 .
  205. ^ Precio, Rob (27 de enero de 2018). "Discord acaba de cerrar un grupo de chat dedicado a compartir videos porno editados con IA para incluir celebridades". Business Insider Australia . Archivado desde el original el 15 de diciembre de 2019 . Consultado el 28 de noviembre de 2019 .
  206. ^ "Twitter prohíbe la pornografía 'deepfake' generada por IA". Engadget . 20 de julio de 2019. Archivado desde el original el 15 de diciembre de 2019 . Consultado el 28 de noviembre de 2019 .
  207. ^ ab Harrell, Drew. "Los vídeos porno falsos se están utilizando como arma para acosar y humillar a las mujeres: 'Todo el mundo es un objetivo potencial'". El Washington Post . Archivado desde el original el 2 de enero de 2019 . Consultado el 1 de enero de 2019 .
  208. ^ Beres, Damon; Gilmer, Marcus (2 de febrero de 2018). "Una guía sobre los 'deepfakes', la última crisis moral de Internet". Machacable . Archivado desde el original el 9 de diciembre de 2019 . Consultado el 9 de noviembre de 2019 .
  209. ^ ab "Facebook ha prometido dejar un video falso de Mark Zuckerberg". Revisión de tecnología del MIT . Archivado desde el original el 16 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  210. ^ Anderson, Martín (2022). Google ha prohibido el entrenamiento de deepfakes en Colab Archivado el 30 de mayo de 2022 en Wayback Machine , Unite.ai, 28 de mayo de 2022
  211. ^ Maiberg, Emanuel (2022). Se necesitan 2 clics para pasar de 'Deep Tom Cruise' a vil pornografía deepfake Archivado el 30 de mayo de 2022 en Wayback Machine , VICE, 17 de mayo de 2022
  212. ^ Sasse, Ben (21 de diciembre de 2018). "S. 3805-115.º Congreso (2017-2018): Ley de prohibición de falsificaciones profundas y maliciosas de 2018". www.congreso.gov . Archivado desde el original el 16 de octubre de 2019 . Consultado el 16 de octubre de 2019 .
  213. ^ "La pornografía de venganza 'deepfake' ahora es ilegal en Virginia" . TechCrunch . Julio de 2019. Archivado desde el original el 14 de julio de 2021 . Consultado el 16 de octubre de 2019 .
  214. ^ Iacono Brown, Nina (15 de julio de 2019). "El Congreso quiere resolver los deepfakes para 2020. Eso debería preocuparnos". Revista Pizarra . Archivado desde el original el 16 de octubre de 2019 . Consultado el 16 de octubre de 2019 .
  215. ^ ab "Texto del proyecto de ley - AB-602 Representación de un individuo que utiliza tecnología digital o electrónica: material sexualmente explícito: causa de acción". leginfo.legislature.ca.gov . Archivado desde el original el 17 de noviembre de 2019 . Consultado el 9 de noviembre de 2019 .
  216. ^ ab "Texto del proyecto de ley - Elecciones AB-730: medios visuales o de audio engañosos". leginfo.legislature.ca.gov . Archivado desde el original el 31 de octubre de 2019 . Consultado el 9 de noviembre de 2019 .
  217. ^ "China busca erradicar las noticias falsas y los deepfakes con nuevas reglas de contenido en línea". Reuters.com . Reuters . 29 de noviembre de 2019. Archivado desde el original el 17 de diciembre de 2019 . Consultado el 17 de diciembre de 2019 .
  218. ^ Statt, Nick (29 de noviembre de 2019). "China tipifica como delito la publicación de deepfakes o noticias falsas sin divulgación" . El borde . Archivado desde el original el 22 de diciembre de 2019 . Consultado el 17 de diciembre de 2019 .
  219. ^ Solicitud de proyecto de ley sobre upskirting que incluya la prohibición de la pornografía 'deepfake' Archivado el 21 de junio de 2018 en Wayback Machine The Guardian
  220. ^ [2] Archivado el 22 de noviembre de 2019 en Wayback Machine, consulte la página 18.
  221. ^ Bogart, Nicole (10 de septiembre de 2019). "Cómo los deepfakes podrían afectar las elecciones canadienses de 2019". Elecciones Federales 2019 . Archivado desde el original el 27 de enero de 2020 . Consultado el 28 de enero de 2020 .
  222. ^ "¿Qué puede hacer la ley con respecto a los deepfake?". mcmillan.ca . Archivado desde el original el 7 de diciembre de 2019 . Consultado el 28 de enero de 2020 .
  223. ^ Venkatasubbbu, Satish (27 de junio de 2023). "¿Cómo se utilizan los deepfakes para estafarnos a usted y a mí? Tendencias actuales sobre detección mediante inteligencia artificial y regulaciones legales en todo el mundo". cybermithra.in . Consultado el 3 de julio de 2023 .
  224. ^ "El ejército estadounidense está financiando un esfuerzo para detectar deepfakes y otros engaños de la IA". Revisión de tecnología del MIT . Archivado desde el original el 1 de noviembre de 2020 . Consultado el 7 de octubre de 2020 .
  225. ^ ab "DARPA está asumiendo el problema de los deepfake". Nextgov.com . 6 de agosto de 2019. Archivado desde el original el 28 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  226. ^ "Ciencia forense de medios". www.darpa.mil . Archivado desde el original el 29 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  227. ^ "Picaper". Base de datos de ficción especulativa de Internet . Archivado desde el original el 29 de julio de 2020 . Consultado el 9 de julio de 2019 .
  228. ^ Kerr, Felipe (2010). Una investigación filosófica . Libros de National Geographic. ISBN 978-0143117537.
  229. ^ Bernal, Natasha (8 de octubre de 2019). "La inquietante verdad detrás de The Capture y los deepfakes de la vida real". El Telégrafo . Archivado desde el original el 14 de octubre de 2019 . Consultado el 24 de octubre de 2019 .
  230. ^ Crawley, Peter (5 de septiembre de 2019). "The Capture: un thriller de la BBC sobre vigilancia, distorsión y duplicidad". Los tiempos irlandeses . Archivado desde el original el 9 de septiembre de 2019 . Consultado el 24 de octubre de 2019 .
  231. ^ "ESPN Films Latest 30 for 30 Documental Al Davis vs. The NFL se estrenará el 4 de febrero" (Presione soltar). ESPN. 15 de enero de 2021. Archivado desde el original el 6 de febrero de 2021 . Consultado el 5 de febrero de 2021 .
  232. ^ Sprung, Shlomo (1 de febrero de 2021). "El documental de ESPN 'Al Davis Vs The NFL' utiliza tecnología Deepfake para devolverle la vida al difunto propietario de los Raiders". Forbes . Archivado desde el original el 14 de abril de 2021 . Consultado el 4 de febrero de 2021 .
  233. ^ "Hudson y Rex".
  234. ^ ab Wood, Mikael (9 de mayo de 2022). "Mira a Kendrick Lamar transformarse en OJ, Kanye, Kobe, Nipsey Hussle en un nuevo video". Los Ángeles Times . Consultado el 10 de mayo de 2022 .
  235. ^ Aloe Blacc - Wake Me Up (Universal Language Mix) , consultado el 24 de agosto de 2022
  236. ^ "Mira a Aloe Blacc interpretar" Wake Me Up "en tres idiomas para honrar a Avicii utilizando la traducción de Respeecher AI". Voicebot.ai . 5 de mayo de 2022 . Consultado el 24 de agosto de 2022 .
  237. ^ Lees, Dominic (27 de enero de 2023). "Deep Fake Neighbor Wars: la comedia de ITV muestra cómo la IA puede transformar la cultura popular". La conversación . Consultado el 3 de julio de 2023 .

Otras lecturas

enlaces externos