stringtranslate.com

Medios sintéticos

Los medios sintéticos (también conocidos como medios generados por IA , [1] [2] medios producidos por IA generativa , [3] medios personalizados , contenido personalizado , [4] y coloquialmente como deepfakes [5] ) son un término general para la producción, manipulación y modificación artificial de datos y medios por medios automatizados , especialmente mediante el uso de algoritmos de inteligencia artificial , como con el propósito de engañar a las personas o cambiar un significado original. [6] [7] [8] Los medios sintéticos como campo han crecido rápidamente desde la creación de redes generativas adversarias , principalmente a través del auge de los deepfakes, así como la síntesis musical, la generación de texto, la síntesis de imágenes humanas, la síntesis de voz y más. [8] Aunque los expertos utilizan el término "medios sintéticos", los métodos individuales como deepfakes y síntesis de texto a veces no son denominados como tales por los medios sino por su respectiva terminología (y a menudo utilizan "deepfakes" como eufemismo, por ejemplo "deepfakes para texto" [ cita requerida ] para generación de lenguaje natural ; "deepfakes para voces" para clonación de voz neuronal , etc.) [9] [10] Surgió una atención significativa hacia el campo de los medios sintéticos a partir de 2017 cuando Motherboard informó sobre la aparición de videos pornográficos alterados por IA para insertar las caras de actrices famosas. [11] [12] Los peligros potenciales de los medios sintéticos incluyen la propagación de desinformación, una mayor pérdida de confianza en instituciones como los medios y el gobierno, [11] la automatización masiva de trabajos creativos y periodísticos y un retiro a mundos de fantasía generados por IA. [13] Los medios sintéticos son una forma aplicada de imaginación artificial . [11]

Historia

Antes de 1950

El autómata de Maillardet dibujando una imagen

Los medios sintéticos como un proceso de arte automatizado se remontan a los autómatas de la antigua civilización griega , donde inventores como Dédalo y Herón de Alejandría diseñaron máquinas capaces de escribir texto, generar sonidos y reproducir música. [14] [15] La tradición del entretenimiento basado en autómatas floreció a lo largo de la historia, con la capacidad aparentemente mágica de los seres mecánicos para imitar la creatividad humana atrayendo a menudo multitudes en toda Europa, [16] China, [17] India, [18] y así sucesivamente. Otras novedades automatizadas como " Musikalisches Würfelspiel " (Juego de dados musical) de Johann Philipp Kirnberger de 1757 también divirtieron al público. [19]

Sin embargo, a pesar de las capacidades técnicas de estas máquinas, ninguna era capaz de generar contenido original y dependían completamente de sus diseños mecánicos.

El auge de la inteligencia artificial

El campo de la investigación de la IA nació en un taller en el Dartmouth College en 1956, [20] lo que dio origen al auge de la informática digital utilizada como medio artístico , así como al auge del arte generativo . Los experimentos iniciales en el arte generado por IA incluyeron la Suite Illiac , una composición de 1957 para cuarteto de cuerdas que, en general, se acepta como la primera partitura compuesta por una computadora electrónica . [21] Lejaren Hiller , en colaboración con Leonard Issacson , programó la computadora ILLIAC I en la Universidad de Illinois en Urbana-Champaign (donde ambos compositores eran profesores) para generar material compositivo para su Cuarteto de cuerdas n.º 4 .

En 1960, el investigador ruso R.Kh.Zaripov publicó el primer artículo mundial sobre composición musical algorítmica utilizando la computadora " Ural-1 ". [22]

En 1965, el inventor Ray Kurzweil estrenó una pieza para piano creada por un ordenador que era capaz de reconocer patrones en varias composiciones. El ordenador pudo entonces analizar y utilizar estos patrones para crear melodías novedosas. El ordenador debutó en el programa I've Got a Secret de Steve Allen y dejó perplejos a los presentadores hasta que la estrella de cine Harry Morgan adivinó el secreto de Ray. [23]

Antes de 1989, se habían utilizado redes neuronales artificiales para modelar ciertos aspectos de la creatividad. Peter Todd (1989) entrenó primero una red neuronal para reproducir melodías musicales a partir de un conjunto de piezas musicales de entrenamiento. Luego utilizó un algoritmo de cambio para modificar los parámetros de entrada de la red. La red fue capaz de generar música nueva de forma aleatoria y sin ningún tipo de control. [24] [25]

En 2014, Ian Goodfellow y sus colegas desarrollaron una nueva clase de sistemas de aprendizaje automático : redes generativas adversarias (GAN). [26] Dos redes neuronales compiten entre sí en un juego (en el sentido de la teoría de juegos , a menudo, pero no siempre, en forma de un juego de suma cero ). Dado un conjunto de entrenamiento, esta técnica aprende a generar nuevos datos con las mismas estadísticas que el conjunto de entrenamiento. Por ejemplo, una GAN entrenada con fotografías puede generar nuevas fotografías que parezcan al menos superficialmente auténticas para los observadores humanos, y que tengan muchas características realistas. Aunque originalmente se propusieron como una forma de modelo generativo para el aprendizaje no supervisado , las GAN también han demostrado ser útiles para el aprendizaje semisupervisado , [27] el aprendizaje totalmente supervisado , [28] y el aprendizaje de refuerzo . [29] En un seminario de 2016, Yann LeCun describió a las GAN como "la idea más genial en el aprendizaje automático de los últimos veinte años". [30]

En 2017, Google presentó los transformers , [31] un nuevo tipo de arquitectura de red neuronal especializada para el modelado del lenguaje que permitió avances rápidos en el procesamiento del lenguaje natural . Los transformers demostraron ser capaces de altos niveles de generalización, lo que permitió que redes como GPT-3 y Jukebox de OpenAI sintetizaran texto y música respectivamente a un nivel cercano a la capacidad humana. [32] [33] Ha habido algunos intentos de usar GPT-3 y GPT-2 para escribir guiones, lo que resultó en narrativas tanto dramáticas (el cortometraje italiano Frammenti di Anime Meccaniche [34] , escrito por GPT-2 ) como cómicas (el cortometraje Solicitors del creador de YouTube Calamity AI escrito por GPT-3). [35]

Ramas de los medios sintéticos

Falsificaciones profundas

Los deepfakes (un acrónimo de " deep learning " y "fake" [36] ) son la forma más destacada de medios sintéticos. [37] [38] Los deepfakes son producciones de medios que utilizan una imagen o un vídeo existente y reemplazan al sujeto con la imagen de otra persona utilizando redes neuronales artificiales . [39] A menudo combinan y superponen medios existentes sobre medios de origen utilizando técnicas de aprendizaje automático conocidas como autocodificadores y redes generativas adversarias (GAN). [40] Los deepfakes han obtenido una amplia atención por sus usos en vídeos pornográficos de celebridades , pornografía de venganza , noticias falsas , engaños y fraude financiero . [41] [42] [43] [44] Esto ha provocado respuestas tanto de la industria como del gobierno para detectar y limitar su uso. [45] [46]

El término deepfakes se originó a fines de 2017 de un usuario de Reddit llamado "deepfakes". [39] Él, así como otros en la comunidad de Reddit r/deepfakes, compartieron deepfakes que crearon; muchos videos involucraban rostros de celebridades intercambiados con los cuerpos de actrices en videos pornográficos, [39] mientras que el contenido no pornográfico incluía muchos videos con el rostro del actor Nicolas Cage intercambiado en varias películas. [47] En diciembre de 2017, Samantha Cole publicó un artículo sobre r/deepfakes en Vice que atrajo la primera atención generalizada sobre los deepfakes que se compartían en las comunidades en línea. [48] Seis semanas después, Cole escribió en un artículo de seguimiento sobre el gran aumento de la pornografía falsa asistida por IA. [39] En febrero de 2018, r/deepfakes fue prohibido por Reddit por compartir pornografía involuntaria. [49] Otros sitios web también han prohibido el uso de deepfakes para pornografía involuntaria, incluida la plataforma de redes sociales Twitter y el sitio de pornografía Pornhub . [50] Sin embargo, algunos sitios web aún no han prohibido el contenido Deepfake, incluidos 4chan y 8chan . [51]

El contenido deepfake no pornográfico sigue creciendo en popularidad con videos de creadores de YouTube como Ctrl Shift Face y Shamook. [52] [53] En marzo de 2020 se lanzó una aplicación móvil, Impressions, para iOS. La aplicación proporciona una plataforma para que los usuarios puedan hacer deepfakes con rostros de celebridades en videos en cuestión de minutos. [54]

Síntesis de imágenes

La síntesis de imágenes es la producción artificial de medios visuales, especialmente a través de medios algorítmicos. En el mundo emergente de los medios sintéticos, el trabajo de creación de imágenes digitales (que antes era dominio de programadores altamente capacitados y artistas de efectos especiales de Hollywood) podría automatizarse mediante sistemas expertos capaces de producir realismo a gran escala. [55] Un subcampo de esto incluye la síntesis de imágenes humanas , que es el uso de redes neuronales para hacer representaciones creíbles e incluso fotorrealistas [56] [57] de semejanzas humanas, en movimiento o estáticas. Ha existido efectivamente desde principios de la década de 2000. Muchas películas que utilizan imágenes generadas por computadora han presentado imágenes sintéticas de personajes similares a humanos compuestas digitalmente sobre el material cinematográfico real u otro material simulado. Hacia fines de la década de 2010, se aplicó la inteligencia artificial de aprendizaje profundo para sintetizar imágenes y videos que parecen humanos, sin necesidad de asistencia humana, una vez que se ha completado la fase de entrenamiento, mientras que la ruta 7D de la vieja escuela requería cantidades masivas de trabajo humano. El sitio web This Person Does Not Exist muestra una síntesis de imágenes humanas totalmente automatizada mediante la generación infinita de imágenes que parecen retratos faciales de rostros humanos. [58]

Síntesis de audio

Más allá de los deepfakes y la síntesis de imágenes, el audio es otra área en la que se utiliza la IA para crear medios sintéticos. [59] El audio sintetizado será capaz de generar cualquier sonido concebible que se pueda lograr mediante la manipulación de la forma de onda del audio, que podría usarse para generar audio de archivo de efectos de sonido o simular audio de cosas actualmente imaginarias. [60]

Arte de IA

Una imagen generada con DALL-E 2 basada en el texto de aviso "Arte de los años 60 de una vaca secuestrada por un ovni en el medio oeste"

El arte de inteligencia artificial es una obra de arte visual creada mediante el uso de un programa de inteligencia artificial (IA). [61]

Los artistas comenzaron a crear arte con inteligencia artificial a mediados y finales del siglo XX, cuando se fundó la disciplina. A lo largo de su historia , el arte con inteligencia artificial ha suscitado muchas preocupaciones filosóficas relacionadas con la mente humana , los seres artificiales y lo que puede considerarse arte en una colaboración entre humanos e IA. Desde el siglo XX, los artistas han utilizado la IA para crear arte, parte del cual se ha exhibido en museos y ha ganado premios. [62]

Durante el auge de la IA de principios de la década de 2020, los modelos de texto a imagen como Midjourney , DALL-E , Stable Diffusion y FLUX.1 se volvieron ampliamente disponibles para el público, lo que permitió a los no artistas generar imágenes rápidamente con poco esfuerzo. [63] [64] Los comentarios sobre el arte de IA en la década de 2020 a menudo se han centrado en cuestiones relacionadas con los derechos de autor , el engaño , la difamación y su impacto en los artistas más tradicionales, incluido el desempleo tecnológico .
Imagen realizada con Stable Diffusion

Hay muchas herramientas disponibles para el artista cuando trabaja con modelos de difusión. Pueden definir indicaciones tanto positivas como negativas, pero también se les ofrece la opción de usar (u omitir el uso de) VAE, LorAs, hiperredes, ipadapter e incrustaciones/inversiones textuales. A veces, hay variables disponibles para realizar ajustes, como CFG, seed, steps, sampler, scheduler, denoise, upscaler y encoder. Se puede ejercer una influencia adicional durante la preinferencia mediante la manipulación del ruido, mientras que las técnicas de posprocesamiento tradicionales se utilizan con frecuencia después de la inferencia. Los artistas también pueden entrenar sus propios modelos.

Además, se han desarrollado sistemas de generación de imágenes "basados ​​en reglas" que utilizan patrones matemáticos, algoritmos que simulan pinceladas y otros efectos de pintura y algoritmos de aprendizaje profundo como las redes generativas antagónicas (GAN) y los transformadores. Varias empresas han lanzado aplicaciones y sitios web que permiten prescindir por completo de todas las opciones mencionadas y centrarse únicamente en el mensaje positivo. También existen programas que transforman fotos en imágenes de tipo artístico al estilo de conjuntos de pinturas bien conocidos. [65] [66]

Existen muchas opciones, desde simples aplicaciones móviles orientadas al consumidor hasta cuadernos Jupyter y webUI que requieren GPU potentes para funcionar de manera efectiva. [67] Las funcionalidades adicionales incluyen la "inversión textual", que se refiere a habilitar el uso de conceptos proporcionados por el usuario (como un objeto o un estilo) aprendidos a partir de algunas imágenes. Luego, se puede generar arte novedoso a partir de las palabras asociadas (el texto que se ha asignado al concepto aprendido, a menudo abstracto) [68] [69] y extensiones de modelo o ajustes finos (como DreamBooth ).

Generación musical

La capacidad de generar música a través de medios autónomos y no programables ha sido buscada desde la Antigüedad y, con los avances en inteligencia artificial, han surgido dos dominios particulares:

  1. La creación robótica de música, ya sea a través de máquinas que tocan instrumentos o clasificando notas de instrumentos virtuales (por ejemplo, a través de archivos MIDI ) [70] [71]
  2. Generar directamente formas de onda que recrean perfectamente la instrumentación y la voz humana sin necesidad de instrumentos, MIDI u organizar notas prefabricadas. [72]

Síntesis de voz

La síntesis de voz se ha identificado como una rama popular de los medios sintéticos [73] y se define como la producción artificial del habla humana . Un sistema informático utilizado para este propósito se denomina computadora de voz o sintetizador de voz , y puede implementarse en productos de software o hardware . Un sistema de texto a voz ( TTS ) convierte el texto del lenguaje normal en voz; otros sistemas convierten representaciones lingüísticas simbólicas como transcripciones fonéticas en voz. [74]

El habla sintetizada se puede crear concatenando fragmentos de habla grabada que se almacenan en una base de datos . Los sistemas difieren en el tamaño de las unidades de habla almacenadas; un sistema que almacena fonos o difonos proporciona el rango de salida más grande, pero puede carecer de claridad. Para dominios de uso específicos, el almacenamiento de palabras u oraciones completas permite una salida de alta calidad. Alternativamente, un sintetizador puede incorporar un modelo del tracto vocal y otras características de la voz humana para crear una salida de voz completamente "sintética". [75]

Los asistentes virtuales como Siri y Alexa tienen la capacidad de convertir texto en audio y sintetizar voz. [76]

En 2016, Google DeepMind presentó WaveNet, un modelo generativo profundo de formas de onda de audio sin procesar que podría aprender a comprender qué formas de onda se asemejan mejor al habla humana y a la instrumentación musical. [77] Algunos proyectos ofrecen generaciones en tiempo real de voz sintética utilizando aprendizaje profundo, como 15.ai , una herramienta de texto a voz de aplicación web desarrollada por un científico investigador del MIT . [78] [79] [80] [81]

Generación de lenguaje natural

La generación de lenguaje natural ( NLG , a veces sinónimo de síntesis de texto ) es un proceso de software que transforma datos estructurados en lenguaje natural. Se puede utilizar para producir contenido de formato largo para que las organizaciones automaticen informes personalizados, así como para producir contenido personalizado para una aplicación web o móvil. También se puede utilizar para generar breves fragmentos de texto en conversaciones interactivas (un chatbot ) que incluso podrían ser leídos por un sistema de texto a voz . El interés en la generación de lenguaje natural aumentó en 2019 después de que OpenAI presentara GPT2, un sistema de IA que genera texto que coincide con su entrada en tema y tono. [82] GPT2 es un transformador, un modelo de aprendizaje automático profundo introducido en 2017 que se utiliza principalmente en el campo del procesamiento del lenguaje natural (NLP). [83]

Síntesis de medios interactivos

Los medios generados por IA se pueden utilizar para desarrollar un sistema de gráficos híbrido que podría usarse en videojuegos, películas y realidad virtual, [84] así como en juegos basados ​​en texto como AI Dungeon 2, que utiliza GPT-2 o GPT-3 para permitir posibilidades casi infinitas que de otro modo serían imposibles de crear a través de los métodos de desarrollo de juegos tradicionales. [85] [86] [87] La ​​empresa de hardware informático Nvidia también ha trabajado en demostraciones de videojuegos generadas por IA, como un modelo que puede generar un juego interactivo basado en videos no interactivos. [88]

Preocupaciones y controversias

Aparte de los ataques organizativos, las organizaciones y los líderes políticos son los más afectados por este tipo de vídeos deep fake. En 2022, se publicó un deep fake en el que el presidente de Ucrania pedía la rendición en la lucha contra Rusia. El vídeo muestra al presidente ucraniano diciéndoles a sus soldados que depongan las armas y se rindan. [89]

Los deepfakes se han utilizado para tergiversar la imagen de políticos conocidos en vídeos. En otros vídeos, el rostro del presidente argentino Mauricio Macri ha sido reemplazado por el de Adolf Hitler , y el rostro de Angela Merkel ha sido reemplazado por el de Donald Trump . [90] [91]

En junio de 2019, se lanzó una aplicación descargable para Windows y Linux llamada DeepNude que usaba redes neuronales, específicamente redes generativas antagónicas , para eliminar la ropa de las imágenes de mujeres. La aplicación tenía una versión paga y otra gratuita; la versión paga costaba 50 dólares. [92] [93] El 27 de junio, los creadores eliminaron la aplicación y reembolsaron el dinero a los consumidores. [94]

El Congreso de Estados Unidos celebró una reunión del Senado para discutir los impactos generalizados de los medios sintéticos, incluidos los deepfakes, y los describió como poseedores del "potencial de ser utilizados para socavar la seguridad nacional, erosionar la confianza pública en nuestra democracia y otras razones nefastas". [95]

En 2019, se utilizó tecnología de clonación de voz para suplantar con éxito la voz de un director ejecutivo y exigir una transferencia fraudulenta de 220.000 euros. [96] El caso planteó inquietudes sobre la falta de métodos de cifrado en los teléfonos, así como sobre la confianza incondicional que a menudo se da a la voz y a los medios de comunicación en general. [97]

A partir de noviembre de 2019, varias redes sociales comenzaron a prohibir los medios sintéticos utilizados con fines de manipulación en el período previo a las elecciones presidenciales de Estados Unidos de 2020. [ 98]

En 2024, Elon Musk compartió una parodia sin aclarar que se trata de una sátira, pero alzó la voz contra la IA en la política. [99] El video compartido donde Kamala Harris apareció y dijo cosas que nunca dijo en la vida real. Unas líneas de la transcripción del video, "Yo, Kamala Harris, soy su candidata demócrata a la presidencia porque Joe Biden finalmente expuso su senilidad en el debate", la voz dice entonces, Kamla es una "contratación de diversidad" y dice que ahora tiene idea de lo que "es lo primero que hay que hacer para dirigir el país". [100]

Estos son algunos ejemplos entre miles de estas falsificaciones profundas utilizadas para atacar a celebridades, partidos políticos u organizaciones, empresas o multinacionales. El potencial para dañar la imagen de tales personas es irresistible. Erosionará la confianza en las instituciones públicas y privadas, y será más difícil mantener la confianza. [101] Citron (2019) enumera a los funcionarios públicos que se verán más afectados: “funcionarios electos, funcionarios designados, jueces, jurados, legisladores, empleados y agencias”. Incluso las instituciones privadas también están al borde de enfrentar esta crisis, si tienen un impacto en la sociedad a gran escala. [102] Citron (2019) afirma además que “las instituciones religiosas son un objetivo obvio, al igual que las entidades políticamente comprometidas que van desde Planned Parenthood hasta la NRA. [103] ” El autor anticipa que las falsificaciones profundas profundizarán y extenderán la jerarquía social o las diferencias de clase que les dieron origen en primer lugar. [104] La principal preocupación en torno a las falsificaciones profundas es que no se trata solo de demostrar que algo es incorrecto, sino también de demostrar que algo es original. [105] Un estudio reciente muestra que dos de cada tres profesionales de la seguridad cibernética notaron que las falsificaciones profundas se utilizaron como parte de la desinformación contra las empresas en 2022, lo que aparentemente representa un aumento del 13% en número con respecto al año anterior. [106]

Usos potenciales e impactos

Las técnicas de medios sintéticos implican generar, manipular y alterar datos para emular procesos creativos en una escala mucho más rápida y precisa. [107] Como resultado, los usos potenciales son tan amplios como la creatividad humana misma, desde revolucionar la industria del entretenimiento hasta acelerar la investigación y producción académica. La aplicación inicial ha sido sincronizar los movimientos de los labios para aumentar la participación del doblaje normal [108] que está creciendo rápidamente con el auge de los OTT . [109] Las organizaciones de noticias han explorado formas de utilizar la síntesis de video y otras tecnologías de medios sintéticos para volverse más eficientes y atractivas. [110] [111] Los posibles peligros futuros incluyen el uso de una combinación de diferentes subcampos para generar noticias falsas , [112] enjambres de bots de lenguaje natural que generan tendencias y memes , la generación de evidencia falsa y la posible adicción a contenido personalizado y un retiro a mundos de fantasía generados por IA dentro de la realidad virtual. [13]

Los robots avanzados de generación de texto podrían usarse potencialmente para manipular las plataformas de redes sociales a través de tácticas como el astroturfing . [113] [114]

Los generadores de lenguaje natural basados ​​en aprendizaje de refuerzo profundo podrían usarse potencialmente para crear chatbots avanzados que pudieran imitar el habla humana natural. [115]

Un caso de uso para la generación de lenguaje natural es generar o ayudar a escribir novelas y cuentos cortos, [116] mientras que otros desarrollos potenciales son los de editores estilísticos para emular a escritores profesionales. [117]

Las herramientas de síntesis de imágenes pueden ser capaces de optimizar o incluso automatizar por completo la creación de ciertos aspectos de las ilustraciones visuales, como dibujos animados , cómics y caricaturas políticas . [118] Debido a que el proceso de automatización elimina la necesidad de equipos de diseñadores, artistas y otras personas involucradas en la creación de entretenimiento, los costos podrían caer a prácticamente nada y permitir la creación de "franquicias multimedia de dormitorio" donde personas individuales pueden generar resultados indistinguibles de las producciones de mayor presupuesto por poco más que el costo de funcionamiento de su computadora. [119] Las herramientas de creación de personajes y escenas ya no se basarán en activos prefabricados, limitaciones temáticas o habilidades personales, sino que se basarán en ajustar ciertos parámetros y brindar suficiente información. [120]

Se ha utilizado una combinación de síntesis de voz y deepfakes para redoblar automáticamente el discurso de un actor a varios idiomas sin necesidad de volver a filmar o tomar clases de idiomas. [119] Las empresas también pueden utilizarlo para la incorporación de empleados, el aprendizaje electrónico y los videos explicativos y de procedimientos. [121]

También se ha temido un aumento de los ciberataques debido a que los métodos de phishing , catfishing y piratería social se automatizan más fácilmente mediante nuevos métodos tecnológicos. [97]

Los robots de generación de lenguaje natural combinados con redes de síntesis de imágenes podrían, en teoría, usarse para saturar los resultados de búsqueda, llenando los motores de búsqueda con billones de blogs, sitios web y spam de marketing que de otro modo serían inútiles pero que parecen legítimos. [122]

Se ha especulado sobre el uso de deepfakes para crear actores digitales para futuras películas. Los humanos construidos/alterados digitalmente ya se han utilizado en películas antes, y los deepfakes podrían aportar nuevos desarrollos en el futuro cercano. [123] La tecnología amateur de deepfakes ya se ha utilizado para insertar rostros en películas existentes, como la inserción del rostro joven de Harrison Ford en el rostro de Han Solo en Solo: A Star Wars Story , [124] y se utilizaron técnicas similares a las utilizadas por los deepfakes para la actuación de la Princesa Leia en Rogue One . [125]

Las GAN se pueden utilizar para crear fotografías de modelos de moda imaginarias, sin necesidad de contratar a un modelo, fotógrafo, maquillador o pagar un estudio y transporte. [126] Las GAN se pueden utilizar para crear campañas publicitarias de moda que incluyan grupos más diversos de modelos, lo que puede aumentar la intención de compra entre personas que se parecen a las modelos [127] o miembros de la familia. [128] Las GAN también se pueden utilizar para crear retratos, paisajes y portadas de álbumes. La capacidad de las GAN para generar cuerpos humanos fotorrealistas presenta un desafío para industrias como el modelaje de moda , que puede correr un mayor riesgo de ser automatizada. [129] [130]

En 2019, Dadabots presentó una transmisión de death metal generada por IA que continúa sin pausas. [131]

También es posible generar desde cero artistas musicales y sus respectivas marcas, lo que incluye música, videos, entrevistas y material promocional generados por IA. Por el contrario, la música existente se puede alterar por completo a voluntad, como cambiar letras, cantantes, instrumentación y composición. [132] En 2018, utilizando un proceso de WaveNet para la transferencia de timbres musicales, los investigadores pudieron cambiar géneros completos de uno a otro. [133] Mediante el uso de inteligencia artificial, se pueden "revivir" bandas y artistas antiguos para lanzar material nuevo sin pausa, que incluso puede incluir conciertos "en vivo" e imágenes promocionales.

La manipulación de fotografías impulsada por redes neuronales tiene el potencial de incitar a los regímenes totalitarios y absolutistas a actuar . [134] Un gobierno o comunidad totalitarios lo suficientemente paranoicos pueden llevar a cabo una eliminación total de la historia utilizando todo tipo de tecnologías sintéticas, inventando la historia y las personalidades, así como cualquier prueba de su existencia en todo momento. Incluso en sociedades por lo demás racionales y democráticas, ciertos grupos sociales y políticos pueden utilizar la tecnología sintética para crear crisálidas culturales, políticas y científicas que reduzcan en gran medida o incluso destruyan por completo la capacidad del público para ponerse de acuerdo sobre hechos objetivos básicos. Por el contrario, la existencia de medios sintéticos se utilizará para desacreditar las fuentes de noticias factuales y los hechos científicos como "potencialmente inventados". [55]

Véase también

Referencias

  1. ^ Goodstein, Anastasia. "¿Reemplazará la IA la creatividad humana?". Adlibbing.org . Consultado el 30 de enero de 2020 .
  2. ^ Waddell, Kaveh (14 de septiembre de 2019). «Bienvenidos a nuestras nuevas realidades sintéticas». Axios.com . Archivado desde el original el 27 de octubre de 2021. Consultado el 30 de enero de 2020 .
  3. ^ "Por qué ahora es el momento de ser un creador en medios generativos". Product Hunt . 29 de octubre de 2019. Archivado desde el original el 15 de febrero de 2020 . Consultado el 15 de febrero de 2020 .
  4. ^ Ignatidou, Sophia. «Personalización impulsada por IA en los medios digitales: implicaciones políticas y sociales» (PDF) . Chatham House . Departamento de Seguridad Internacional. Archivado (PDF) del original el 11 de diciembre de 2019. Consultado el 30 de enero de 2020 .
  5. ^ Dirik, Iskender (12 de agosto de 2020). «Por qué es hora de cambiar la conversación sobre los medios sintéticos». Venture Beat . Archivado desde el original el 1 de octubre de 2020. Consultado el 4 de octubre de 2020 .
  6. ^ Vales, Aldana (14 de octubre de 2019). «Una introducción a los medios sintéticos y al periodismo». Medium . Wall Street Journal. Archivado desde el original el 30 de enero de 2020. Consultado el 30 de enero de 2020 .
  7. ^ Rosenbaum, Steven. "¿Qué son los medios sintéticos?". MediaPost . Archivado desde el original el 30 de enero de 2020. Consultado el 30 de enero de 2020 .
  8. ^ ab "Guía de medios sintéticos para 2020". Blog de Paperspace . 17 de enero de 2020. Archivado desde el original el 30 de enero de 2020. Consultado el 30 de enero de 2020 .
  9. ^ Ovadya, Aviv (14 de junio de 2019). «Mitos sobre los deepfake: conceptos erróneos comunes sobre los medios sintéticos». Asegurar la democracia . Archivado desde el original el 30 de enero de 2020. Consultado el 30 de enero de 2020 .
  10. ^ Pangburn, DJ (21 de septiembre de 2019). "Te lo advertimos: las falsificaciones de cuerpo completo son el siguiente paso en la imitación humana basada en IA". Fast Company . Archivado desde el original el 8 de noviembre de 2019. Consultado el 30 de enero de 2020 .
  11. ^ abc Vales, Aldana (14 de octubre de 2019). «Introducción a los medios sintéticos y al periodismo». Medium . Archivado desde el original el 30 de enero de 2020. Consultado el 30 de enero de 2020 .
  12. ^ "El porno falso asistido por IA ya está aquí y estamos todos jodidos". motherboard.vice.com . 11 de diciembre de 2017. Archivado desde el original el 7 de septiembre de 2019 . Consultado el 17 de octubre de 2021 .
  13. ^ ab Pasquarelli, Walter (6 de agosto de 2019). «Hacia la realidad sintética: cuando los deepfakes se encuentran con la realidad aumentada y la realidad virtual». Oxford Insights . Archivado desde el original el 30 de enero de 2020. Consultado el 30 de enero de 2020 .
  14. ^ Noel Sharkey (4 de julio de 2007), Un robot programable del año 60 d. C., vol. 2611, New Scientist, archivado desde el original el 13 de enero de 2018 , consultado el 22 de octubre de 2019
  15. ^ Brett, Gerard (julio de 1954), "Los autómatas en el "Trono de Salomón" bizantino"", Speculum , 29 (3): 477–487, doi :10.2307/2846790, ISSN  0038-7134, JSTOR  2846790, S2CID  163031682.
  16. ^ Waddesdon Manor (22 de julio de 2015). «Un elefante maravilloso: Waddesdon Manor». Archivado desde el original el 31 de mayo de 2019. Consultado el 22 de octubre de 2019 en YouTube.
  17. ^ Kolesnikov-Jessop, Sonia (25 de noviembre de 2011). "Los chinos se dejaron llevar por la manía mecánica". The New York Times . Archivado desde el original el 6 de mayo de 2014. Consultado el 25 de noviembre de 2011. Las curiosidades mecánicas estaban de moda en China durante los siglos XVIII y XIX, cuando los emperadores Qing desarrollaron una pasión por los relojes autómatas y los relojes de bolsillo, y los "mercaderes de Sing Song", como se llamaba a los relojeros europeos, estaban más que felices de alentar ese interés.
  18. ^ Koetsier, Teun (2001). "Sobre la prehistoria de las máquinas programables: autómatas musicales, telares, calculadoras". Mecanismo y teoría de máquinas . 36 (5). Elsevier: 589–603. doi :10.1016/S0094-114X(01)00005-2.
  19. ^ Nierhaus, Gerhard (2009). Composición algorítmica: paradigmas de generación automatizada de música , págs. 36 y 38n7. ISBN 978-3-211-75539-6
  20. ^ Conferencia de Dartmouth :
    • McCorduck, Pamela (2004), Máquinas que piensan (2.ª ed.), Natick, MA: AK Peters, Ltd., págs. 111–136, ISBN 978-1-56881-205-2, OCLC  52197627
    • Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence [IA: La tumultuosa búsqueda de la inteligencia artificial] . Nueva York, NY: BasicBooks. ISBN 0-465-02997-3.pp. 47–49, quien escribe que "la conferencia es generalmente reconocida como la fecha de nacimiento oficial de la nueva ciencia".
    • Russell, Stuart J. ; Norvig, Peter (2003), Inteligencia artificial: un enfoque moderno (2.ª ed.), Upper Saddle River, Nueva Jersey: Prentice Hall, ISBN 0-13-790395-2p. 17, quienes llaman a la conferencia "el nacimiento de la inteligencia artificial".
    • NRC (1999), "Desarrollos en inteligencia artificial", Financiando una revolución: apoyo gubernamental a la investigación informática , National Academy Press, págs. 200-201, ISBN 978-0-309-06278-7, OCLC  246584055
  21. ^ Denis L. Baggi, "El papel de la tecnología informática en la música y la musicología Archivado el 22 de julio de 2011 en Wayback Machine ", lim.dico.unimi.it (9 de diciembre de 1998).
  22. ^ Zaripov, R.Kh. (1960). "Об алгоритмическом описании процесса сочинения музыки (Sobre la descripción algorítmica del proceso de composición musical)". Actas de la Academia de Ciencias de la URSS . 132 (6).
  23. ^ "Acerca de Ray Kurzweil". Archivado desde el original el 4 de abril de 2011. Consultado el 25 de noviembre de 2019 .
  24. ^ Bharucha, JJ; Todd, PM (1989). "Modelado de la percepción de la estructura tonal con redes neuronales". Computer Music Journal . 13 (4): 44–53. doi :10.2307/3679552. JSTOR  3679552.
  25. ^ Todd, PM, y Loy, DG (Eds.) (1991). Música y conexionismo. Cambridge, MA: MIT Press.
  26. ^ Goodfellow, Ian; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). Generative Adversarial Networks (PDF) . Actas de la Conferencia Internacional sobre Sistemas de Procesamiento de Información Neural (NIPS 2014). págs. 2672–2680. Archivado (PDF) desde el original el 22 de noviembre de 2019 . Consultado el 25 de noviembre de 2019 .
  27. ^ Salimans, Tim; Goodfellow, Ian; Zaremba, Wojciech; Cheung, Vicki; Radford, Alec; Chen, Xi (2016). "Técnicas mejoradas para el entrenamiento de GAN". arXiv : 1606.03498 [cs.LG].
  28. ^ Isola, Phillip; Zhu, Jun-Yan; Zhou, Tinghui; Efros, Alexei (2017). "Traducción de imagen a imagen con redes adversarias condicionales". Visión artificial y reconocimiento de patrones . Archivado desde el original el 14 de abril de 2020. Consultado el 25 de noviembre de 2019 .
  29. ^ Ho, Jonathon; Ermon, Stefano (2016). "Generative Adversarial Imitation Learning". Advances in Neural Information Processing Systems : 4565–4573. arXiv : 1606.03476 . Código Bibliográfico :2016arXiv160603476H. Archivado desde el original el 19 de octubre de 2019 . Consultado el 25 de noviembre de 2019 .
  30. ^ LeCun, Yann (18 de noviembre de 2016). «Seminario de RL: la próxima frontera en IA: aprendizaje no supervisado». YouTube . Archivado desde el original el 30 de abril de 2020. Consultado el 25 de noviembre de 2019 .
  31. ^ Uszkoreit, Jakob (31 de agosto de 2017). «Transformer: una nueva arquitectura de red neuronal para la comprensión del lenguaje». Blog de Google AI . Archivado desde el original el 27 de octubre de 2021. Consultado el 21 de junio de 2020 .
  32. ^ Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav; Sastry, Girish; Askell, Amanda; Agarwal, Sandhini; Herbert-Voss, Ariel; Krueger, Gretchen; Henighan, Tom; Child, Rewon; Ramesh, Aditya; Ziegler, Daniel M.; Wu, Jeffrey; Winter, Clemens; Hesse, Christopher; Chen, Mark; Sigler, Eric; Litwin, Mateusz; Gray, Scott; Chess, Benjamin; Clark, Jack; Berner, Christopher; McCandlish, Sam; Radford, Alec; et al. (2020). "Los modelos de lenguaje son aprendices de pocas oportunidades". arXiv : 2005.14165 [cs.CL].
  33. ^ Dhariwal, Prafulla; Jun, Heewoo; Payne, Christine; Jong Wook Kim; Radford, Alec; Sutskever, Ilya (2020). "Jukebox: un modelo generativo para la música". arXiv : 2005.00341 [eess.AS].
  34. ^ "Frammenti di anime meccaniche, il primo corto italiano scritto da un'AI". Sentieri Selvaggi . Consultado el 8 de enero de 2022 .
  35. ^ "Calamity AI". Eli Weiss . Consultado el 8 de enero de 2022 .
  36. ^ Brandon, John (16 de febrero de 2018). "Aterradora pornografía de alta tecnología: los espeluznantes videos 'deepfake' están en aumento". Fox News . Archivado desde el original el 15 de junio de 2018. Consultado el 20 de febrero de 2018 .
  37. ^ Gregory, Samuel (23 de noviembre de 2018). "¿Has oído hablar de los deepfakes? No te asustes. Prepárate". Foro WE . Foro Económico Mundial. Archivado desde el original el 12 de enero de 2020. Consultado el 30 de enero de 2020 .
  38. ^ Barrabi, Thomas (21 de octubre de 2019). «Twitter está desarrollando una política de 'medios sintéticos' para combatir los deepfakes y otras publicaciones dañinas». Fox Business . Fox News. Archivado desde el original el 2 de diciembre de 2019 . Consultado el 30 de enero de 2020 .
  39. ^ abcd Cole, Samantha (24 de enero de 2018). "Estamos realmente jodidos: ahora todo el mundo está haciendo pornografía falsa generada por inteligencia artificial". Vice . Archivado desde el original el 7 de septiembre de 2019. Consultado el 4 de mayo de 2019 .
  40. ^ Schwartz, Oscar (12 de noviembre de 2018). "¿Pensabas que las noticias falsas eran malas? Las deepfakes son el lugar donde la verdad muere". The Guardian . Archivado desde el original el 16 de junio de 2019. Consultado el 14 de noviembre de 2018 .
  41. ^ "Qué son los deepfakes y por qué el futuro del porno es aterrador". Highsnobiety . 20 de febrero de 2018. Archivado desde el original el 14 de julio de 2021 . Consultado el 20 de febrero de 2018 .
  42. ^ "Los expertos temen que la tecnología de intercambio de rostros pueda desencadenar un enfrentamiento internacional". The Outline . Archivado desde el original el 16 de enero de 2020. Consultado el 28 de febrero de 2018 .
  43. ^ Roose, Kevin (4 de marzo de 2018). «Here Come the Fake Videos, Too» (Aquí también llegan los vídeos falsos). The New York Times . ISSN  0362-4331. Archivado desde el original el 18 de junio de 2019. Consultado el 24 de marzo de 2018 .
  44. ^ Schreyer, Marco; Sattarov, Timur; Reimer, Bernd; Borth, Damian (2019). "Aprendizaje adversarial de deepfakes en contabilidad". arXiv : 1910.03810 [cs.LG].
  45. ^ "Únete al desafío de detección de deepfake (DFDC)". deepfakedetectionchallenge.ai . Archivado desde el original el 12 de enero de 2020 . Consultado el 8 de noviembre de 2019 .
  46. ^ Clarke, Yvette D. (28 de junio de 2019). "HR3230 - 116.º Congreso (2019-2020): Defendiendo a cada persona de las apariencias falsas al mantener la explotación sujeta a la Ley de rendición de cuentas de 2019". www.congress.gov . Archivado desde el original el 17 de diciembre de 2019 . Consultado el 16 de octubre de 2019 .
  47. ^ Haysom, Sam (31 de enero de 2018). "La gente está usando tecnología de intercambio de rostros para agregar a Nicolas Cage a películas aleatorias y qué es 2018". Mashable . Archivado desde el original el 24 de julio de 2019 . Consultado el 4 de abril de 2019 .
  48. ^ Cole, Samantha (11 de diciembre de 2017). "La pornografía falsa asistida por IA ya está aquí y estamos todos jodidos". Vice . Archivado desde el original el 7 de septiembre de 2019. Consultado el 19 de diciembre de 2018 .
  49. ^ Kharpal, Arjun (8 de febrero de 2018). «Reddit y Pornhub prohíben los vídeos que utilizan inteligencia artificial para superponer la cara de una persona sobre la de un actor pornográfico». CNBC . Archivado desde el original el 10 de abril de 2019. Consultado el 20 de febrero de 2018 .
  50. ^ Cole, Samantha (6 de febrero de 2018). «Twitter es la última plataforma en prohibir la pornografía generada por inteligencia artificial». Vice . Archivado desde el original el 1 de noviembre de 2019. Consultado el 8 de noviembre de 2019 .
  51. ^ Hathaway, Jay (8 de febrero de 2018). "Aquí es donde se han convertido los 'deepfakes', la nueva pornografía falsa de celebridades, tras la prohibición de Reddit". The Daily Dot . Archivado desde el original el 6 de julio de 2019. Consultado el 22 de diciembre de 2018 .
  52. ^ Walsh, Michael (19 de agosto de 2019). «La tecnología deepfake convierte a Bill Hader en Tom Cruise». Nerdist . Archivado desde el original el 2 de junio de 2020. Consultado el 1 de junio de 2020 .
  53. ^ Moser, Andy (5 de septiembre de 2019). «Will Smith ocupa el lugar de Keanu en 'The Matrix' en un nuevo deepfake». Mashable . Archivado desde el original el 4 de agosto de 2020 . Consultado el 1 de junio de 2020 .
  54. ^ Thalen, Mikael. "Ahora puedes hacerte pasar por una celebridad con solo unos clics". daily dot . Archivado desde el original el 6 de abril de 2020 . Consultado el 3 de abril de 2020 .
  55. ^ ab Rothman, Joshua (5 de noviembre de 2018). "En la era de la IA, ¿ver es creer?". New Yorker . Archivado desde el original el 10 de enero de 2020. Consultado el 30 de enero de 2020 .
  56. ^ Modelo muscular basado en la física para el control de la forma de la boca Archivado el 27 de agosto de 2019 en Wayback Machine en IEEE Explore (requiere membresía)
  57. ^ Animación facial 3D realista en una teleconferencia virtual Archivado el 27 de agosto de 2019 en Wayback Machine en IEEE Explore (requiere membresía)
  58. ^ Horev, Rani (26 de diciembre de 2018). «GAN basadas en estilos: generación y ajuste de rostros artificiales realistas». Lyrn.AI. Archivado desde el original el 5 de noviembre de 2020. Consultado el 16 de febrero de 2019 .
  59. ^ Ovadya, Aviv; Whittlestone, Jess. "Reducción del uso malintencionado de la investigación en medios sintéticos: consideraciones y posibles prácticas de publicación para el aprendizaje automático". researchgate.net . Archivado desde el original el 27 de octubre de 2021 . Consultado el 30 de enero de 2020 .
  60. ^ "Síntesis de audio ultrarrápida con MelGAN". Descript.com . Archivado desde el original el 30 de enero de 2020. Consultado el 30 de enero de 2020 .
  61. ^ Epstein, Ziv; Hertzmann, Aaron; Akten, Memo; et al. (2023). "Arte y ciencia de la IA generativa". Science . 380 (6650): 1110–1111. arXiv : 2306.04141 . Bibcode :2023Sci...380.1110E. doi :10.1126/science.adh4451. PMID  37319193. S2CID  259095707.
  62. ^ Todorovic, Milos (2024). «IA y patrimonio: un debate sobre cómo repensar el patrimonio en un mundo digital». Revista internacional de estudios culturales y sociales . 10 (1): 1–11. doi :10.46442/intjcss.1397403 . Consultado el 4 de julio de 2024 .
  63. ^ Vincent, James (24 de mayo de 2022). «Todas estas imágenes se generaron con la última inteligencia artificial de conversión de texto a imagen de Google». The Verge . Vox Media . Consultado el 28 de mayo de 2022 .
  64. ^ Edwards, Benj (2 de agosto de 2024). «FLUX: Este nuevo generador de imágenes de IA es inquietantemente bueno para crear manos humanas». Ars Technica . Consultado el 17 de noviembre de 2024 .
  65. ^ "Los filtros fotográficos con IA utilizan redes neuronales para que las fotos parezcan de Picasso". Tendencias digitales . 18 de noviembre de 2019 . Consultado el 9 de noviembre de 2022 .
  66. ^ Biersdorfer, JD (4 de diciembre de 2019). "Del carrete de la cámara al lienzo: crea arte con tus fotos". The New York Times . Consultado el 9 de noviembre de 2022 .
  67. ^ Psychotic, Pharma. «Herramientas y recursos para el arte de la IA». Archivado desde el original el 4 de junio de 2022. Consultado el 26 de junio de 2022 .
  68. ^ Gal, Rinon; Alaluf, Yuval; Atzmon, Yuval; Patashnik, Or; Bermano, Amit H.; Chechik, Gal; Cohen-Or, Daniel (2 de agosto de 2022). "Una imagen vale una palabra: personalización de la generación de texto a imagen mediante inversión textual". arXiv : 2208.01618 [cs.CV].
  69. ^ "Textual Inversion · AUTOMATIC1111/stable-diffusion-webui Wiki". GitHub . Consultado el 9 de noviembre de 2022 .
  70. ^ "Combinación de modelos de música de audio crudo y simbólico profundo". people.bu.edu . Archivado desde el original el 15 de febrero de 2020 . Consultado el 1 de febrero de 2020 .
  71. ^ Linde, Helmut; Schweizer, Immanuel (5 de julio de 2019). «Un libro blanco sobre el futuro de la inteligencia artificial». Archivado desde el original el 27 de octubre de 2021. Consultado el 1 de febrero de 2020 – vía ResearchGate.
  72. ^ Engel, Jesse; Agrawal, Kumar Krishna; Chen, Shuo; Gulrajani, Ishaan; Donahue, Chris; Roberts, Adam (27 de septiembre de 2018). «GANSynth: Adversarial Neural Audio Synthesis». Archivado desde el original el 14 de febrero de 2020. Consultado el 1 de febrero de 2020 en openreview.net.
  73. ^ Kambhampati, Subbarao (17 de noviembre de 2019). "La percepción no será realidad una vez que la IA pueda manipular lo que vemos". TheHill . Archivado desde el original el 30 de enero de 2020 . Consultado el 30 de enero de 2020 .
  74. ^ Allen, Jonathan; Hunnicutt, M. Sharon; Klatt, Dennis (1987). Del texto al habla: el sistema MITalk . Cambridge University Press. ISBN 978-0-521-30641-6.
  75. ^ Rubin, P.; Baer, ​​T.; Mermelstein, P. (1981). "Un sintetizador articulatorio para la investigación perceptual". Revista de la Sociedad Acústica de América . 70 (2): 321–328. Bibcode :1981ASAJ...70..321R. doi :10.1121/1.386780.
  76. ^ Oyedeji, Miracle (14 de octubre de 2019). «Guía para principiantes sobre medios sintéticos y sus efectos en el periodismo». Estado de la publicación digital . Archivado desde el original el 1 de febrero de 2020. Consultado el 1 de febrero de 2020 .
  77. ^ "WaveNet: un modelo generativo para audio sin procesar". 8 de septiembre de 2016. Archivado desde el original el 27 de octubre de 2021. Consultado el 25 de noviembre de 2019 .
  78. ^ Zwiezen, Zack (18 de enero de 2021). «Sitio web que te permite hacer que GLaDOS diga lo que quieras». Kotaku . Archivado desde el original el 17 de enero de 2021 . Consultado el 18 de enero de 2021 .
  79. ^ Ruppert, Liana (18 de enero de 2021). "Haz que GLaDOS de Portal y otros personajes queridos digan las cosas más raras con esta aplicación". Game Informer . Archivado desde el original el 18 de enero de 2021 . Consultado el 18 de enero de 2021 .
  80. ^ Clayton, Natalie (19 de enero de 2021). «Haz que el elenco de TF2 recite viejos memes con esta herramienta de texto a voz con inteligencia artificial». PC Gamer . Archivado desde el original el 19 de enero de 2021. Consultado el 19 de enero de 2021 .
  81. ^ Morton, Lauren (18 de enero de 2021). "Pon palabras en boca de los personajes del juego con esta fascinante herramienta de texto a voz". Piedra, papel, escopeta . Archivado desde el original el 18 de enero de 2021. Consultado el 18 de enero de 2021 .
  82. ^ Clark, Jack; Brundage, Miles; Solaiman, Irene (20 de agosto de 2019). «GPT-2: seguimiento de 6 meses». OpenAI . Archivado desde el original el 18 de febrero de 2020 . Consultado el 1 de febrero de 2020 .
  83. ^ Polosukhin, Illia; Káiser, Lukasz; Gómez, Aidán N.; Jones, León; Uszkoreit, Jakob; Parmar, Niki; Shazeer, Noam; Vaswani, Ashish (12 de junio de 2017). "Todo lo que necesita es atención". arXiv : 1706.03762 [cs.CL].
  84. ^ Vincent, James (3 de diciembre de 2018). «Nvidia ha creado la primera demo de videojuego con gráficos generados por IA». The Verge . Archivado desde el original el 25 de enero de 2020. Consultado el 2 de febrero de 2020 .
  85. ^ Simonite, Tom. "Comenzó como un juego de mazmorras impulsado por IA. Se volvió mucho más oscuro". Wired .
  86. ^ "AI Dungeon de Latitude Games estaba cambiando la cara del contenido generado por IA". 22 de junio de 2021.
  87. ^ "En AI Dungeon 2 puedes hacer cualquier cosa, incluso crear una banda de rock formada por esqueletos". 7 de diciembre de 2019.
  88. ^ Oberhaus, Daniel (3 de diciembre de 2018). «La IA puede generar mundos virtuales interactivos basados ​​en vídeos sencillos». Archivado desde el original el 21 de mayo de 2020. Consultado el 2 de febrero de 2020 .
  89. ^ Allyn, Bobby (16 de marzo de 2022). "El video deepfake de Zelenskyy podría ser 'la punta del iceberg' en una guerra de información, advierten los expertos". NPR .
  90. ^ "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 3 de febrero de 2018. Archivado desde el original el 13 de abril de 2019 . Consultado el 25 de noviembre de 2019 .
  91. ^ Patricio Gensing. "Deepfakes: ¿Auf dem Weg in eine alternativa Realität?". Archivado desde el original el 11 de octubre de 2018 . Consultado el 25 de noviembre de 2019 .
  92. ^ Cole, Samantha; Maiberg, Emanuel; Koebler, Jason (26 de junio de 2019). «Esta horrible aplicación desnuda la foto de cualquier mujer con un solo clic». Vice . Archivado desde el original el 2 de julio de 2019. Consultado el 2 de julio de 2019 .
  93. ^ Cox, Joseph (9 de julio de 2019). «GitHub eliminó versiones de código abierto de DeepNude». Vice Media . Archivado desde el original el 24 de septiembre de 2020. Consultado el 25 de noviembre de 2019 .
  94. ^ "Cierran aplicación que permite eliminar ropa de mujer de imágenes". BBC News . 28 de junio de 2019.
  95. ^ "Ley de informes de deepfake de 2019". Congress.gov . Archivado desde el original el 30 de enero de 2020. Consultado el 30 de enero de 2020 .
  96. ^ Stupp, Catherine (30 de agosto de 2019). "Los estafadores utilizaron inteligencia artificial para imitar la voz del director ejecutivo en un caso inusual de ciberdelito". Wall Street Journal . Archivado desde el original el 20 de noviembre de 2019. Consultado el 26 de noviembre de 2019 .
  97. ^ ab Janofsky, Adam (13 de noviembre de 2018). «La IA podría hacer que los ciberataques sean más peligrosos y difíciles de detectar». Wall Street Journal . Archivado desde el original el 25 de noviembre de 2019. Consultado el 26 de noviembre de 2019 .
  98. ^ Newton, Casey (8 de enero de 2020). «La prohibición de los deepfakes en Facebook tiene algunas soluciones obvias». The Verge . Archivado desde el original el 30 de enero de 2020. Consultado el 30 de enero de 2020 .
  99. ^ "Un anuncio de parodia compartido por Elon Musk clona la voz de Kamala Harris, lo que genera inquietudes sobre la inteligencia artificial en la política". AP News . 28 de julio de 2024 . Consultado el 22 de octubre de 2024 .
  100. ^ "Un anuncio de parodia compartido por Elon Musk clona la voz de Kamala Harris, lo que genera inquietudes sobre la inteligencia artificial en la política". AP News . 28 de julio de 2024 . Consultado el 22 de octubre de 2024 .
  101. ^ Chesney, Bobby; Citron, Danielle (2019). "Deep Fakes: Un desafío inminente para la privacidad, la democracia y la seguridad nacional". California Law Review . 107 (6): 1753–1820. ISSN  0008-1221.
  102. ^ Chesney, Bobby; Citron, Danielle (2019). "Deep Fakes: Un desafío inminente para la privacidad, la democracia y la seguridad nacional". California Law Review . 107 (6): 1753–1820. ISSN  0008-1221.
  103. ^ Chesney, Bobby; Citron, Danielle (2019). "Deep Fakes: Un desafío inminente para la privacidad, la democracia y la seguridad nacional". California Law Review . 107 (6): 1753–1820. ISSN  0008-1221.
  104. ^ Chesney, Bobby; Citron, Danielle (2019). "Deep Fakes: Un desafío inminente para la privacidad, la democracia y la seguridad nacional". California Law Review . 107 (6): 1753–1820. ISSN  0008-1221.
  105. ^ "Deepfakes: qué son y cómo su empresa corre riesgo". Bank of America . Consultado el 22 de octubre de 2024 .
  106. ^ "Deepfakes: qué son y cómo su empresa corre riesgo". Bank of America . Consultado el 22 de octubre de 2024 .
  107. ^ "Guía de medios sintéticos 2020". Blog de Paperspace . 17 de enero de 2020. Archivado desde el original el 30 de enero de 2020. Consultado el 30 de enero de 2020 .
  108. ^ "El doblaje llega a una pantalla chica cerca de ti". The Economist . ISSN  0013-0613. Archivado desde el original el 12 de febrero de 2020. Consultado el 13 de febrero de 2020 .
  109. ^ "El alcance global de Netflix desencadena una revolución en el doblaje: "El público lo exige"". The Hollywood Reporter . 13 de agosto de 2019. Archivado desde el original el 4 de abril de 2020 . Consultado el 13 de febrero de 2020 .
  110. ^ "Reuters y Synthesia presentan un prototipo de inteligencia artificial para informes de vídeo automatizados". Reuters . 7 de febrero de 2020. Archivado desde el original el 13 de febrero de 2020 . Consultado el 13 de febrero de 2020 .
  111. ^ "¿Pueden los medios sintéticos impulsar nuevas experiencias de contenido?". BBC . 29 de enero de 2020. Archivado desde el original el 13 de febrero de 2020 . Consultado el 13 de febrero de 2020 .
  112. ^ Shao, Grace (15 de octubre de 2019). «Los vídeos falsos podrían ser el próximo gran problema en las elecciones de 2020». CNBC . Archivado desde el original el 15 de noviembre de 2019. Consultado el 25 de noviembre de 2019 .
  113. ^ "Evaluación de los riesgos de los "deepfakes" de modelos lingüísticos para la democracia". 21 de mayo de 2021.
  114. ^ Hamilton, Isobel (26 de septiembre de 2019). «Elon Musk ha advertido de que la «IA avanzada» podría envenenar las redes sociales». Archivado desde el original el 21 de diciembre de 2019. Consultado el 25 de noviembre de 2019 .
  115. ^ Serban, Iulian V.; Sankar, Chinnadhurai; Germain, Mathieu; Zhang, Saizheng; Lin, Zhouhan; Subramanian, Sandeep; Kim, Taesup; Pieper, Michael; Chandar, Sarath; Ke, Nan Rosemary; Rajeshwar, Sai; De Brebisson, Alexandre; Sotelo, Jose MR; Suhubdy, Dendi; Michalski, Vincent; Nguyen, Alexandre; Pineau, Joelle; Bengio, Yoshua (2017). "Un chatbot de aprendizaje de refuerzo profundo". arXiv : 1709.02349 [cs.CL].
  116. ^ Merchant, Brian (1 de octubre de 2018). "Cuando una IA se vuelve como Jack Kerouac". The Atlantic . Archivado desde el original el 30 de enero de 2020. Consultado el 25 de noviembre de 2019 .
  117. ^ Merchant, Brian (1 de octubre de 2018). "Cuando una IA se vuelve como Jack Kerouac". The Atlantic . Archivado desde el original el 30 de enero de 2020. Consultado el 25 de noviembre de 2019 .
  118. ^ "Veterano de Pixar crea herramienta de IA para automatizar animaciones 2D". 2 de junio de 2017. Archivado desde el original el 11 de junio de 2019. Consultado el 25 de noviembre de 2019 .
  119. ^ ab "Synthesia". www.synthesia.io . Archivado desde el original el 27 de octubre de 2021 . Consultado el 12 de febrero de 2020 .
  120. ^ Ban, Yuli (3 de enero de 2020). «La era de las máquinas imaginativas: la democratización del arte, la animación y la imaginación que se avecina». Medium . Archivado desde el original el 1 de febrero de 2020. Consultado el 1 de febrero de 2020 .
  121. ^ "casos de uso de texto a voz y avatares de IA". Elai.io . Consultado el 15 de agosto de 2022 .
  122. ^ Vincent, James (2 de julio de 2019). «El spam generado por IA sin fin corre el riesgo de obstruir los resultados de búsqueda de Google». The Verge . Archivado desde el original el 6 de diciembre de 2019. Consultado el 1 de diciembre de 2019 .
  123. ^ Kemp, Luke (8 de julio de 2019). "En la era de los deepfakes, ¿podrían los actores virtuales dejar a los humanos sin trabajo?". The Guardian . ISSN  0261-3077. Archivado desde el original el 20 de octubre de 2019. Consultado el 20 de octubre de 2019 .
  124. ^ Radulovic, Petrana (17 de octubre de 2018). «Harrison Ford es la estrella de Solo: A Star Wars Story gracias a la tecnología deepfake». Polygon . Archivado desde el original el 20 de octubre de 2019. Consultado el 20 de octubre de 2019 .
  125. ^ Winick, Erin. «Cómo actuar como la marioneta de Carrie Fisher le dio una carrera a la Princesa Leia de Rogue One». MIT Technology Review . Archivado desde el original el 23 de octubre de 2019. Consultado el 20 de octubre de 2019 .
  126. ^ Wong, Ceecee (27 de mayo de 2019). "El auge de las supermodelos de inteligencia artificial". CDO Trends . Archivado desde el original el 16 de abril de 2020. Consultado el 25 de noviembre de 2019 .
  127. ^ Dietmar, Julia. «GANs and Deepfakes Could Revolutionize The Fashion Industry» (Las GAN y los deepfakes podrían revolucionar la industria de la moda). Forbes . Archivado desde el original el 4 de septiembre de 2019. Consultado el 25 de noviembre de 2019 .
  128. ^ Hamosova, Lenka (10 de julio de 2020). «Publicidad sintética personalizada: el futuro de los medios sintéticos aplicados». Medium . Archivado desde el original el 5 de diciembre de 2020. Consultado el 27 de noviembre de 2020 .
  129. ^ "Diseño de Moda Generativo". Archivado desde el original el 3 de diciembre de 2020. Consultado el 25 de noviembre de 2019 .
  130. ^ "AI crea modelos de moda con poses y atuendos personalizados". Sincronizado . 29 de agosto de 2019. Archivado desde el original el 9 de enero de 2020 . Consultado el 25 de noviembre de 2019 .
  131. ^ "Conoce a Dadabots, la banda de death metal con inteligencia artificial que toca sin parar en Youtube". New Atlas . 23 de abril de 2019. Archivado desde el original el 15 de enero de 2020 . Consultado el 15 de enero de 2020 .
  132. ^ Porter, Jon (26 de abril de 2019). «MuseNet de OpenAI genera música de IA con solo pulsar un botón». The Verge . Archivado desde el original el 28 de junio de 2019. Consultado el 25 de noviembre de 2019 .
  133. ^ "TimbreTron: una tubería WaveNet(CycleGAN(CQT(Audio))) para la transferencia de timbres musicales". 27 de noviembre de 2018. Archivado desde el original el 31 de diciembre de 2019. Consultado el 11 de marzo de 2020 en www.youtube.com.
  134. ^ Watts, Chris. «Los desafíos de seguridad nacional de la inteligencia artificial, los medios manipulados y los "deepfakes" - Foreign Policy Research Institute». Archivado desde el original el 20 de mayo de 2020. Consultado el 12 de febrero de 2020 .