stringtranslate.com

Clonación digital

La clonación digital es una tecnología emergente que involucra algoritmos de aprendizaje profundo que permiten manipular audio , fotos y videos existentes que son hiperrealistas. [1] Uno de los impactos de dicha tecnología es que los videos y fotos hiperrealistas dificultan que el ojo humano distinga lo que es real de lo que es falso. [2] Además, con varias empresas que ponen dichas tecnologías a disposición del público, pueden traer varios beneficios, así como posibles preocupaciones legales y éticas.

La clonación digital se puede clasificar en clonación audiovisual (AV), clonación de memoria, clonación de personalidad y clonación de comportamiento del consumidor . [3] En la clonación AV, la creación de una versión digital clonada del original digital o no digital se puede utilizar, por ejemplo, para crear una imagen falsa, un avatar o un video o audio falso de una persona que no se puede diferenciar fácilmente de la persona real que se supone que representa. Un clon de memoria y personalidad, como un clon mental, es esencialmente una copia digital de la mente de una persona. Un clon de comportamiento del consumidor es un perfil o grupo de clientes basado en datos demográficos.

Truby y Brown acuñaron el término “clon digital del pensamiento” para referirse a la evolución de la clonación digital hacia un clon digital personalizado más avanzado que consiste en “una réplica de todos los datos y comportamientos conocidos de una persona viva específica, que registra en tiempo real sus elecciones, preferencias, tendencias de comportamiento y procesos de toma de decisiones”. [3]

La clonación digital se hizo popular por primera vez en la industria del entretenimiento. La idea de los clones digitales surgió cuando las compañías cinematográficas crearon actores virtuales de actores que habían fallecido. Cuando los actores mueren durante la producción de una película, se puede sintetizar un clon digital del actor utilizando imágenes, fotos y grabaciones de voz anteriores para imitar a la persona real y así continuar con la producción de la película. [4]

La inteligencia artificial moderna ha permitido la creación de deepfakes . Esto implica la manipulación de un video hasta el punto en que la persona que aparece en el video dice o realiza acciones a las que puede no haber dado su consentimiento. [5] En abril de 2018, BuzzFeed publicó un video deepfake de Jordan Peele , que fue manipulado para mostrar al expresidente Barack Obama haciendo declaraciones que no había hecho anteriormente en público para advertir al público sobre los posibles peligros de los deepfakes. [6]

Además de los deepfakes, empresas como Intellitar ahora permiten crear fácilmente un clon digital de uno mismo al introducir una serie de imágenes y grabaciones de voz. Esto crea esencialmente la inmortalidad digital , permitiendo a los seres queridos interactuar con representaciones de los fallecidos. [7] La ​​clonación digital no solo permite conmemorar digitalmente a los seres queridos, sino que también se puede utilizar para crear representaciones de figuras históricas y utilizarlas en un entorno educativo.

Con el desarrollo de diversas tecnologías, como se mencionó anteriormente, surgen numerosas preocupaciones, entre ellas el robo de identidad , las violaciones de datos y otras preocupaciones éticas. Uno de los problemas con la clonación digital es que hay poca o ninguna legislación para proteger a las posibles víctimas contra estos posibles problemas. [8]

Tecnología

Plataformas de avatares inteligentes (IAP)

La Plataforma de Avatar Inteligente (IAP, por sus siglas en inglés) se puede definir como una plataforma en línea respaldada por inteligencia artificial que permite crear un clon de sí mismo. [7] El individuo debe entrenar a su clon para que actúe y hable como él mismo, alimentando al algoritmo con numerosas grabaciones de voz y videos de sí mismo. [9] Básicamente, las plataformas se comercializan como un lugar donde uno "vive eternamente", ya que puede interactuar con otros avatares en la misma plataforma. IAP se está convirtiendo en una plataforma para que uno alcance la inmortalidad digital , junto con mantener un árbol genealógico y un legado para que las generaciones siguientes lo vean. [7]

Algunos ejemplos de IAP incluyen Intellitar y Eterni.me. Aunque la mayoría de estas empresas aún están en sus etapas de desarrollo, todas están tratando de lograr el mismo objetivo de permitir al usuario crear un duplicado exacto de sí mismo para almacenar todos los recuerdos que tenga en su mente en el ciberespacio. [7] Algunas incluyen una versión gratuita, que solo permite al usuario elegir su avatar de un conjunto determinado de imágenes y audio. Sin embargo, con la configuración premium, estas empresas pedirán al usuario que cargue fotos, videos y grabaciones de audio de uno para formar una versión realista de sí mismo. [10] Además, para garantizar que el clon sea lo más parecido a la persona original, las empresas también fomentan la interacción con su propio clon mediante el chat y respondiendo preguntas. Esto permite que el algoritmo aprenda la cognición de la persona original y la aplique al clon. Intellitar cerró en 2012 debido a las batallas de propiedad intelectual sobre la tecnología que utilizaba. [11]

Las posibles preocupaciones con el IAP incluyen las posibles violaciones de datos y no obtener el consentimiento del fallecido. El IAP debe tener una base sólida y responsabilidad contra las violaciones de datos y la piratería para proteger la información personal de los muertos, que puede incluir grabaciones de voz, fotos y mensajes. [9] Además del riesgo de que se vea comprometida la privacidad personal , también existe el riesgo de violar la privacidad del fallecido . Aunque uno puede dar consentimiento para crear un clon digital de sí mismo antes de su muerte física, no puede dar consentimiento para las acciones que pueda realizar el clon digital.

Falsificaciones profundas

Como se describió anteriormente, los deepfakes son una forma de manipulación de videos en la que uno puede cambiar a las personas presentes al proporcionar varias imágenes de una persona específica que desee. Además, también se puede cambiar la voz y las palabras que dice la persona en el video simplemente enviando una serie de grabaciones de voz de la nueva persona que duren aproximadamente uno o dos minutos. En 2018, se lanzó una nueva aplicación llamada FakeApp, que permite al público acceder fácilmente a esta tecnología para crear videos. Esta aplicación también se utilizó para crear el video de Buzzfeed del expresidente Barack Obama . [6] [12] Con los deepfakes, las industrias pueden reducir el costo de contratar actores o modelos para películas y anuncios al crear videos y películas de manera eficiente a un bajo costo simplemente recopilando una serie de fotos y grabaciones de audio con el consentimiento del individuo. [13]

Una de las posibles preocupaciones que plantean los deepfakes es que permiten el acceso a prácticamente cualquier persona que descargue las distintas aplicaciones que ofrecen el mismo servicio. Como cualquiera puede acceder a esta herramienta, algunos pueden utilizarla de forma maliciosa para crear pornografía vengativa y vídeos manipuladores de funcionarios públicos que hacen declaraciones que nunca dirían en la vida real. Esto no solo invade la privacidad del individuo que aparece en el vídeo, sino que también plantea diversas cuestiones éticas. [14]

Clonación de voz

La clonación de voz es un ejemplo de los métodos de falsificación de audio que utilizan inteligencia artificial para generar un clon de la voz de una persona. La clonación de voz implica un algoritmo de aprendizaje profundo que toma grabaciones de voz de una persona y puede sintetizar dicha voz hasta el punto en que puede replicar fielmente una voz humana con gran precisión de tono y semejanza. [15]

Para clonar una voz se necesitan ordenadores de alto rendimiento. Normalmente, los cálculos se realizan mediante la Unidad de Procesamiento Gráfico (GPU) , y muy a menudo se recurre a la computación en la nube , debido a la enorme cantidad de cálculos necesarios.

Los datos de audio para el entrenamiento se deben introducir en un modelo de inteligencia artificial. Suelen ser grabaciones originales que proporcionan un ejemplo de la voz de la persona en cuestión. La inteligencia artificial puede utilizar estos datos para crear una voz auténtica, que puede reproducir lo que se escribe (conocida como Text-To-Speech ) o lo que se dice (conocida como Speech-To-Speech).

Esta tecnología preocupa a muchos por su impacto en diversas cuestiones, desde el discurso político hasta el Estado de derecho. Algunas de las primeras señales de alerta ya han aparecido en forma de estafas telefónicas [16] [17] y vídeos falsos en las redes sociales de personas haciendo cosas que nunca hicieron. [18]

Las protecciones contra estas amenazas se pueden implementar principalmente de dos maneras. La primera es crear una manera de analizar o detectar la autenticidad de un video. Este enfoque será inevitablemente una ventaja, ya que los generadores en constante evolución superan a estos detectores. La segunda manera podría ser incrustar la información de creación y modificación en software o hardware. [19] [20] Esto funcionaría solo si los datos no fueran editables, pero la idea sería crear una marca de agua inaudible que actuaría como una fuente de verdad. [21] En otras palabras, podríamos saber si el video es auténtico al ver dónde fue filmado, producido, editado, etc. [15]

15.ai —una aplicación web freeware no comercial que comenzó como una prueba de concepto de la democratización de la actuación de voz y el doblaje mediante tecnología— brinda al público acceso a dicha tecnología. [22] Su naturaleza gratuita y no comercial (con la única estipulación de que el proyecto sea reconocido adecuadamente cuando se use [23] ), facilidad de uso y mejoras sustanciales en las implementaciones actuales de texto a voz han sido elogiadas por los usuarios; [24] [25] [26] sin embargo, algunos críticos y actores de voz han cuestionado la legalidad y ética de dejar dicha tecnología disponible públicamente y de fácil acceso. [22] [27] [28] [29]

Aunque esta aplicación todavía está en la etapa de desarrollo, está desarrollándose rápidamente debido a que grandes corporaciones tecnológicas, como Google y Amazon, están invirtiendo grandes cantidades de dinero en su desarrollo. [30]

Algunos de los usos positivos de la clonación de voz incluyen la capacidad de sintetizar millones de audiolibros sin el uso de mano de obra humana. [31] Además, la clonación de voz se utilizó para traducir contenido de podcast a diferentes idiomas utilizando la voz del podcaster. [32] Otro incluye que aquellos que pueden haber perdido su voz pueden recuperar un sentido de individualidad creando su clon de voz ingresando grabaciones de ellos hablando antes de perder sus voces. [33]

Por otra parte, la clonación de voz también es susceptible de ser mal utilizada. Un ejemplo de ello es la clonación de voces de celebridades y funcionarios públicos, en la que la voz puede decir algo que provoque un conflicto a pesar de que la persona real no tenga ninguna relación con lo que dijo su voz. [34]

En reconocimiento de la amenaza que la clonación de voz representa para la privacidad, la civilidad y los procesos democráticos, las instituciones, incluida la Comisión Federal de Comercio , el Departamento de Justicia de los EE. UU. y la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) y el Ministerio de Educación, Universidad e Investigación de Italia (MIUR) , han evaluado varios casos de uso de deepfake de audio y métodos que podrían usarse para combatirlos. [35] [36] [37]

Usos constructivos

Educación

La clonación digital puede ser útil en un entorno educativo para crear una experiencia más inmersiva para los estudiantes. Algunos estudiantes pueden aprender mejor a través de una experiencia más interactiva y la creación de deepfakes puede mejorar la capacidad de aprendizaje de los estudiantes. Un ejemplo de esto incluye la creación de un clon digital de figuras históricas, como Abraham Lincoln , para mostrar los problemas que enfrentó durante su vida y cómo pudo superarlos. Otro ejemplo de uso de clones digitales en un entorno educativo es hacer que los oradores creen un clon digital de ellos mismos. Varios grupos de defensa pueden tener problemas con los horarios, ya que visitan varias escuelas durante el año. Sin embargo, al crear clones digitales de ellos mismos, sus clones pueden presentar el tema en lugares donde el grupo no podría llegar físicamente. Estos beneficios educativos pueden brindarles a los estudiantes una nueva forma de aprender, además de brindar acceso a aquellos que anteriormente no podían acceder a los recursos debido a las condiciones ambientales. [13]

Letras

Aunque la clonación digital ya ha estado en la industria del entretenimiento y las artes por un tiempo, la inteligencia artificial puede expandir enormemente los usos de estas tecnologías en la industria. La industria cinematográfica puede crear actores y actrices aún más hiperrealistas que han muerto. Además, la industria cinematográfica también puede crear clones digitales en escenas de películas que pueden requerir extras, lo que puede ayudar a reducir enormemente el costo de producción. Sin embargo, la clonación digital y otras tecnologías pueden ser beneficiosas para fines no comerciales. Por ejemplo, los artistas pueden ser más expresivos si buscan sintetizar avatares para que formen parte de su producción de video. También pueden crear avatares digitales para redactar su trabajo y ayudar a formular sus ideas antes de seguir trabajando en el trabajo final. [13] El actor Val Kilmer perdió la voz en 2014 después de una traqueotomía debido a su cáncer de garganta . Sin embargo, se asoció con una empresa de inteligencia artificial que produjo una voz sintética basada en sus grabaciones anteriores. La voz le permitió a Kilmer retomar su papel de "Iceman" de Top Gun de 1986 en la película secuela de 2022 Top Gun: Maverick . [38]

Inmortalidad digital

Aunque la inmortalidad digital existe desde hace tiempo, ya que las cuentas de las personas fallecidas en las redes sociales siguen estando en el ciberespacio, crear un clon virtual que sea inmortal adquiere un nuevo significado. Con la creación de un clon digital, uno no solo puede capturar la presencia visual de sí mismo, sino también su forma de ser, incluida la personalidad y la cognición. Con la inmortalidad digital, uno puede seguir interactuando con una representación de sus seres queridos después de que hayan muerto. Además, las familias pueden conectarse con las representaciones de varias generaciones, formando un árbol genealógico, en cierto sentido, para transmitir el legado familiar a las generaciones futuras, proporcionando una forma de transmitir la historia. [7]

Preocupaciones

Noticias falsas

Ante la falta de regulación de los deepfakes, han surgido varias preocupaciones. Algunos de los vídeos deepfakes que pueden causar daños potenciales incluyen la representación de funcionarios políticos mostrando un comportamiento inapropiado, oficiales de policía que se muestran disparando a hombres negros desarmados y soldados asesinando a civiles inocentes, aunque tal vez nunca hayan ocurrido en la vida real. [39] Con la publicación de estos vídeos hiperrealistas en Internet, es muy fácil que el público esté mal informado, lo que podría llevar a las personas a tomar medidas, contribuyendo así a este círculo vicioso de daños innecesarios. Además, con el aumento de las noticias falsas en las noticias recientes, también existe la posibilidad de combinar deepfakes y noticias falsas. Esto traerá más dificultades para distinguir lo que es real y lo que es falso. La información visual puede ser muy convincente para los ojos humanos, por lo tanto, la combinación de deepfakes y noticias falsas puede tener un efecto perjudicial en la sociedad. [13] Las empresas de redes sociales y otras plataformas de noticias deberían establecer regulaciones estrictas. [40]

Uso personal

Otra razón por la que los deepfakes pueden usarse maliciosamente es para sabotear a otra persona a nivel personal. Con la mayor accesibilidad de las tecnologías para crear deepfakes, los chantajistas y ladrones pueden extraer fácilmente información personal para obtener ganancias económicas y por otras razones creando videos de seres queridos de la víctima pidiendo ayuda. [13] Además, la clonación de voz puede usarse maliciosamente para que los delincuentes hagan llamadas telefónicas falsas a las víctimas. Las llamadas telefónicas tendrán la voz y los gestos exactos de la persona, lo que puede engañar a la víctima para que le dé información privada al delincuente sin saberlo. [41] Alternativamente, un mal actor podría, por ejemplo, crear un deepfake de una persona superpuesto a un video para extraer el pago del chantaje y/o como un acto de pornografía vengativa .

La creación de deepfakes y clones de voz para uso personal puede ser extremadamente difícil según la ley porque no se produce ningún daño comercial. Más bien, suelen producirse en forma de daño psicológico y emocional, lo que dificulta que los tribunales puedan ofrecer una reparación. [5]

Implicaciones éticas

Aunque existen numerosos problemas legales que surgen con el desarrollo de dicha tecnología, también hay problemas éticos que pueden no estar protegidos por las legislaciones actuales. Uno de los mayores problemas que conlleva el uso de deepfakes y clonación de voz es el potencial robo de identidad. Sin embargo, el robo de identidad en términos de deepfakes es difícil de procesar porque actualmente no existen leyes específicas para deepfakes. Además, los daños que puede traer el uso malintencionado de deepfakes son más psicológicos y emocionales que económicos, lo que hace que sea más difícil proporcionar una solución. Allen sostiene que la forma en que se debe tratar la privacidad de uno es similar al imperativo categórico de Kant . [5]

Otra implicación ética es el uso de información privada y personal que uno debe entregar para usar la tecnología. Debido a que la clonación digital, las falsificaciones profundas y la clonación de voz utilizan un algoritmo de aprendizaje profundo, cuanto más información reciba el algoritmo, mejores serán los resultados. [42] Sin embargo, cada plataforma tiene un riesgo de violación de datos, lo que podría llevar a que grupos a los que los usuarios nunca dieron su consentimiento accedan a información muy personal. Además, la privacidad post mortem se pone en tela de juicio cuando los familiares de un ser querido intentan recopilar la mayor cantidad de información posible para crear un clon digital del fallecido sin el permiso de cuánta información están dispuestos a entregar. [43]

Leyes vigentes en Estados Unidos

Leyes de derechos de autor

En Estados Unidos, las leyes de derechos de autor exigen algún tipo de originalidad y creatividad para proteger la individualidad del autor. Sin embargo, crear un clon digital simplemente significa tomar datos personales, como fotos, grabaciones de voz y otra información para crear una persona virtual que sea lo más parecida posible a la persona real. En la decisión del caso Feist Publications Inc. v. Rural Television Services Company, Inc. de la Corte Suprema , la jueza O'Connor enfatizó la importancia de la originalidad y cierto grado de creatividad. Sin embargo, el alcance de la originalidad y la creatividad no está claramente definido, lo que crea una zona gris para las leyes de derechos de autor. [44] La creación de clones digitales requiere no solo los datos de la persona, sino también la opinión del creador sobre cómo debe actuar o moverse el clon digital. En Meshwerks v. Toyota, se planteó esta cuestión y el tribunal declaró que las mismas leyes de derechos de autor creadas para la fotografía deberían aplicarse a los clones digitales. [44]

Derecho de publicidad

Con la actual falta de legislaciones para proteger a las personas contra el posible uso malicioso de la clonación digital, el derecho de publicidad puede ser la mejor manera de protegerse en un entorno legal. [4] El derecho de publicidad , también conocido como derechos de la personalidad, otorga autonomía al individuo cuando se trata de controlar su propia voz, apariencia y otros aspectos que esencialmente conforman su personalidad en un entorno comercial. [45] Si surge un video deepfake o un clon digital de uno sin su consentimiento, que muestra al individuo realizando acciones o haciendo declaraciones que están fuera de su personalidad, puede emprender acciones legales alegando que está violando su derecho a la publicidad. Aunque el derecho a la publicidad establece específicamente que está destinado a proteger la imagen de un individuo en un entorno comercial, lo que requiere algún tipo de beneficio, algunos afirman que la legislación puede actualizarse para proteger prácticamente la imagen y la personalidad de cualquier persona. [46] Otra nota importante es que el derecho de publicidad solo se implementa en estados específicos, por lo que algunos estados pueden tener diferentes interpretaciones del derecho en comparación con otros estados.

Medidas preventivas

Regulación

Los clones digitales y de pensamiento plantean cuestiones jurídicas relacionadas con la privacidad de los datos, el consentimiento informado, la lucha contra la discriminación, los derechos de autor y el derecho de publicidad. Más jurisdicciones necesitan urgentemente promulgar una legislación similar al Reglamento General de Protección de Datos en Europa para proteger a las personas contra los usos inescrupulosos y perjudiciales de sus datos y el desarrollo y uso no autorizados de clones digitales de pensamiento. [3]

Tecnología

Una forma de evitar ser víctima de cualquiera de las tecnologías mencionadas anteriormente es desarrollar inteligencia artificial contra estos algoritmos. Ya hay varias empresas que han desarrollado inteligencia artificial que puede detectar imágenes manipuladas observando los patrones en cada píxel. [47] Aplicando una lógica similar, están tratando de crear un software que tome cada fotograma de un vídeo determinado y lo analice píxel por píxel para encontrar el patrón del vídeo original y determinar si ha sido o no manipulado. [48]

Además de desarrollar nuevas tecnologías que puedan detectar cualquier manipulación de video, muchos investigadores están planteando la importancia de que las corporaciones privadas creen pautas más estrictas para proteger la privacidad individual. [30] Con el desarrollo de la inteligencia artificial, es necesario preguntarse cómo afecta esto a la sociedad actual, ya que comienza a aparecer en prácticamente todos los aspectos de la sociedad, incluida la medicina , la educación , la política y la economía . Además, la inteligencia artificial comenzará a aparecer en varios aspectos de la sociedad, lo que hace que sea importante tener leyes que protejan los derechos humanos a medida que la tecnología se hace cargo. A medida que el sector privado gana más poder digital sobre el público, es importante establecer regulaciones y leyes estrictas para evitar que las corporaciones privadas utilicen datos personales de forma maliciosa. Además, el historial pasado de varias violaciones de datos y de la política de privacidad también debería ser una advertencia sobre cómo se puede acceder y utilizar la información personal sin el consentimiento de la persona. [8]

Alfabetización digital

Otra forma de evitar que estas tecnologías nos perjudiquen es educando a la gente sobre los pros y los contras de la clonación digital. De este modo, cada individuo podrá tomar una decisión racional en función de sus propias circunstancias. [49] Además, también es importante educar a la gente sobre cómo proteger la información que publica en Internet. Al aumentar la alfabetización digital del público, la gente tiene más posibilidades de determinar si un determinado vídeo ha sido manipulado, ya que puede ser más escéptica con la información que encuentra en línea. [30]

Véase también

Referencias

  1. ^ Floridi, Luciano (2018). "Inteligencia artificial, deepfakes y un futuro de ectipos". Filosofía y tecnología . 31 (3): 317–321. doi : 10.1007/s13347-018-0325-3 .
  2. ^ Borel, Brooke (2018). "Clics, mentiras y cintas de vídeo". Scientific American . 319 (4): 38–43. Bibcode :2018SciAm.319d..38B. doi :10.1038/scientificamerican1018-38. PMID  30273328. S2CID  52902634.
  3. ^ abc Truby, Jon; Brown, Rafael (2021). «Clones humanos del pensamiento digital: el Santo Grial de la inteligencia artificial para el big data». Derecho de las Tecnologías de la Información y la Comunicación . 30 (2): 140–168. doi :10.1080/13600834.2020.1850174. hdl : 10576/17266 . S2CID  229442428. El texto fue copiado de esta fuente, que está disponible bajo una Licencia Creative Commons Atribución 4.0 Internacional.
  4. ^ ab Beard, Joseph (2001). "CLONES, HUESOS Y ZONAS CREPUSCULARES: Protegiendo la personalidad digital de los vivos, los muertos y los imaginarios". Berkeley Technology Law Journal . 16 (3): 1165–1271. JSTOR  24116971.
  5. ^ abc Allen, Anita (2016). "Protección de la propia privacidad en una economía de macrodatos". Harvard Law Review . 130 (2): 71–86.
  6. ^ ab Silverman, Craig (abril de 2018). "Cómo detectar un deepfake como el video de Barack Obama y Jordan Peele". Buzzfeed .
  7. ^ abcde Meese, James (2015). "Personalidad póstuma y posibilidades de los medios digitales". Mortalidad . 20 (4): 408–420. doi :10.1080/13576275.2015.1083724. hdl : 10453/69288 . S2CID  147550696.
  8. ^ ab Nemitz, Paul Friedrich (2018). "Democracia constitucional y tecnología en la era de la inteligencia artificial". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences . 59 (9): 20180089. Bibcode :2018RSPTA.37680089N. doi : 10.1098/rsta.2018.0089 . PMID  30323003.
  9. ^ ab Michalik, Lyndsay (2013). "'Fragmentos inquietantes': duelo digital y performance intermedia". Theatre Annual . 66 (1): 41–64. ProQuest  1501743129.
  10. ^ Osa, Marius. "Eterno".
  11. ^ "Esta start-up prometió a 10.000 personas una vida digital eterna... y luego murió | Fusion". Archivado desde el original el 30 de diciembre de 2016 . Consultado el 24 de mayo de 2020 .
  12. ^ S. Agarwal, H. Farid, Y. Gu, M. He, K. Nagano y H. Li, “Protegiendo a los líderes mundiales contra las falsificaciones profundas”, en los talleres de la Conferencia IEEE sobre Visión artificial y reconocimiento de patrones (CVPR), junio de 2019.
  13. ^ abcde Chesney, Robert (2018). "Deep Fakes: Un desafío inminente para la privacidad, la democracia y la seguridad nacional" (PDF) . Revista electrónica SSRN . 26 (1): 1–58.
  14. ^ Suwajanakorn, Supasorn (2017). "Sintetizando a Obama" (PDF) . ACM Transactions on Graphics . 36 (4): 1–13. doi :10.1145/3072959.3073640. S2CID  207586187.
  15. ^ ab "Todo lo que necesitas saber sobre las voces deepfake". Veritone . 1 de octubre de 2021 . Consultado el 30 de junio de 2022 .
  16. ^ David, Dominic. "Council Post: Análisis del auge de la tecnología de voz deepfake". Forbes . Consultado el 30 de junio de 2022 .
  17. ^ Brewster, Thomas. "La policía descubre que los estafadores clonaron la voz del director de la empresa en un robo bancario de 35 millones de dólares". Forbes . Consultado el 29 de junio de 2022 .
  18. ^ Ortutay, Matt O'Brien y Barbara. "Por qué la clonación de la voz de Anthony Bourdain en el documental 'Roadrunner' asusta a la gente". USA TODAY . Consultado el 30 de junio de 2022 .
  19. ^ Rashid, Md Mamunur; Lee, Suk-Hwan; Kwon, Ki-Ryong (2021). "Tecnología blockchain para combatir las falsificaciones profundas y proteger la integridad de los videos y las imágenes". Revista de la Sociedad Multimedia de Corea . 24 (8): 1044–1058. doi :10.9717/kmms.2021.24.8.1044. ISSN  1229-7771.
  20. ^ Fraga-Lamas, Paula; Fernández-Caramés, Tiago M. (20 de octubre de 2019). "Noticias falsas, desinformación y deepfakes: aprovechamiento de las tecnologías de registros distribuidos y blockchain para combatir el engaño digital y la realidad falsificada". IT Professional . 22 (2): 53–59. arXiv : 1904.05386 . doi :10.1109/MITP.2020.2977589.
  21. ^ Ki Chan, Christopher Chun; Kumar, Vimal; Delaney, Steven; Gochoo, Munkhjargal (septiembre de 2020). "Combatiendo las deepfakes: Multi-LSTM y blockchain como prueba de autenticidad para los medios digitales". Conferencia internacional IEEE/ITU de 2020 sobre inteligencia artificial para el bien (AI4G) . págs. 55–62. doi :10.1109/AI4G50087.2020.9311067. ISBN 978-1-7281-7031-2. Número de identificación del sujeto  231618774.
  22. ^ ab Ng, Andrew (1 de abril de 2020). «Clonación de voces para las masas». The Batch . Archivado desde el original el 7 de agosto de 2020. Consultado el 5 de abril de 2020 .
  23. ^ "15.ai - Preguntas frecuentes". 15.ai . 18 de enero de 2021. Archivado desde el original el 3 de marzo de 2020 . Consultado el 18 de enero de 2021 .
  24. ^ Ruppert, Liana (18 de enero de 2021). "Haz que GLaDOS de Portal y otros personajes queridos digan las cosas más raras con esta aplicación". Game Informer . Archivado desde el original el 18 de enero de 2021 . Consultado el 18 de enero de 2021 .
  25. ^ Zwiezen, Zack (18 de enero de 2021). «Sitio web que te permite hacer que GLaDOS diga lo que quieras». Kotaku . Archivado desde el original el 17 de enero de 2021 . Consultado el 18 de enero de 2021 .
  26. ^ Clayton, Natalie (19 de enero de 2021). «Haz que el elenco de TF2 recite viejos memes con esta herramienta de texto a voz con inteligencia artificial». PC Gamer . Archivado desde el original el 19 de enero de 2021. Consultado el 19 de enero de 2021 .
  27. ^ Ng, Andrew (7 de marzo de 2021). «Boletín semanal número 83». The Batch . Archivado desde el original el 26 de febrero de 2022. Consultado el 7 de marzo de 2021 .
  28. ^ Lopez, Ule (16 de enero de 2022). «La empresa de NFT respaldada por Troy Baker admite haber utilizado líneas de voz tomadas de otro servicio sin permiso». Wccftech . Archivado desde el original el 16 de enero de 2022 . Consultado el 7 de junio de 2022 .
  29. ^ Henry, Joseph (18 de enero de 2022). «Según se informa, la empresa de NFT asociada de Troy Baker, Voiceverse, roba líneas de voz de 15.ai». Tech Times . Archivado desde el original el 26 de enero de 2022 . Consultado el 14 de febrero de 2022 .
  30. ^ abc Brayne, Sarah (2018). "Datos visuales y derecho". Law & Social Inquiry . 43 (4): 1149–1163. doi :10.1111/lsi.12373. PMC 10857868 . PMID  38343725. S2CID  150076575. 
  31. ^ Chadha, Anupama; Kumar, Vaibhav; Kashyap, Sonu; Gupta, Mayank (2021), Singh, Pradeep Kumar; Wierzchoń, Sławomir T.; Tanwar, Sudeep; Ganzha, Maria (eds.), "Deepfake: una descripción general", Actas de la Segunda Conferencia Internacional sobre Informática, Comunicaciones y Ciberseguridad , Lecture Notes in Networks and Systems, vol. 203, Singapur: Springer Singapur, págs. 557–566, doi :10.1007/978-981-16-0733-2_39, ISBN 978-981-16-0732-5, S2CID  236666289 , consultado el 29 de junio de 2022
  32. ^ Barletta, Bryan (12 de octubre de 2021). "¡Suena rentable en español!". adtech.podnews.net . Consultado el 30 de junio de 2022 .
  33. ^ Etienne, Vanessa (19 de agosto de 2021). "Val Kilmer recupera su voz después de luchar contra el cáncer de garganta gracias a la tecnología de inteligencia artificial: escuche los resultados". PEOPLE.com . Consultado el 30 de junio de 2022 .
  34. ^ Fletcher, John (2018). "Deepfakes, inteligencia artificial y algún tipo de distopía: las nuevas caras de la performance post-factual en línea". Theatre Journal . 70 (4): 455–71. doi :10.1353/tj.2018.0097. S2CID  191988083.
  35. ^ "Expertos en clonación de voz abordan el delito, casos de uso positivos y medidas de seguridad". 29 de enero de 2020.
  36. ^ "PREMIER - Proyecto". sites.google.com . Consultado el 29 de junio de 2022 .
  37. ^ "DARPA anuncia los equipos de investigación seleccionados para el programa de análisis forense semántico". www.darpa.mil . Consultado el 1 de julio de 2022 .
  38. ^ Taylor, Chloe (27 de mayo de 2022). "Cómo la IA trajo de vuelta a 'Ice Man' de Val Kilmer a Top Gun: Maverick". Fortune . Consultado el 5 de julio de 2022 .
  39. ^ Chesney, Robert (2019). «Deepfakes y la nueva guerra de la desinformación: la era venidera de la geopolítica de la posverdad». Foreign Affairs . 98 (1): 147–55. Archivado desde el original el 23 de abril de 2019 . Consultado el 25 de abril de 2019 .
  40. ^ Hall, Kathleen (2018). "Videos deepfake: cuando ver no es creer". Revista de Derecho y Tecnología de la Universidad Católica . 27 (1): 51–75.
  41. ^ Poudel, Sawrpool (2016). «Internet de las cosas: tecnologías subyacentes, interoperabilidad y amenazas a la privacidad y la seguridad». Berkeley Technology Law Review . 31 (2): 997–1021. Archivado desde el original el 30 de abril de 2017 . Consultado el 25 de abril de 2019 .
  42. ^ Dang, L. Ming (2018). "Identificación de rostros generada por computadora basada en aprendizaje profundo utilizando una red neuronal convolucional". Applied Sciences . 8 (12): 2610. doi : 10.3390/app8122610 .
  43. ^ Savin-Baden, Maggi (2018). "Inmortalidad digital y humanos virtuales" (PDF) . Ciencia y educación posdigital . 1 (1): 87–103. doi : 10.1007/s42438-018-0007-6 .
  44. ^ ab Newell, Bryce Clayton (2010). "Creación independiente y originalidad en la era de la realidad imitada: un análisis comparativo de los derechos de autor y la protección de bases de datos para modelos digitales de personas reales". Universidad Brigham Young, Derecho internacional y gestión . 6 (2): 93–126.
  45. ^ Goering, Kevin (2018). "Derecho de publicidad en Nueva York: reimaginar la privacidad y la Primera Enmienda en la era digital - Simposio de primavera de la AELJ 2". Revista electrónica SSRN . 36 (3): 601–635.
  46. ^ Harris, Douglas (2019). "Deepfakes: la pornografía falsa ya está aquí y la ley no puede protegerte". Duke Law and Technology Review . 17 : 99–127.
  47. ^ Bass, Harvey (1998). "Un paradigma para la autenticación de pruebas fotográficas en la era digital". Thomas Jefferson Law Review . 20 (2): 303–322.
  48. ^ Wen, Jie (2012). "Un análisis de comportamiento malicioso basado en el nacimiento de Cyber-I". Journal of Intelligent Manufacturing . 25 (1): 147–55. doi :10.1007/s10845-012-0681-2. S2CID  26225937. ProQuest  1490889853.
  49. ^ Maras, Marie-Helen (2018). "Determinación de la autenticidad de las pruebas en vídeo en la era de la inteligencia artificial y a raíz de los vídeos deepfake". The International Journal of Evidence & Proof . 23 (1): 255–262. doi :10.1177/1365712718807226. S2CID  150336977.