La clonación digital es una tecnología emergente que involucra algoritmos de aprendizaje profundo que permiten manipular audio , fotos y videos existentes que son hiperrealistas. [1] Uno de los impactos de dicha tecnología es que los videos y fotos hiperrealistas dificultan que el ojo humano distinga lo que es real de lo que es falso. [2] Además, con varias empresas que ponen dichas tecnologías a disposición del público, pueden traer varios beneficios, así como posibles preocupaciones legales y éticas.
La clonación digital se puede clasificar en clonación audiovisual (AV), clonación de memoria, clonación de personalidad y clonación de comportamiento del consumidor . [3] En la clonación AV, la creación de una versión digital clonada del original digital o no digital se puede utilizar, por ejemplo, para crear una imagen falsa, un avatar o un video o audio falso de una persona que no se puede diferenciar fácilmente de la persona real que se supone que representa. Un clon de memoria y personalidad, como un clon mental, es esencialmente una copia digital de la mente de una persona. Un clon de comportamiento del consumidor es un perfil o grupo de clientes basado en datos demográficos.
Truby y Brown acuñaron el término “clon digital del pensamiento” para referirse a la evolución de la clonación digital hacia un clon digital personalizado más avanzado que consiste en “una réplica de todos los datos y comportamientos conocidos de una persona viva específica, que registra en tiempo real sus elecciones, preferencias, tendencias de comportamiento y procesos de toma de decisiones”. [3]
La clonación digital se hizo popular por primera vez en la industria del entretenimiento. La idea de los clones digitales surgió cuando las compañías cinematográficas crearon actores virtuales de actores que habían fallecido. Cuando los actores mueren durante la producción de una película, se puede sintetizar un clon digital del actor utilizando imágenes, fotos y grabaciones de voz anteriores para imitar a la persona real y así continuar con la producción de la película. [4]
La inteligencia artificial moderna ha permitido la creación de deepfakes . Esto implica la manipulación de un video hasta el punto en que la persona que aparece en el video dice o realiza acciones a las que puede no haber dado su consentimiento. [5] En abril de 2018, BuzzFeed publicó un video deepfake de Jordan Peele , que fue manipulado para mostrar al expresidente Barack Obama haciendo declaraciones que no había hecho anteriormente en público para advertir al público sobre los posibles peligros de los deepfakes. [6]
Además de los deepfakes, empresas como Intellitar ahora permiten crear fácilmente un clon digital de uno mismo al introducir una serie de imágenes y grabaciones de voz. Esto crea esencialmente la inmortalidad digital , permitiendo a los seres queridos interactuar con representaciones de los fallecidos. [7] La clonación digital no solo permite conmemorar digitalmente a los seres queridos, sino que también se puede utilizar para crear representaciones de figuras históricas y utilizarlas en un entorno educativo.
Con el desarrollo de diversas tecnologías, como se mencionó anteriormente, surgen numerosas preocupaciones, entre ellas el robo de identidad , las violaciones de datos y otras preocupaciones éticas. Uno de los problemas con la clonación digital es que hay poca o ninguna legislación para proteger a las posibles víctimas contra estos posibles problemas. [8]
La Plataforma de Avatar Inteligente (IAP, por sus siglas en inglés) se puede definir como una plataforma en línea respaldada por inteligencia artificial que permite crear un clon de sí mismo. [7] El individuo debe entrenar a su clon para que actúe y hable como él mismo, alimentando al algoritmo con numerosas grabaciones de voz y videos de sí mismo. [9] Básicamente, las plataformas se comercializan como un lugar donde uno "vive eternamente", ya que puede interactuar con otros avatares en la misma plataforma. IAP se está convirtiendo en una plataforma para que uno alcance la inmortalidad digital , junto con mantener un árbol genealógico y un legado para que las generaciones siguientes lo vean. [7]
Algunos ejemplos de IAP incluyen Intellitar y Eterni.me. Aunque la mayoría de estas empresas aún están en sus etapas de desarrollo, todas están tratando de lograr el mismo objetivo de permitir al usuario crear un duplicado exacto de sí mismo para almacenar todos los recuerdos que tenga en su mente en el ciberespacio. [7] Algunas incluyen una versión gratuita, que solo permite al usuario elegir su avatar de un conjunto determinado de imágenes y audio. Sin embargo, con la configuración premium, estas empresas pedirán al usuario que cargue fotos, videos y grabaciones de audio de uno para formar una versión realista de sí mismo. [10] Además, para garantizar que el clon sea lo más parecido a la persona original, las empresas también fomentan la interacción con su propio clon mediante el chat y respondiendo preguntas. Esto permite que el algoritmo aprenda la cognición de la persona original y la aplique al clon. Intellitar cerró en 2012 debido a las batallas de propiedad intelectual sobre la tecnología que utilizaba. [11]
Las posibles preocupaciones con el IAP incluyen las posibles violaciones de datos y no obtener el consentimiento del fallecido. El IAP debe tener una base sólida y responsabilidad contra las violaciones de datos y la piratería para proteger la información personal de los muertos, que puede incluir grabaciones de voz, fotos y mensajes. [9] Además del riesgo de que se vea comprometida la privacidad personal , también existe el riesgo de violar la privacidad del fallecido . Aunque uno puede dar consentimiento para crear un clon digital de sí mismo antes de su muerte física, no puede dar consentimiento para las acciones que pueda realizar el clon digital.
Como se describió anteriormente, los deepfakes son una forma de manipulación de videos en la que uno puede cambiar a las personas presentes al proporcionar varias imágenes de una persona específica que desee. Además, también se puede cambiar la voz y las palabras que dice la persona en el video simplemente enviando una serie de grabaciones de voz de la nueva persona que duren aproximadamente uno o dos minutos. En 2018, se lanzó una nueva aplicación llamada FakeApp, que permite al público acceder fácilmente a esta tecnología para crear videos. Esta aplicación también se utilizó para crear el video de Buzzfeed del expresidente Barack Obama . [6] [12] Con los deepfakes, las industrias pueden reducir el costo de contratar actores o modelos para películas y anuncios al crear videos y películas de manera eficiente a un bajo costo simplemente recopilando una serie de fotos y grabaciones de audio con el consentimiento del individuo. [13]
Una de las posibles preocupaciones que plantean los deepfakes es que permiten el acceso a prácticamente cualquier persona que descargue las distintas aplicaciones que ofrecen el mismo servicio. Como cualquiera puede acceder a esta herramienta, algunos pueden utilizarla de forma maliciosa para crear pornografía vengativa y vídeos manipuladores de funcionarios públicos que hacen declaraciones que nunca dirían en la vida real. Esto no solo invade la privacidad del individuo que aparece en el vídeo, sino que también plantea diversas cuestiones éticas. [14]
La clonación de voz es un ejemplo de los métodos de falsificación de audio que utilizan inteligencia artificial para generar un clon de la voz de una persona. La clonación de voz implica un algoritmo de aprendizaje profundo que toma grabaciones de voz de una persona y puede sintetizar dicha voz hasta el punto en que puede replicar fielmente una voz humana con gran precisión de tono y semejanza. [15]
Para clonar una voz se necesitan ordenadores de alto rendimiento. Normalmente, los cálculos se realizan mediante la Unidad de Procesamiento Gráfico (GPU) , y muy a menudo se recurre a la computación en la nube , debido a la enorme cantidad de cálculos necesarios.
Los datos de audio para el entrenamiento se deben introducir en un modelo de inteligencia artificial. Suelen ser grabaciones originales que proporcionan un ejemplo de la voz de la persona en cuestión. La inteligencia artificial puede utilizar estos datos para crear una voz auténtica, que puede reproducir lo que se escribe (conocida como Text-To-Speech ) o lo que se dice (conocida como Speech-To-Speech).
Esta tecnología preocupa a muchos por su impacto en diversas cuestiones, desde el discurso político hasta el Estado de derecho. Algunas de las primeras señales de alerta ya han aparecido en forma de estafas telefónicas [16] [17] y vídeos falsos en las redes sociales de personas haciendo cosas que nunca hicieron. [18]
Las protecciones contra estas amenazas se pueden implementar principalmente de dos maneras. La primera es crear una manera de analizar o detectar la autenticidad de un video. Este enfoque será inevitablemente una ventaja, ya que los generadores en constante evolución superan a estos detectores. La segunda manera podría ser incrustar la información de creación y modificación en software o hardware. [19] [20] Esto funcionaría solo si los datos no fueran editables, pero la idea sería crear una marca de agua inaudible que actuaría como una fuente de verdad. [21] En otras palabras, podríamos saber si el video es auténtico al ver dónde fue filmado, producido, editado, etc. [15]
15.ai —una aplicación web freeware no comercial que comenzó como una prueba de concepto de la democratización de la actuación de voz y el doblaje mediante tecnología— brinda al público acceso a dicha tecnología. [22] Su naturaleza gratuita y no comercial (con la única estipulación de que el proyecto sea reconocido adecuadamente cuando se use [23] ), facilidad de uso y mejoras sustanciales en las implementaciones actuales de texto a voz han sido elogiadas por los usuarios; [24] [25] [26] sin embargo, algunos críticos y actores de voz han cuestionado la legalidad y ética de dejar dicha tecnología disponible públicamente y de fácil acceso. [22] [27] [28] [29]
Aunque esta aplicación todavía está en la etapa de desarrollo, está desarrollándose rápidamente debido a que grandes corporaciones tecnológicas, como Google y Amazon, están invirtiendo grandes cantidades de dinero en su desarrollo. [30]
Algunos de los usos positivos de la clonación de voz incluyen la capacidad de sintetizar millones de audiolibros sin el uso de mano de obra humana. [31] Además, la clonación de voz se utilizó para traducir contenido de podcast a diferentes idiomas utilizando la voz del podcaster. [32] Otro incluye que aquellos que pueden haber perdido su voz pueden recuperar un sentido de individualidad creando su clon de voz ingresando grabaciones de ellos hablando antes de perder sus voces. [33]
Por otra parte, la clonación de voz también es susceptible de ser mal utilizada. Un ejemplo de ello es la clonación de voces de celebridades y funcionarios públicos, en la que la voz puede decir algo que provoque un conflicto a pesar de que la persona real no tenga ninguna relación con lo que dijo su voz. [34]
En reconocimiento de la amenaza que la clonación de voz representa para la privacidad, la civilidad y los procesos democráticos, las instituciones, incluida la Comisión Federal de Comercio , el Departamento de Justicia de los EE. UU. y la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) y el Ministerio de Educación, Universidad e Investigación de Italia (MIUR) , han evaluado varios casos de uso de deepfake de audio y métodos que podrían usarse para combatirlos. [35] [36] [37]
La clonación digital puede ser útil en un entorno educativo para crear una experiencia más inmersiva para los estudiantes. Algunos estudiantes pueden aprender mejor a través de una experiencia más interactiva y la creación de deepfakes puede mejorar la capacidad de aprendizaje de los estudiantes. Un ejemplo de esto incluye la creación de un clon digital de figuras históricas, como Abraham Lincoln , para mostrar los problemas que enfrentó durante su vida y cómo pudo superarlos. Otro ejemplo de uso de clones digitales en un entorno educativo es hacer que los oradores creen un clon digital de ellos mismos. Varios grupos de defensa pueden tener problemas con los horarios, ya que visitan varias escuelas durante el año. Sin embargo, al crear clones digitales de ellos mismos, sus clones pueden presentar el tema en lugares donde el grupo no podría llegar físicamente. Estos beneficios educativos pueden brindarles a los estudiantes una nueva forma de aprender, además de brindar acceso a aquellos que anteriormente no podían acceder a los recursos debido a las condiciones ambientales. [13]
Aunque la clonación digital ya ha estado en la industria del entretenimiento y las artes por un tiempo, la inteligencia artificial puede expandir enormemente los usos de estas tecnologías en la industria. La industria cinematográfica puede crear actores y actrices aún más hiperrealistas que han muerto. Además, la industria cinematográfica también puede crear clones digitales en escenas de películas que pueden requerir extras, lo que puede ayudar a reducir enormemente el costo de producción. Sin embargo, la clonación digital y otras tecnologías pueden ser beneficiosas para fines no comerciales. Por ejemplo, los artistas pueden ser más expresivos si buscan sintetizar avatares para que formen parte de su producción de video. También pueden crear avatares digitales para redactar su trabajo y ayudar a formular sus ideas antes de seguir trabajando en el trabajo final. [13] El actor Val Kilmer perdió la voz en 2014 después de una traqueotomía debido a su cáncer de garganta . Sin embargo, se asoció con una empresa de inteligencia artificial que produjo una voz sintética basada en sus grabaciones anteriores. La voz le permitió a Kilmer retomar su papel de "Iceman" de Top Gun de 1986 en la película secuela de 2022 Top Gun: Maverick . [38]
Aunque la inmortalidad digital existe desde hace tiempo, ya que las cuentas de las personas fallecidas en las redes sociales siguen estando en el ciberespacio, crear un clon virtual que sea inmortal adquiere un nuevo significado. Con la creación de un clon digital, uno no solo puede capturar la presencia visual de sí mismo, sino también su forma de ser, incluida la personalidad y la cognición. Con la inmortalidad digital, uno puede seguir interactuando con una representación de sus seres queridos después de que hayan muerto. Además, las familias pueden conectarse con las representaciones de varias generaciones, formando un árbol genealógico, en cierto sentido, para transmitir el legado familiar a las generaciones futuras, proporcionando una forma de transmitir la historia. [7]
Ante la falta de regulación de los deepfakes, han surgido varias preocupaciones. Algunos de los vídeos deepfakes que pueden causar daños potenciales incluyen la representación de funcionarios políticos mostrando un comportamiento inapropiado, oficiales de policía que se muestran disparando a hombres negros desarmados y soldados asesinando a civiles inocentes, aunque tal vez nunca hayan ocurrido en la vida real. [39] Con la publicación de estos vídeos hiperrealistas en Internet, es muy fácil que el público esté mal informado, lo que podría llevar a las personas a tomar medidas, contribuyendo así a este círculo vicioso de daños innecesarios. Además, con el aumento de las noticias falsas en las noticias recientes, también existe la posibilidad de combinar deepfakes y noticias falsas. Esto traerá más dificultades para distinguir lo que es real y lo que es falso. La información visual puede ser muy convincente para los ojos humanos, por lo tanto, la combinación de deepfakes y noticias falsas puede tener un efecto perjudicial en la sociedad. [13] Las empresas de redes sociales y otras plataformas de noticias deberían establecer regulaciones estrictas. [40]
Otra razón por la que los deepfakes pueden usarse maliciosamente es para sabotear a otra persona a nivel personal. Con la mayor accesibilidad de las tecnologías para crear deepfakes, los chantajistas y ladrones pueden extraer fácilmente información personal para obtener ganancias económicas y por otras razones creando videos de seres queridos de la víctima pidiendo ayuda. [13] Además, la clonación de voz puede usarse maliciosamente para que los delincuentes hagan llamadas telefónicas falsas a las víctimas. Las llamadas telefónicas tendrán la voz y los gestos exactos de la persona, lo que puede engañar a la víctima para que le dé información privada al delincuente sin saberlo. [41] Alternativamente, un mal actor podría, por ejemplo, crear un deepfake de una persona superpuesto a un video para extraer el pago del chantaje y/o como un acto de pornografía vengativa .
La creación de deepfakes y clones de voz para uso personal puede ser extremadamente difícil según la ley porque no se produce ningún daño comercial. Más bien, suelen producirse en forma de daño psicológico y emocional, lo que dificulta que los tribunales puedan ofrecer una reparación. [5]
Aunque existen numerosos problemas legales que surgen con el desarrollo de dicha tecnología, también hay problemas éticos que pueden no estar protegidos por las legislaciones actuales. Uno de los mayores problemas que conlleva el uso de deepfakes y clonación de voz es el potencial robo de identidad. Sin embargo, el robo de identidad en términos de deepfakes es difícil de procesar porque actualmente no existen leyes específicas para deepfakes. Además, los daños que puede traer el uso malintencionado de deepfakes son más psicológicos y emocionales que económicos, lo que hace que sea más difícil proporcionar una solución. Allen sostiene que la forma en que se debe tratar la privacidad de uno es similar al imperativo categórico de Kant . [5]
Otra implicación ética es el uso de información privada y personal que uno debe entregar para usar la tecnología. Debido a que la clonación digital, las falsificaciones profundas y la clonación de voz utilizan un algoritmo de aprendizaje profundo, cuanto más información reciba el algoritmo, mejores serán los resultados. [42] Sin embargo, cada plataforma tiene un riesgo de violación de datos, lo que podría llevar a que grupos a los que los usuarios nunca dieron su consentimiento accedan a información muy personal. Además, la privacidad post mortem se pone en tela de juicio cuando los familiares de un ser querido intentan recopilar la mayor cantidad de información posible para crear un clon digital del fallecido sin el permiso de cuánta información están dispuestos a entregar. [43]
En Estados Unidos, las leyes de derechos de autor exigen algún tipo de originalidad y creatividad para proteger la individualidad del autor. Sin embargo, crear un clon digital simplemente significa tomar datos personales, como fotos, grabaciones de voz y otra información para crear una persona virtual que sea lo más parecida posible a la persona real. En la decisión del caso Feist Publications Inc. v. Rural Television Services Company, Inc. de la Corte Suprema , la jueza O'Connor enfatizó la importancia de la originalidad y cierto grado de creatividad. Sin embargo, el alcance de la originalidad y la creatividad no está claramente definido, lo que crea una zona gris para las leyes de derechos de autor. [44] La creación de clones digitales requiere no solo los datos de la persona, sino también la opinión del creador sobre cómo debe actuar o moverse el clon digital. En Meshwerks v. Toyota, se planteó esta cuestión y el tribunal declaró que las mismas leyes de derechos de autor creadas para la fotografía deberían aplicarse a los clones digitales. [44]
Con la actual falta de legislaciones para proteger a las personas contra el posible uso malicioso de la clonación digital, el derecho de publicidad puede ser la mejor manera de protegerse en un entorno legal. [4] El derecho de publicidad , también conocido como derechos de la personalidad, otorga autonomía al individuo cuando se trata de controlar su propia voz, apariencia y otros aspectos que esencialmente conforman su personalidad en un entorno comercial. [45] Si surge un video deepfake o un clon digital de uno sin su consentimiento, que muestra al individuo realizando acciones o haciendo declaraciones que están fuera de su personalidad, puede emprender acciones legales alegando que está violando su derecho a la publicidad. Aunque el derecho a la publicidad establece específicamente que está destinado a proteger la imagen de un individuo en un entorno comercial, lo que requiere algún tipo de beneficio, algunos afirman que la legislación puede actualizarse para proteger prácticamente la imagen y la personalidad de cualquier persona. [46] Otra nota importante es que el derecho de publicidad solo se implementa en estados específicos, por lo que algunos estados pueden tener diferentes interpretaciones del derecho en comparación con otros estados.
Los clones digitales y de pensamiento plantean cuestiones jurídicas relacionadas con la privacidad de los datos, el consentimiento informado, la lucha contra la discriminación, los derechos de autor y el derecho de publicidad. Más jurisdicciones necesitan urgentemente promulgar una legislación similar al Reglamento General de Protección de Datos en Europa para proteger a las personas contra los usos inescrupulosos y perjudiciales de sus datos y el desarrollo y uso no autorizados de clones digitales de pensamiento. [3]
Una forma de evitar ser víctima de cualquiera de las tecnologías mencionadas anteriormente es desarrollar inteligencia artificial contra estos algoritmos. Ya hay varias empresas que han desarrollado inteligencia artificial que puede detectar imágenes manipuladas observando los patrones en cada píxel. [47] Aplicando una lógica similar, están tratando de crear un software que tome cada fotograma de un vídeo determinado y lo analice píxel por píxel para encontrar el patrón del vídeo original y determinar si ha sido o no manipulado. [48]
Además de desarrollar nuevas tecnologías que puedan detectar cualquier manipulación de video, muchos investigadores están planteando la importancia de que las corporaciones privadas creen pautas más estrictas para proteger la privacidad individual. [30] Con el desarrollo de la inteligencia artificial, es necesario preguntarse cómo afecta esto a la sociedad actual, ya que comienza a aparecer en prácticamente todos los aspectos de la sociedad, incluida la medicina , la educación , la política y la economía . Además, la inteligencia artificial comenzará a aparecer en varios aspectos de la sociedad, lo que hace que sea importante tener leyes que protejan los derechos humanos a medida que la tecnología se hace cargo. A medida que el sector privado gana más poder digital sobre el público, es importante establecer regulaciones y leyes estrictas para evitar que las corporaciones privadas utilicen datos personales de forma maliciosa. Además, el historial pasado de varias violaciones de datos y de la política de privacidad también debería ser una advertencia sobre cómo se puede acceder y utilizar la información personal sin el consentimiento de la persona. [8]
Otra forma de evitar que estas tecnologías nos perjudiquen es educando a la gente sobre los pros y los contras de la clonación digital. De este modo, cada individuo podrá tomar una decisión racional en función de sus propias circunstancias. [49] Además, también es importante educar a la gente sobre cómo proteger la información que publica en Internet. Al aumentar la alfabetización digital del público, la gente tiene más posibilidades de determinar si un determinado vídeo ha sido manipulado, ya que puede ser más escéptica con la información que encuentra en línea. [30]