Desde el entretenimiento tradicional hasta los videojuegos, la tecnología deepfake ha evolucionado para ser cada vez más convincente[11] y disponible para el público, lo que permite la disrupción de la industria del entretenimiento y los medios[12]
Tradicionalmente, los fakes audiovisuales, que más adelante terminarían nombrándose deepfakes, eran aquellas obras que pretendían engañar a través de los estímulos visuales y auditivos, como sería el caso del cine, la televisión e internet.
Un ejemplo lo encontramos en la emisión radiofónica "La guerra de los mundos", dirigida y narrada por Orson Welles en 1938.
[13][14] Por último, también habría que destacar el momento histórico donde el explorador y médico estadounidense Frederick Cook presentó públicamente una serie de pruebas audiovisuales (archivos sonoros y fotografías) afirmando que había llegado al Polo Norte en 1908, cuando no fue así.
[16][17] Los Deepfakes utilizan los algoritmos RGAs del cual dos modelos de Aa (Aprendizaje automático) son presentados con objetivos antagónicos.
[18] Teniendo lo anterior presente, es claro ahora entender por qué el uso de esta tecnología ha sido dirigida primordial mente a figuras públicas.
Actualmente, las técnicas para identificar deepfakes han conseguido llegar a un nivel de precisión del 86, 6%, lo cual está muy bien, pero en un futuro se tendría que poder asegurar llegar al 99% de seguridad y consistencia.
Los métodos que hoy en día se están utilizando para identificar los deepfakes y por el momento han funcionado correctamente son varios.
Un ejemplo sería la rapidez en la que los humanos pueden pronunciar determinados sonidos con los músculos de la boca y las cuerdas vocales.
[22] Aunque los deepfakes normalmente se utilizan con intenciones fraudulentas, también ha habido personas que han querido aprovechar satisfactoriamente este nuevo avance tecnológico como un aporte en diversos ámbitos.
[21] Hay que destacar per, que ya se ha empezado a experimentar con alguna es estas técnicas en el ámbito cinematográfico, razón por la cual se ha podido avanzar tanto en el realismo de las películas de animación o en los efectos especiales en general.
La sorpresa final, también impresionante, es que siempre termina la conversación preguntando a los visitantes si se quieren hacer una selfie con él, se gira y toma una, la cual después te puedes enviar en el móvil.
[25] Un ejemplo muy claro e ilustrativo del empleo de deepfakes en el ámbito empresarial es la posibilidad que uno pudiera probarse la ropa por internet a través de un personaje artificial creado a partir de un deepfake con las propias proporciones, figura, etnia y rostro del cibernauta, elemento que sería totalmente revolucionario y útil en el comercio electrónico (e-commerce).
[27] Eso obliga a los informáticos a intentar encontrar inmediatamente soluciones para afirmar, comprobar y autentificar el contenido informativo de las redes sociales para evitar que personas con intenciones malévolas manipulen la opinión pública.
Como dice la investigadora Aviv Ovadya en The Washington Post: “It’s too much effort to figure out what’s real and what’s not, so you’re more willing to just go with whatever your previous affiliations are.” [28]Por este motivo, los periodistas de hoy en día tienen un trabajo clave en la elección y comprobación de autenticidad de un hecho y vídeo.
[21] Una de les razones por las que es tan difícil identificar deepfakes es que estos parten de imágenes reales, pueden también incorporar audio con sonoridad prácticamente auténtica y realista, y una vez publicados en las redes sociales, su difusión mundial es inmediata.
[21] Consecuentemente, la peligrosidad de esta nueva tecnología en la era en la que estamos la explican muy bien Robert Chesney y Danielle Citron en un artículo de Foreign Affairs:"Deepfakes have the potential to be especially destructive because they are arriving at a time when it already is becoming harder to separate fact from fiction."
[29]Por otro lado, con la llegada del audio deepfake se han tenido que tomar medidas importantes y profundas sobre todo en la seguridad de las llamadas telefónicas.
Ello provocaría una visión negativa del pueblo, que ya no querría votar al susodicho.
[34] La actriz noruega Ingvild Deila interpretó a la Princesa Leia en Rogue One: una historia de Star Wars, aunque su cara no apareció en la gran pantalla.
Algo más adelante, Carrie Fisher falleció durante el rodaje y se volvieron a aplicar nuevamente las mismas técnicas.
[35] Aun así, el mundo del cine se encuentra debatiendo la posición legitima y las oportunidades que esta tecnología brinda a la producción de contenido audiovisual.
[38] Actualmente aunque se han buscando alternativas para contraatacar este contenido falso, se ha especulado que aproximadamente un 96% del contenido creado por los algoritmos de Deepfake han sido para la creación de vídeos pornográficos.
[41] Desde ese entonces ha habido un incremento en la producción de vídeos que involucran a políticos tales como uno publicado en el 2019 que consiste en sobreponer la cara del presidente Donald Trump sobre la actuación del comediante Jimmy Fallon.
[43] Existen figuras políticas tales como Marco Rubio que han comparado esta tecnología emergentes como las armas nucleares del siglo XXI.
El DeepfakeMalware puede manipular la opinión pública creando narrativas falsas difíciles de detectar.
Los usuarios deben conocer los riesgos éticos y legales respecto a la privacidad que hay por ejemplo al compartir un video privado en un grupo de WhatsApp.
Además, la tecnología es cada vez más accesible a cualquier usuario (hay incluso aplicaciones gratuitas, como el caso del software Deep Nostalgia[49] que permite animar fotografías antiguas), por lo que hoy en día no sólo los expertos pueden crear Deepfakes.
En tercer lugar, en la lucha contra el uso indebido de la IA deben desarrollarse sistemas digitales basados también en IA que distingan imágenes reales de las manipuladas, como ya se hace con los bulos informativos (fakes news).
Colombia por su parte, opta por sumarse a las tendencias internacionales y en 2022 adoptó las recomendaciones de la UNESCO.