El arte de inteligencia artificial es una obra de arte visual creada mediante el uso de un programa de inteligencia artificial (IA). [1]
Los artistas comenzaron a crear arte con inteligencia artificial a mediados y finales del siglo XX, cuando se fundó la disciplina. A lo largo de su historia , el arte con inteligencia artificial ha suscitado muchas preocupaciones filosóficas relacionadas con la mente humana , los seres artificiales y lo que puede considerarse arte en una colaboración entre humanos e IA. Desde el siglo XX, los artistas han utilizado la IA para crear arte, parte del cual se ha exhibido en museos y ha ganado premios. [2]
Durante el auge de la IA de principios de la década de 2020, los modelos de texto a imagen como Midjourney , DALL-E y Stable Diffusion se volvieron ampliamente disponibles para el público, lo que permitió a los no artistas generar imágenes rápidamente con poco esfuerzo. [3] Los comentarios sobre el arte de IA en la década de 2020 a menudo se han centrado en cuestiones relacionadas con los derechos de autor , el engaño , la difamación y su impacto en los artistas más tradicionales, incluido el desempleo tecnológico .
El concepto de arte automatizado se remonta al menos a los autómatas de la antigua civilización griega , donde se describía a inventores como Dédalo y Herón de Alejandría por haber diseñado máquinas capaces de escribir texto, generar sonidos y reproducir música. [4] [5] La tradición de los autómatas creativos ha florecido a lo largo de la historia, como el autómata de Maillardet , creado alrededor de 1800 y capaz de crear múltiples dibujos y poemas almacenados en sus "levas", los discos de latón que guardan la memoria. [6]
En 1950, con la publicación del artículo de Alan Turing Computing Machinery and Intelligence , se pasó de definir la inteligencia en relación con las máquinas en términos abstractos a evaluar si una máquina puede imitar el comportamiento y las respuestas humanas de manera convincente. [7] Poco después, la disciplina académica de la inteligencia artificial se fundó en un taller de investigación en el Dartmouth College en 1956 y ha experimentado varias oleadas de avance y optimismo en las décadas posteriores. [8] Desde su fundación, los investigadores en el campo han planteado argumentos filosóficos y éticos sobre la naturaleza de la mente humana y las consecuencias de crear seres artificiales con inteligencia similar a la humana; estos temas han sido explorados previamente por el mito , la ficción y la filosofía desde la antigüedad . [9]
Desde la fundación de la IA en la década de 1950, los artistas e investigadores han utilizado la inteligencia artificial para crear obras artísticas. Estas obras a veces se denominan arte algorítmico , [10] arte informático , arte digital o nuevos medios . [11]
Uno de los primeros sistemas de arte de IA importantes es AARON , desarrollado por Harold Cohen a partir de finales de la década de 1960 en la Universidad de California en San Diego. [12] AARON utiliza un enfoque basado en reglas simbólicas para generar imágenes técnicas en la era de la programación GOFAI , y fue desarrollado por Cohen con el objetivo de poder codificar el acto de dibujar. [13] En su forma más temprana, AARON creó dibujos abstractos en blanco y negro que luego Cohen terminaría pintándolos. A lo largo de los años, también comenzó a desarrollar una forma para que AARON también pintara, utilizando pinceles y tintes especiales que fueron elegidos por el propio programa sin mediación de Cohen. [14] Después de años de trabajo, AARON se exhibió en 1972 en el Museo de Arte del Condado de Los Ángeles . [15] De 1973 a 1975, Cohen refinó AARON durante una residencia en el Laboratorio de Inteligencia Artificial de la Universidad de Stanford . [16] En 2024, el Museo Whitney de Arte Estadounidense exhibió arte de IA de toda la carrera de Cohen, incluidas versiones recreadas de sus primeras máquinas de dibujo robóticas. [16]
Karl Sims ha exhibido arte creado con vida artificial desde la década de 1980. Recibió una maestría en gráficos de computadora del MIT Media Lab en 1987 y fue artista residente de 1990 a 1996 en el fabricante de supercomputadoras y empresa de inteligencia artificial Thinking Machines . [17] [18] [19] Tanto en 1991 como en 1992, Sims ganó el premio Golden Nica en Prix Ars Electronica por sus videos animados de IA en 3D utilizando evolución artificial. [20] [21] [22] En 1997, Sims creó la instalación interactiva Galápagos para el NTT InterCommunication Center en Tokio . [23] En esta instalación, los espectadores ayudan a evolucionar criaturas animadas en 3D seleccionando cuáles podrán vivir y producir nuevas crías mutadas. Además, Sims recibió un premio Emmy en 2019 por logros sobresalientes en el desarrollo de ingeniería. [24]
Eric Millikin ha estado creando películas animadas utilizando inteligencia artificial desde la década de 1980, y comenzó a publicar arte en Internet utilizando CompuServe a principios de la década de 1980. [25] [26]
En 1999, Scott Draves y un equipo de varios ingenieros crearon y lanzaron Electric Sheep como un salvapantallas de software libre . [27] Electric Sheep es un proyecto informático voluntario para animar y desarrollar llamas fractales, que a su vez se distribuyen a las computadoras en red, que las muestran como salvapantallas. El salvapantallas utilizó IA para crear una animación infinita aprendiendo de su audiencia. En 2001, Draves ganó el premio Fundación Telefónica Life 4.0 [28] por Electric Sheep .
Durante la era del aprendizaje profundo, existen principalmente estos tipos de diseños para el arte generativo: modelos autorregresivos , modelos de difusión , GAN , flujos normalizadores .
En 2014, Ian Goodfellow y sus colegas de la Universidad de Montreal desarrollaron la red generativa antagónica (GAN), un tipo de red neuronal profunda capaz de aprender a imitar la distribución estadística de datos de entrada, como imágenes. La GAN utiliza un "generador" para crear nuevas imágenes y un "discriminador" para decidir qué imágenes creadas se consideran exitosas. [29] A diferencia del arte algorítmico anterior que seguía reglas codificadas a mano, las redes generativas antagónicas podían aprender una estética específica al analizar un conjunto de datos de imágenes de ejemplo. [10]
En 2015, un equipo de Google lanzó DeepDream , un programa que utiliza una red neuronal convolucional para encontrar y mejorar patrones en imágenes a través de pareidolia algorítmica . [30] [31] [32] El proceso crea imágenes deliberadamente sobreprocesadas con una apariencia onírica que recuerda a una experiencia psicodélica . [33]
En 2017, una GAN condicional aprendió a generar 1000 clases de imágenes de ImageNet . [34]
Para la generación de imágenes se utilizaron modelos autorregresivos , como PixelRNN (2016), que genera autorregresivamente un píxel tras otro con una red neuronal recurrente . [35] Inmediatamente después de que se propusiera la arquitectura Transformer en Attention Is All You Need (2018), se utilizó para la generación autorregresiva de imágenes, pero sin condicionamiento de texto. [36]
En 2018, se llevó a cabo una subasta de arte de inteligencia artificial en la casa de subastas Christie's en Nueva York, donde la obra de arte de IA Edmond de Belamy (un juego de palabras con el nombre de Goodfellow) se vendió por US$ 432.500, que fue casi 45 veces más alto que su estimación de US$ 7.000-10.000. La obra de arte fue creada por Obvious, un colectivo con sede en París . [37] [38] [39] El sitio web Artbreeder , lanzado en 2018, utiliza los modelos StyleGAN y BigGAN [40] [41] para permitir a los usuarios generar y modificar imágenes como rostros, paisajes y pinturas. [42]
En 2019, Stephanie Dinkins ganó el premio Creative Capital por su creación de una inteligencia artificial en evolución basada en los "intereses y culturas de las personas de color". [43] También en 2019, Sougwen Chung ganó el premio Lumen por sus actuaciones con un brazo robótico que usa IA para intentar dibujar de una manera similar a Chung. [44]
En la década de 2020, los modelos de texto a imagen , que generan imágenes basadas en indicaciones , se volvieron ampliamente utilizados. [3]
En 2021, utilizando los influyentes modelos de transformadores generativos de lenguaje grande preentrenados que se utilizan en GPT-2 y GPT-3 , OpenAI lanzó una serie de imágenes creadas con el modelo de IA de texto a imagen DALL-E 1. [ 45] Era un modelo generativo autorregresivo con esencialmente la misma arquitectura que GPT-3.
Más tarde en 2021, EleutherAI lanzó el VQGAN-CLIP de código abierto [46] basado en el modelo CLIP de OpenAI. [47]
Los modelos de difusión se propusieron en 2015, [48] pero recién se volvieron mejores que las GAN a principios de 2021. [49] El modelo de difusión latente se publicó en diciembre de 2021 y se convirtió en la base para la posterior difusión estable (agosto de 2022). [50]
En 2022, se lanzó Midjourney [51] , seguido de Imagen y Parti de Google Brain , que se anunciaron en mayo de 2022, NUWA-Infinity de Microsoft , [52] [3] y Stable Diffusion , disponible en código fuente , que se lanzó en agosto de 2022. [53] [54] [55] DALL-E 2, un sucesor de DALL-E, fue probado en versión beta y lanzado. A diferencia de DALL-E 1, era un modelo de difusión. [56] Stability AI tiene una interfaz web de Stable Diffusion llamada DreamStudio, [57] complementos para Krita , Photoshop , Blender y GIMP , [58] y la interfaz de usuario de código abierto basada en web Automatic1111 . [59] [60] [61] El modelo principal preentrenado de Stable Diffusion se comparte en Hugging Face Hub . [62]
En 2023, Eric Millikin estrenó The Dance of the Nain Rouge , un documental creado con tecnología deepfake de IA sobre la leyenda del folclore de Detroit del Nain Rouge. La película se describe como "un documental experimental descolonial de danza onírica deepfake sobre demonología de Detroit". [63] Recibió el "Premio a la Mejor Tecnología Innovadora" ("Premio Migliori Tecnologie Innovative") en el Festival de Cine de Robots de Pisa de 2024 en Italia [64] y el "Premio a la Mejor Película de Animación" en el Festival de Cine Absurdo de 2024 en Italia. [65]
Hay muchas herramientas disponibles para el artista cuando trabaja con modelos de difusión. Pueden definir indicaciones tanto positivas como negativas, pero también se les ofrece la opción de usar (u omitir el uso de) VAE, LorAs, hiperredes, ipadapter e incrustaciones/inversiones textuales. A veces, hay variables disponibles para realizar ajustes, como CFG, seed, steps, sampler, scheduler, denoise, upscaler y encoder. Se puede ejercer una influencia adicional durante la preinferencia mediante la manipulación del ruido, mientras que las técnicas de posprocesamiento tradicionales se utilizan con frecuencia después de la inferencia. Los artistas también pueden entrenar sus propios modelos.
Además, se han desarrollado sistemas de generación de imágenes "basados en reglas" que utilizan patrones matemáticos, algoritmos que simulan pinceladas y otros efectos de pintura y algoritmos de aprendizaje profundo como las redes generativas antagónicas (GAN) y los transformadores. Varias empresas han lanzado aplicaciones y sitios web que permiten prescindir por completo de todas las opciones mencionadas y centrarse únicamente en el mensaje positivo. También existen programas que transforman fotografías en imágenes de tipo artístico al estilo de conjuntos de pinturas bien conocidos. [66] [67]
Existen muchas opciones, desde aplicaciones móviles simples para el consumidor hasta cuadernos Jupyter y webUI que requieren GPU potentes para funcionar de manera efectiva. [68] Las funcionalidades adicionales incluyen la "inversión textual", que se refiere a habilitar el uso de conceptos proporcionados por el usuario (como un objeto o un estilo) aprendidos a partir de algunas imágenes. Luego, se puede generar arte novedoso a partir de las palabras asociadas (el texto que se ha asignado al concepto aprendido, a menudo abstracto) [69] [70] y extensiones de modelo o ajustes finos (como DreamBooth).
La IA tiene el potencial de una transformación social , que puede incluir la habilitación de la expansión de géneros de nicho no comerciales (como los derivados del cyberpunk como el solarpunk ) por parte de aficionados, entretenimiento novedoso, creación rápida de prototipos, [71] aumento de la accesibilidad a la creación artística, [71] y la producción artística por esfuerzo y/o gastos y/o tiempo [71] —por ejemplo, mediante la generación de borradores, redefiniciones de borradores y componentes de imagen ( repintado ). Las imágenes generadas a veces se utilizan como bocetos, [72] experimentos de bajo costo, [73] inspiración o ilustraciones de ideas en etapa de prueba de concepto . Las funcionalidades o mejoras adicionales también pueden estar relacionadas con la edición manual posterior a la generación (es decir, pulido), como ajustes posteriores con un editor de imágenes. [73]
Los mensajes para algunos modelos de texto a imagen también pueden incluir imágenes y palabras clave y parámetros configurables, como el estilo artístico, que a menudo se usa a través de frases clave como "en el estilo de [nombre de un artista]" en el mensaje [74] y/o la selección de un estilo estético/artístico amplio. [75] [72] Existen plataformas para compartir, intercambiar, buscar, bifurcar/refinar y/o colaborar en mensajes para generar imágenes específicas a partir de generadores de imágenes. [76] [77] [78] [79] Los mensajes a menudo se comparten junto con imágenes en sitios web para compartir imágenes como Reddit y sitios web dedicados al arte de IA. Un mensaje no es la entrada completa necesaria para la generación de una imagen; las entradas adicionales que determinan la imagen generada incluyen la resolución de salida , la semilla aleatoria y los parámetros de muestreo aleatorio. [80]
Los medios sintéticos , que incluyen el arte con IA, se describieron en 2022 como una importante tendencia impulsada por la tecnología que afectará a las empresas en los próximos años. [71] La sintografía es un término propuesto para la práctica de generar imágenes similares a fotografías utilizando IA. [81]
Los académicos de derecho, los artistas y las corporaciones de medios han considerado las implicaciones legales y éticas del arte con inteligencia artificial desde el siglo XX.
En 1985, la profesora de derecho de propiedad intelectual Pamela Samuelson argumentó que los derechos de autor de los EE. UU. deberían asignar las obras de arte generadas algorítmicamente al usuario del programa informático. [82] Un artículo de Florida Law Review de 2019 presentó tres perspectivas sobre el tema. En la primera, la propia inteligencia artificial se convertiría en la propietaria de los derechos de autor; para ello, sería necesario modificar la Sección 101 de la Ley de Derechos de Autor de los EE. UU. para definir al "autor" como una persona física o una computadora. En la segunda, siguiendo el argumento de Samuelson, el usuario, el programador o la empresa de inteligencia artificial sería el propietario de los derechos de autor. Esto sería una expansión de la doctrina del " trabajo por encargo ", según la cual la propiedad de un derecho de autor se transfiere al "empleador". En la tercera situación, las cesiones de derechos de autor nunca se producirían y dichas obras serían de dominio público , ya que las cesiones de derechos de autor requieren un acto de autoría. [83]
En 2022, coincidiendo con la creciente disponibilidad de servicios de generación de imágenes de IA para el consumidor, se renovó el debate popular sobre la legalidad y la ética del arte generado por IA. Un tema en particular es la inclusión de obras de arte e imágenes con derechos de autor en los conjuntos de datos de entrenamiento de IA, y los artistas se oponen a que los productos de IA comerciales utilicen sus obras sin consentimiento, crédito o compensación financiera. [84] En septiembre de 2022, Reema Selhi, de la Design and Artists Copyright Society , afirmó que "no existen salvaguardas para que los artistas puedan identificar obras en bases de datos que se están utilizando y optar por no participar". [85] Algunos han afirmado que las imágenes generadas con estos modelos pueden parecerse a obras de arte existentes, a veces incluyendo restos de la firma del artista original. [85] [86] En diciembre de 2022, los usuarios de la plataforma de cartera ArtStation organizaron una protesta en línea contra el uso no consentido de sus obras de arte dentro de los conjuntos de datos; esto dio lugar a servicios de exclusión voluntaria, como "¿Me han entrenado?" ganando cada vez más protagonismo, así como algunas plataformas de arte en línea que prometen ofrecer sus propias opciones de exclusión voluntaria. [87] Según la Oficina de Derechos de Autor de los Estados Unidos , los programas de inteligencia artificial no pueden tener derechos de autor, [88] [89] [90] una decisión confirmada a nivel del Distrito Federal a partir de agosto de 2023 siguió el razonamiento de la disputa de derechos de autor de la selfie del mono . [91]
En enero de 2023, tres artistas ( Sarah Andersen , Kelly McKernan y Karla Ortiz) presentaron una demanda por infracción de derechos de autor contra Stability AI, Midjourney y DeviantArt , alegando que es legalmente obligatorio obtener el consentimiento de los artistas antes de entrenar redes neuronales en su trabajo y que estas empresas infringieron los derechos de millones de artistas al hacerlo en cinco mil millones de imágenes extraídas de la web. [92] En julio de 2023, el juez de distrito estadounidense William Orrick se inclinó a desestimar la mayoría de las demandas presentadas por Andersen, McKernan y Ortiz, pero les permitió presentar una nueva denuncia. [93] También en 2023, Stability AI fue demandada por Getty Images por usar sus imágenes en los datos de entrenamiento. [94] Una herramienta creada por Simon Willison permitió a las personas buscar el 0,5% de los datos de entrenamiento de Stable Diffusion V1.1, es decir, 12 millones de los 2.300 millones de instancias de LAION 2B. La artista Karen Hallion descubrió que sus imágenes protegidas por derechos de autor se utilizaron como datos de entrenamiento sin su consentimiento. [95]
En marzo de 2024, Tennessee promulgó la Ley ELVIS , que prohíbe el uso de IA para imitar la voz de un músico sin permiso. [96] Un mes después ese mismo año, Adam Schiff presentó la Ley de Divulgación de Derechos de Autor de IA Generativa que, de aprobarse, requeriría que las empresas de IA envíen las obras protegidas por derechos de autor en sus conjuntos de datos al Registro de Derechos de Autor antes de lanzar nuevos sistemas de IA generativa. [97]
A medida que el software de imágenes de IA generativa como Stable Diffusion y DALL-E continúa avanzando, han aumentado los posibles problemas y preocupaciones que estos sistemas plantean para la creatividad y el arte. [95] En 2022, los artistas que trabajan en diversos medios expresaron su preocupación por el impacto que la inteligencia artificial generativa podría tener en su capacidad para ganar dinero, en particular si las imágenes basadas en IA comenzaban a reemplazar a los artistas que trabajaban en las industrias de la ilustración y el diseño . [98] [99] En agosto de 2022, el artista digital RJ Palmer declaró que "podría imaginar fácilmente un escenario en el que, utilizando IA, un solo artista o director de arte pudiera reemplazar a 5-10 artistas de nivel de entrada... He visto a muchos autores autopublicados y demás decir lo genial que será no tener que contratar a un artista". [86] Los académicos Jiang et al. afirman que "los líderes de empresas como Open AI y Stability AI han declarado abiertamente que esperan que los sistemas de IA generativa reemplacen a los creativos de manera inminente". [95]
Las imágenes basadas en IA se han vuelto más comunes en los mercados de arte y los motores de búsqueda porque los sistemas de texto a imagen basados en IA se entrenan a partir de imágenes artísticas preexistentes, a veces sin el consentimiento del artista original, lo que permite que el software imite los estilos de artistas específicos. [95] [100] Por ejemplo, el artista digital polaco Greg Rutkowski ha declarado que es más difícil buscar su trabajo en línea porque muchas de las imágenes en los resultados están generadas por IA específicamente para imitar su estilo. [54] Además, algunas bases de datos de entrenamiento en las que se basan los sistemas de IA no son accesibles al público.
La capacidad del software de arte basado en IA para imitar o falsificar el estilo artístico también plantea preocupaciones de malicia o codicia. [95] [101] [102] Las obras de arte generadas por IA, como Théâtre D'opéra Spatial , una ilustración de IA de texto a imagen que ganó el gran premio en la competencia de arte digital de agosto de 2022 en la Feria Estatal de Colorado , han comenzado a abrumar los concursos de arte y otros foros de presentación destinados a pequeños artistas. [95] [101] [102] El cortometraje de Netflix The Dog & the Boy , lanzado en enero de 2023, recibió críticas en línea por su uso de arte de inteligencia artificial para crear la obra de arte de fondo de la película. [103]
En ocasiones se ha considerado que el arte con IA puede reemplazar las imágenes de archivo tradicionales . [104] En 2023, Shutterstock anunció una prueba beta de una herramienta de IA que puede regenerar contenido parcial de otras imágenes de Shutterstock . Getty Images y Nvidia se han asociado con el lanzamiento de Generative AI de iStock , un modelo entrenado en la biblioteca de Getty y la biblioteca de fotos de iStock utilizando el modelo Picasso de Nvidia. [105]
Investigadores de Hugging Face y la Universidad Carnegie Mellon informaron en un artículo de 2023 que generar mil imágenes de 1024×1024 utilizando el modelo base XL 1.0 de Stable Diffusion requiere 11,49 kWh de energía y genera 1594 gramos (56,2 oz) de dióxido de carbono , lo que equivale aproximadamente a conducir un automóvil promedio a gasolina una distancia de 4,1 millas (6,6 km). Al comparar 88 modelos diferentes, el artículo concluyó que los modelos de generación de imágenes usaban en promedio alrededor de 2,9 kWh de energía por cada 1000 inferencias . [106]
Un estudio de caso de 2022 descubrió que las imágenes producidas con IA creadas con tecnología como DALL-E hicieron que algunos artistas tradicionales se preocuparan por perder trabajo, mientras que otros artistas pensaron que la tecnología puede ayudarlos a trabajar de manera más eficiente. [107] Algunos artistas usan el arte de IA para criticar y explorar la ética de usar datos recopilados para producir nuevas obras de arte. [108]
Al igual que con otros tipos de manipulación fotográfica desde principios del siglo XIX, algunas personas a principios del siglo XXI han estado preocupadas de que la IA pueda usarse para crear contenido engañoso y que pueda dañar la reputación de una persona, como los deepfakes . [109] La artista Sarah Andersen , que anteriormente había copiado y editado su arte para representar creencias neonazis , afirmó que la propagación del discurso de odio en línea puede empeorar con el uso de generadores de imágenes. [95] Algunos también generan imágenes o videos con el propósito de hacer catfishing .
Los sistemas de IA tienen la capacidad de crear contenido deepfake, que a menudo se considera dañino y ofensivo. La creación de deepfakes supone un riesgo para las personas que no han dado su consentimiento. [107] Esto se refiere principalmente a la pornografía vengativa , en la que se difunde material sexualmente explícito para humillar o dañar a otra persona. La pornografía infantil generada por IA se ha considerado un peligro potencial para la sociedad debido a su naturaleza ilegal. [110]
Para mitigar algunos engaños, ha existido una herramienta que intenta detectar imágenes que fueron generadas por Dall-E. [111]
Tras ganar el concurso abierto "Creative" de los Sony World Photography Awards de 2023, Boris Eldagsen afirmó que su propuesta había sido creada con inteligencia artificial. El fotógrafo Feroz Khan comentó a la BBC que Eldagsen había "demostrado claramente que incluso los fotógrafos experimentados y los expertos en arte pueden ser engañados". [113] Los concursos más pequeños también se han visto afectados; en 2023, un concurso organizado por el autor Mark Lawrence como Self-Published Fantasy Blog-Off fue cancelado después de que supuestamente se descubriera que la propuesta ganadora era un collage de imágenes generadas con Midjourney. [114]
En mayo de 2023, en sitios de redes sociales como Reddit y Twitter, se prestó atención a una imagen generada por Midjourney del Papa Francisco con un abrigo blanco. [115] [116] Además, una imagen generada por IA de un ataque al Pentágono se volvió viral como parte de una noticia falsa en Twitter. [117] [118]
En los días previos a la acusación de marzo de 2023 contra Donald Trump como parte del escándalo Stormy Daniels-Donald Trump , varias imágenes generadas por IA que supuestamente mostraban el arresto de Trump se volvieron virales en línea. [119] [120] El 20 de marzo, el periodista británico Eliot Higgins generó varias imágenes de Donald Trump siendo arrestado o encarcelado usando Midjourney v5 y las publicó en Twitter; dos imágenes de Trump luchando contra los oficiales que lo arrestaban se volvieron virales bajo la impresión errónea de que eran genuinas, acumulando más de 5 millones de visitas en tres días. [121] [122] Según Higgins, las imágenes no tenían la intención de engañar, pero se le prohibió usar los servicios de Midjourney como resultado. En abril de 2024, el tuit había obtenido más de 6,8 millones de visitas.
En febrero de 2024, se publicó el artículo Funciones celulares de las células madre espermatogoniales en relación con la vía de señalización JAK/STAT utilizando imágenes generadas por IA. Posteriormente, Frontiers in Cell and Developmental Biology lo retiró porque el artículo "no cumple con los estándares". [123]
Otra de las principales preocupaciones que se plantean en relación con las imágenes y el arte generados por IA es el sesgo de muestreo en los datos de entrenamiento de los modelos, que conduce a resultados discriminatorios de los modelos de arte de IA. En 2023, los investigadores de la Universidad de Washington encontraron evidencia de sesgo racial en el modelo de difusión estable, y las imágenes de una "persona" se corresponden con mayor frecuencia con imágenes de hombres de Europa o América del Norte. [124]
En 2024, el generador de imágenes de IA del chatbot Gemini de Google fue criticado por un sesgo racial percibido , con afirmaciones de que Gemini subrepresentaba deliberadamente a las personas blancas en sus resultados. [125] Los usuarios informaron que generaba imágenes de figuras históricas blancas como los Padres Fundadores , soldados nazis y vikingos como otras razas, y que se negaba a procesar indicaciones como "gente blanca feliz" y " familia nuclear ideal ". [125] [126] Google luego se disculpó por "perder el objetivo" y desconectó el generador de imágenes de Gemini para actualizaciones. [127]
Además de la creación de arte original, se han generado métodos de investigación que utilizan IA para analizar cuantitativamente colecciones de arte digital. Esto ha sido posible gracias a la digitalización a gran escala de obras de arte en las últimas décadas. Según CETINIC y SHE (2022), el uso de inteligencia artificial para analizar colecciones de arte ya existentes puede proporcionar nuevas perspectivas sobre el desarrollo de estilos artísticos y la identificación de influencias artísticas. [128] [129]
Dos métodos computacionales, la lectura atenta y la visualización a distancia, son los enfoques típicos utilizados para analizar el arte digitalizado. [130] La lectura atenta se centra en aspectos visuales específicos de una pieza. Algunas tareas realizadas por máquinas en los métodos de lectura atenta incluyen la autenticación computacional del artista y el análisis de pinceladas o propiedades de textura. Por el contrario, a través de los métodos de visualización a distancia, la similitud en toda una colección para una característica específica se puede visualizar estadísticamente. Las tareas comunes relacionadas con este método incluyen la clasificación automática, la detección de objetos , las tareas multimodales , el descubrimiento de conocimiento en la historia del arte y la estética computacional. [129] Las imágenes sintéticas también se pueden utilizar para entrenar algoritmos de IA para la autenticación del arte y para detectar falsificaciones . [131]
Los investigadores también han introducido modelos que predicen respuestas emocionales al arte, como ArtEmis, un conjunto de datos a gran escala con modelos de aprendizaje automático que contienen reacciones emocionales al arte visual, así como predicciones de emociones a partir de imágenes o texto. [132]
Algunos prototipos de robots de cocina pueden degustar dinámicamente . [133]
También existe la escritura asistida por IA más allá de la edición de copias [134] (como ayudar con el bloqueo del escritor , la inspiración o reescribir segmentos). [135] [136] [137] [138] La IA generativa se ha utilizado en la producción de videojuegos más allá de las imágenes , especialmente para el diseño de niveles (por ejemplo, para mapas personalizados ) y la creación de contenido nuevo (por ejemplo, misiones o diálogos) o historias interactivas en videojuegos. [139] [140] Algunas IA también pueden generar videos , ya sea a partir de texto, una imagen o un video. Esto se conoce como modelo de texto a video . Ejemplos de esto son Runway 's Gen-2, Sora de OpenAI y VideoPoet de Google .
{{cite news}}
: CS1 maint: bot: estado de URL original desconocido ( enlace ){{cite web}}
: CS1 maint: bot: estado de URL original desconocido ( enlace ){{cite web}}
: CS1 maint: varios nombres: lista de autores ( enlace ){{cite web}}
: CS1 maint: bot: estado de URL original desconocido ( enlace ){{cite web}}
: CS1 maint: bot: estado de URL original desconocido ( enlace ){{cite web}}
: CS1 maint: bot: estado de URL original desconocido ( enlace ){{cite web}}
: CS1 maint: bot: estado de URL original desconocido ( enlace ){{cite web}}
: CS1 maint: bot: estado de URL original desconocido ( enlace ){{cite web}}
: CS1 maint: bot: estado de URL original desconocido ( enlace ){{cite web}}
: CS1 maint: bot: estado de URL original desconocido ( enlace ){{cite web}}
: CS1 maint: bot: estado de URL original desconocido ( enlace ){{cite web}}
: CS1 maint: bot: estado de URL original desconocido ( enlace )