stringtranslate.com

DALL-E

DALL·E , DALL·E 2 y DALL·E 3 (se pronuncia DOLL-E) son modelos de texto a imagen desarrollados por OpenAI utilizando metodologías de aprendizaje profundo para generar imágenes digitales a partir de descripciones en lenguaje natural conocidas como " indicaciones ".

La primera versión de DALL-E se anunció en enero de 2021. Al año siguiente, se lanzó su sucesor, DALL-E 2. DALL·E 3 se lanzó de forma nativa en ChatGPT para los clientes de ChatGPT Plus y ChatGPT Enterprise en octubre de 2023, [1] con disponibilidad a través de la API de OpenAI [2] y la plataforma "Labs" a principios de noviembre. [3] Microsoft implementó el modelo en la herramienta Image Creator de Bing y planea implementarlo en su aplicación Designer. [4]

Historia y antecedentes

DALL·E fue revelado por OpenAI en una publicación de blog el 5 de enero de 2021 y utiliza una versión de GPT-3 [5] modificada para generar imágenes.

El 6 de abril de 2022, OpenAI anunció DALL·E 2, un sucesor diseñado para generar imágenes más realistas a resoluciones más altas que "pueden combinar conceptos, atributos y estilos". [6] El 20 de julio de 2022, DALL·E 2 entró en una fase beta con invitaciones enviadas a 1 millón de personas en lista de espera; [7] los usuarios podían generar una cierta cantidad de imágenes de forma gratuita cada mes y podían comprar más. [8] Anteriormente, el acceso se había restringido a usuarios preseleccionados para una vista previa de la investigación debido a preocupaciones sobre la ética y la seguridad. [9] [10] El 28 de septiembre de 2022, DALL·E 2 se abrió a todos y se eliminó el requisito de la lista de espera. [11] En septiembre de 2023, OpenAI anunció su último modelo de imagen, DALL·E 3, capaz de comprender "significativamente más matices y detalles" que las iteraciones anteriores. [12] A principios de noviembre de 2022, OpenAI lanzó DALL·E 2 como una API , lo que permite a los desarrolladores integrar el modelo en sus propias aplicaciones. Microsoft presentó su implementación de DALL·E 2 en su aplicación Designer y la herramienta Image Creator incluida en Bing y Microsoft Edge . [13] La API opera sobre una base de costo por imagen, con precios que varían según la resolución de la imagen. Hay descuentos por volumen disponibles para las empresas que trabajan con el equipo empresarial de OpenAI. [14]

El nombre del software es una combinación de los nombres del personaje animado robot de Pixar WALL-E y el artista surrealista catalán Salvador Dalí . [15] [5]

En febrero de 2024, OpenAI comenzó a agregar marcas de agua a las imágenes generadas por DALL-E, que contienen metadatos en el estándar C2PA (Coalición para la Procedencia y Autenticidad del Contenido) promovido por la Iniciativa de Autenticidad de Contenido . [16]

Tecnología

El primer modelo de transformador preentrenado generativo (GPT) fue desarrollado inicialmente por OpenAI en 2018, [17] utilizando una arquitectura de transformador . La primera iteración, GPT-1, [18] se amplió para producir GPT-2 en 2019; [19] en 2020, se amplió nuevamente para producir GPT-3 , con 175 mil millones de parámetros. [20] [5] [21]

DALL-E

DALL·E tiene tres componentes: un VAE discreto , un transformador solo decodificador autorregresivo (12 mil millones de parámetros) similar a GPT-3 y un par CLIP de codificador de imágenes y codificador de texto. [22]

El VAE discreto puede convertir una imagen en una secuencia de tokens y, a la inversa, convertir una secuencia de tokens nuevamente en una imagen. Esto es necesario ya que el Transformador no procesa directamente los datos de la imagen. [22]

La entrada al modelo Transformer es una secuencia de leyendas de imágenes tokenizadas seguidas de parches de imágenes tokenizadas. La leyenda de la imagen está en inglés, tokenizada mediante codificación de pares de bytes (tamaño de vocabulario 16384) y puede tener una longitud de hasta 256 tokens. Cada imagen es una imagen RGB de 256×256, dividida en parches de 32×32 de 4×4 cada uno. Luego, un autocodificador variacional discreto convierte cada parche en un token (tamaño de vocabulario 8192). [22]

DALL·E se desarrolló y anunció al público junto con CLIP (Contrastive Language-Image Pre-training) . [23] CLIP es un modelo independiente basado en el aprendizaje contrastivo que se entrenó con 400 millones de pares de imágenes con subtítulos de texto extraídos de Internet. Su función es "comprender y clasificar" el resultado de DALL·E al predecir qué subtítulo de una lista de 32.768 subtítulos seleccionados al azar del conjunto de datos (de los cuales uno era la respuesta correcta) es el más apropiado para una imagen. [24]

Se utiliza un par CLIP entrenado para filtrar una lista inicial más grande de imágenes generadas por DALL·E para seleccionar la imagen más cercana al mensaje de texto. [22]

DALL-E 2

DALL·E 2 utiliza 3.500 millones de parámetros, un número menor que su predecesor. [22] En lugar de un transformador autorregresivo, DALL·E 2 utiliza un modelo de difusión condicionado a las incrustaciones de imágenes CLIP, que, durante la inferencia, se generan a partir de incrustaciones de texto CLIP por un modelo anterior. [22] Esta es la misma arquitectura que la de Stable Diffusion , lanzada unos meses después.

Capacidades

DALL·E puede generar imágenes en múltiples estilos, incluyendo imágenes fotorrealistas , pinturas y emojis . [5] Puede "manipular y reorganizar" objetos en sus imágenes, [5] y puede colocar correctamente elementos de diseño en composiciones novedosas sin instrucciones explícitas. Thom Dunn, que escribe para BoingBoing, comentó que "por ejemplo, cuando se le pide que dibuje un rábano daikon sonándose la nariz, bebiendo un café con leche o montando un monociclo, DALL·E a menudo dibuja el pañuelo, las manos y los pies en ubicaciones plausibles". [25] DALL·E mostró la capacidad de "completar los espacios en blanco" para inferir detalles apropiados sin indicaciones específicas, como agregar imágenes navideñas a indicaciones comúnmente asociadas con la celebración, [26] y sombras colocadas apropiadamente a imágenes que no las mencionaban. [27] Además, DALL·E exhibe una amplia comprensión de las tendencias visuales y de diseño. [ cita requerida ]

DALL·E puede producir imágenes para una amplia variedad de descripciones arbitrarias desde varios puntos de vista [28] con solo fallas raras. [15] Mark Riedl, profesor asociado en la Escuela de Computación Interactiva de Georgia Tech , descubrió que DALL·E podía combinar conceptos (descritos como un elemento clave de la creatividad humana ). [29] [30]

Su capacidad de razonamiento visual es suficiente para resolver las Matrices de Raven (pruebas visuales que a menudo se administran a los humanos para medir la inteligencia). [31] [32]

Una imagen de texto preciso generado por DALL·E 3 basado en el mensaje de texto "Una ilustración de un aguacate sentado en la silla de un terapeuta, diciendo 'Me siento tan vacío por dentro' con un agujero del tamaño de un hueso en el centro. El terapeuta, con una cuchara, toma notas".

DALL·E 3 sigue indicaciones complejas con más precisión y detalle que sus predecesores, y es capaz de generar texto más coherente y preciso. [33] [12] DALL·E 3 está integrado en ChatGPT Plus. [12]

Modificación de imagen

Dos "variaciones" de La joven de la perla generadas con DALL·E 2

Dada una imagen existente, DALL·E 2 puede producir "variaciones" de la imagen como resultados individuales basados ​​en el original, así como editar la imagen para modificarla o ampliarla. Las funciones de "repintado" y "repintado" de DALL·E 2 utilizan el contexto de una imagen para rellenar las áreas faltantes utilizando un medio coherente con el original, siguiendo una indicación dada.

Por ejemplo, esto se puede utilizar para insertar un nuevo sujeto en una imagen o expandir una imagen más allá de sus bordes originales. [34] Según OpenAI, "la técnica de pintura exterior tiene en cuenta los elementos visuales existentes de la imagen (incluidas sombras, reflejos y texturas) para mantener el contexto de la imagen original". [35]

Limitaciones técnicas

La comprensión del lenguaje de DALL·E 2 tiene límites. A veces no puede distinguir "Un libro amarillo y un jarrón rojo" de "Un libro rojo y un jarrón amarillo" o "Un panda haciendo arte con café con leche" de "Arte con café con leche de un panda". [36] Genera imágenes de "un astronauta montando a caballo" cuando se le presenta la indicación "un caballo montando a un astronauta". [37] Tampoco genera las imágenes correctas en una variedad de circunstancias. Solicitar más de tres objetos, negación, números y oraciones conectadas puede dar lugar a errores, y las características del objeto pueden aparecer en el objeto equivocado. [28] Las limitaciones adicionales incluyen el manejo de texto, que, incluso con letras legibles, casi invariablemente da como resultado un galimatías onírico, y su capacidad limitada para abordar información científica, como astronomía o imágenes médicas. [38]

Un intento de generar texto en japonés utilizando el mensaje "una persona que señala un tanuki , con una burbuja de diálogo que dice 'これは狸です!'", lo que da como resultado que el texto se represente con kanji y kana sin sentido.

Preocupaciones éticas

La dependencia de DALL·E 2 de conjuntos de datos públicos influye en sus resultados y conduce a sesgos algorítmicos en algunos casos, como generar un mayor número de hombres que de mujeres para solicitudes que no mencionan el género. [38] Los datos de entrenamiento de DALL·E 2 se filtraron para eliminar imágenes violentas y sexuales, pero se descubrió que esto aumentaba el sesgo en algunos casos, como reducir la frecuencia de generación de mujeres. [39] OpenAI plantea la hipótesis de que esto puede deberse a que era más probable que las mujeres fueran sexualizadas en los datos de entrenamiento, lo que hizo que el filtro influyera en los resultados. [39] En septiembre de 2022, OpenAI confirmó a The Verge que DALL·E inserta frases de forma invisible en las indicaciones del usuario para abordar el sesgo en los resultados; por ejemplo, "hombre negro" y "mujer asiática" se insertan en indicaciones que no especifican género o raza. [40]

Una preocupación sobre DALL·E 2 y modelos similares de generación de imágenes es que podrían usarse para propagar deepfakes y otras formas de desinformación. [41] [42] Como un intento de mitigar esto, el software rechaza los avisos que involucran figuras públicas y las cargas que contienen rostros humanos. [43] Los avisos que contienen contenido potencialmente objetable se bloquean y las imágenes cargadas se analizan para detectar material ofensivo. [44] Una desventaja del filtrado basado en avisos es que es fácil de eludir utilizando frases alternativas que dan como resultado un resultado similar. Por ejemplo, la palabra "sangre" se filtra, pero "ketchup" y "líquido rojo" no. [45] [44]

Otra preocupación sobre DALL·E 2 y modelos similares es que podrían causar desempleo tecnológico para artistas, fotógrafos y diseñadores gráficos debido a su precisión y popularidad. [46] [47] DALL·E 3 está diseñado para impedir que los usuarios generen arte al estilo de los artistas actuales. [12]

En 2023, Microsoft propuso al Departamento de Defensa de los Estados Unidos utilizar modelos DALL·E para entrenar el sistema de gestión del campo de batalla . [48] En enero de 2024, OpenAI eliminó su prohibición general sobre el uso militar y de guerra de sus políticas de uso. [49]

Recepción

Imágenes generadas por DALL·E a partir del mensaje: "una ilustración de un rábano daikon bebé con un tutú paseando a un perro"

La mayor parte de la cobertura de DALL·E se centra en un pequeño subconjunto de resultados "surrealistas" [23] o "extraños" [29] . El resultado de DALL·E para "una ilustración de un rábano daikon bebé con un tutú paseando a un perro" fue mencionado en artículos de Input , [50] NBC , [51] Nature , [52] y otras publicaciones. [5] [53] [54] Su resultado para "un sillón con forma de aguacate" también fue ampliamente cubierto. [23] [30]

ExtremeTech afirmó que "se puede pedir a DALL·E una fotografía de un teléfono o una aspiradora de un período de tiempo determinado y entenderá cómo han cambiado esos objetos". [26] Engadget también destacó su inusual capacidad para "entender cómo cambian los teléfonos y otros objetos con el tiempo". [27]

Según MIT Technology Review , uno de los objetivos de OpenAI era "dar a los modelos de lenguaje una mejor comprensión de los conceptos cotidianos que los humanos usan para dar sentido a las cosas". [23]

Los inversores de Wall Street han recibido con agrado DALL·E 2 y algunas empresas creen que podría representar un punto de inflexión para una futura industria multimillonaria. A mediados de 2019, OpenAI ya había recibido más de 1.000 millones de dólares en financiación de Microsoft y Khosla Ventures, [55] [56] [57] y en enero de 2023, tras el lanzamiento de DALL·E 2 y ChatGPT, recibió 10.000 millones de dólares adicionales en financiación de Microsoft. [58]

La comunidad de anime de Japón ha tenido una reacción negativa a DALL·E 2 y modelos similares. [59] [60] [61] Los artistas suelen presentar dos argumentos contra el software. El primero es que el arte de IA no es arte porque no lo crea un ser humano con intención. "La yuxtaposición de imágenes generadas por IA con su propio trabajo es degradante y socava el tiempo y la habilidad que se dedica a su arte. Las herramientas de generación de imágenes impulsadas por IA han sido muy criticadas por los artistas porque están entrenadas con arte hecho por humanos extraído de la web". [7] El segundo es el problema con la ley de derechos de autor y los datos con los que se entrenan los modelos de texto a imagen. OpenAI no ha publicado información sobre qué conjunto(s) de datos se utilizaron para entrenar a DALL·E 2, lo que incita a algunos a preocuparse de que el trabajo de los artistas se haya utilizado para el entrenamiento sin permiso. Las leyes de derechos de autor que rodean estos temas no son concluyentes en este momento. [8]

Después de integrar DALL·E 3 en Bing Chat y ChatGPT, Microsoft y OpenAI se enfrentaron a críticas por el filtrado excesivo de contenido, y los críticos dijeron que DALL·E había sido "lobotomizado". [62] Se citó como evidencia el marcado de imágenes generadas por mensajes como "hombre rompe bastidor de servidor con maza". Durante los primeros días de su lanzamiento, se informó que el filtrado se incrementó hasta el punto en que se bloquearon las imágenes generadas por algunos de los mensajes sugeridos por el propio Bing. [62] [63] TechRadar argumentó que inclinarse demasiado por el lado de la precaución podría limitar el valor de DALL·E como herramienta creativa. [63]

Implementaciones de código abierto

Dado que OpenAI no ha publicado el código fuente de ninguno de los tres modelos, ha habido varios intentos de crear modelos de código abierto que ofrezcan capacidades similares. [64] [65] Lanzado en 2022 en la plataforma Spaces de Hugging Face , Craiyon (anteriormente DALL·E Mini hasta que OpenAI solicitó un cambio de nombre en junio de 2022) es un modelo de IA basado en el DALL·E original que se entrenó con datos sin filtrar de Internet. Atrajo una atención sustancial de los medios a mediados de 2022, después de su lanzamiento debido a su capacidad para producir imágenes humorísticas. [66] [67] [68]

Véase también

Referencias

  1. ^ David, Emilia (20 de septiembre de 2023). «OpenAI lanza la tercera versión de DALL·E». The Verge . Archivado desde el original el 20 de septiembre de 2023. Consultado el 21 de septiembre de 2023 .
  2. ^ "Plataforma OpenAI". platform.openai.com . Archivado desde el original el 20 de marzo de 2023 . Consultado el 10 de noviembre de 2023 .
  3. ^ Niles, Raymond (10 de noviembre de 2023) [Actualizado esta semana]. «API de DALL-E 3». Centro de ayuda de OpenAI . Archivado desde el original el 10 de noviembre de 2023. Consultado el 10 de noviembre de 2023 .
  4. ^ Mehdi, Yusuf (21 de septiembre de 2023). «Anunciamos Microsoft Copilot, tu compañero de inteligencia artificial para todos los días». El blog oficial de Microsoft . Archivado desde el original el 21 de septiembre de 2023. Consultado el 21 de septiembre de 2023 .
  5. ^ abcdef Johnson, Khari (5 de enero de 2021). «OpenAI presenta DALL-E para generar imágenes a partir de texto». VentureBeat. Archivado desde el original el 5 de enero de 2021. Consultado el 5 de enero de 2021 .
  6. ^ "DALL·E 2". OpenAI . Archivado desde el original el 6 de abril de 2022 . Consultado el 6 de julio de 2022 .
  7. ^ ab "DALL·E ya está disponible en versión beta". OpenAI . 20 de julio de 2022. Archivado desde el original el 20 de julio de 2022 . Consultado el 20 de julio de 2022 .
  8. ^ ab Allyn, Bobby (20 de julio de 2022). "¿Surrealista o demasiado real? La impresionante herramienta de inteligencia artificial DALL·E lleva sus imágenes a un escenario más grande". NPR . Archivado desde el original el 20 de julio de 2022 . Consultado el 20 de julio de 2022 .
  9. ^ "Lista de espera de DALL·E". labs.openai.com . Archivado desde el original el 4 de julio de 2022 . Consultado el 6 de julio de 2022 .
  10. ^ "De los bebés de Trump Nevermind a las falsificaciones profundas: DALL·E y la ética del arte de la IA". The Guardian . 18 de junio de 2022. Archivado desde el original el 6 de julio de 2022 . Consultado el 6 de julio de 2022 .
  11. ^ "DALL·E ya está disponible sin lista de espera". OpenAI . 28 de septiembre de 2022. Archivado desde el original el 4 de octubre de 2022 . Consultado el 5 de octubre de 2022 .
  12. ^ abcd «DALL·E 3». OpenAI . Archivado desde el original el 20 de septiembre de 2023 . Consultado el 21 de septiembre de 2023 .
  13. ^ "La API DALL·E ya está disponible en versión beta pública". OpenAI . 3 de noviembre de 2022. Archivado desde el original el 19 de noviembre de 2022 . Consultado el 19 de noviembre de 2022 .
  14. ^ Wiggers, Kyle (3 de noviembre de 2022). «Ahora cualquiera puede crear aplicaciones que utilicen DALL·E 2 para generar imágenes». TechCrunch . Archivado desde el original el 19 de noviembre de 2022. Consultado el 19 de noviembre de 2022 .
  15. ^ ab Coldewey, Devin (5 de enero de 2021). «DALL-E de OpenAI crea imágenes plausibles de literalmente cualquier cosa que le pidas». Archivado desde el original el 6 de enero de 2021. Consultado el 5 de enero de 2021 .
  16. ^ Growcoot, Matt (8 de febrero de 2024). "Las imágenes de IA generadas en DALL-E ahora contienen la etiqueta de autenticidad de contenido". PetaPixel . Consultado el 4 de abril de 2024 .
  17. ^ Radford, Alec; Narasimhan, Karthik; Salimans, Tim; Sutskever, Ilya (11 de junio de 2018). "Mejorar la comprensión del lenguaje mediante el preentrenamiento generativo" (PDF) . OpenAI . pág. 12. Archivado (PDF) del original el 26 de enero de 2021 . Consultado el 23 de enero de 2021 .
  18. ^ "GPT-1 a GPT-4: cada uno de los modelos GPT de OpenAI explicados y comparados". 11 de abril de 2023. Archivado desde el original el 15 de abril de 2023. Consultado el 29 de abril de 2023 .
  19. ^ Radford, Alec; Wu, Jeffrey; Child, Rewon; et al. (14 de febrero de 2019). "Los modelos de lenguaje son aprendices multitarea no supervisados" (PDF) . cdn.openai.com . 1 (8). Archivado (PDF) del original el 6 de febrero de 2021 . Consultado el 19 de diciembre de 2020 .
  20. ^ Brown, Tom B.; Mann, Benjamin; Ryder, Nick; et al. (22 de julio de 2020). "Los modelos de lenguaje son aprendices de pocas oportunidades". arXiv : 2005.14165 [cs.CL].
  21. ^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; et al. (24 de febrero de 2021). "Generación de texto a imagen con cero disparos". arXiv : 2102.12092 [cs.LG].
  22. ^ abcdef Ramesh, Aditya; Dhariwal, Prafulla; Nichol, Alex; Chu, Casey; Chen, Mark (12 de abril de 2022). "Generación de imágenes condicionales de texto jerárquico con latentes CLIP". arXiv : 2204.06125 [cs.CV].
  23. ^ abcd Heaven, Will Douglas (5 de enero de 2021). «Este sillón de aguacate podría ser el futuro de la IA». MIT Technology Review. Archivado desde el original el 5 de enero de 2021. Consultado el 5 de enero de 2021 .
  24. ^ Radford, Alec; Kim, Jong Wook; Hallacy, Chris; et al. (1 de julio de 2021). Aprendizaje de modelos visuales transferibles a partir de la supervisión del lenguaje natural. Actas de la 38.ª Conferencia internacional sobre aprendizaje automático. PMLR. págs. 8748–8763.
  25. ^ Dunn, Thom (10 de febrero de 2021). «Esta red neuronal de IA transforma los subtítulos de texto en arte, como una medusa Pikachu». BoingBoing . Archivado desde el original el 22 de febrero de 2021 . Consultado el 2 de marzo de 2021 .
  26. ^ ab Whitwam, Ryan (6 de enero de 2021). «DALL-E de OpenAI genera imágenes a partir de descripciones de texto». ExtremeTech . Archivado desde el original el 28 de enero de 2021. Consultado el 2 de marzo de 2021 .
  27. ^ ab Dent, Steve (6 de enero de 2021). «La aplicación DALL-E de OpenAI genera imágenes a partir de una simple descripción». Engadget . Archivado desde el original el 27 de enero de 2021. Consultado el 2 de marzo de 2021 .
  28. ^ ab Marcus, Gary; Davis, Ernest; Aaronson, Scott (2 de mayo de 2022). "Un análisis muy preliminar de DALL-E 2". arXiv : 2204.13807 [cs.CV].
  29. ^ ab Shead, Sam (8 de enero de 2021). "Por qué todo el mundo habla de un generador de imágenes publicado por un laboratorio de inteligencia artificial respaldado por Elon Musk". CNBC . Archivado desde el original el 16 de julio de 2022 . Consultado el 2 de marzo de 2021 .
  30. ^ ab Wakefield, Jane (6 de enero de 2021). «AI draws dog-walking baby radish in a tutu» (Una inteligencia artificial dibuja un rábano bebé paseando a un perro con un tutú). British Broadcasting Corporation . Archivado desde el original el 2 de marzo de 2021. Consultado el 3 de marzo de 2021 .
  31. ^ Markowitz, Dale (10 de enero de 2021). «Así funciona el generador mágico de imágenes DALL-E de OpenAI». TheNextWeb . Archivado desde el original el 23 de febrero de 2021. Consultado el 2 de marzo de 2021 .
  32. ^ "DALL·E: Creación de imágenes a partir de texto". OpenAI . 5 de enero de 2021. Archivado desde el original el 27 de marzo de 2021 . Consultado el 13 de agosto de 2022 .
  33. ^ Edwards, Benj (20 de septiembre de 2023). «El nuevo generador de imágenes de IA de OpenAI supera los límites en cuanto a detalle y fidelidad de la imagen». Ars Technica . Archivado desde el original el 21 de septiembre de 2023. Consultado el 21 de septiembre de 2023 .
  34. ^ Coldewey, Devin (6 de abril de 2022). «La nueva herramienta OpenAI dibuja cualquier cosa, más grande y mejor que nunca». TechCrunch . Archivado desde el original el 6 de mayo de 2023. Consultado el 26 de noviembre de 2022 .
  35. ^ "DALL·E: Introducción a la técnica Outpainting". OpenAI . 31 de agosto de 2022. Archivado desde el original el 26 de noviembre de 2022 . Consultado el 26 de noviembre de 2022 .
  36. ^ Saharia, Chitwan; Chan, William; Saxena, Saurabh; et al. (23 de mayo de 2022). "Modelos de difusión de texto a imagen fotorrealistas con comprensión profunda del lenguaje". arXiv : 2205.11487 [cs.CV].
  37. ^ Marcus, Gary (28 de mayo de 2022). «Astronauta cabalga sobre un caballo». El camino hacia una IA en la que podamos confiar . Archivado desde el original el 19 de junio de 2022. Consultado el 18 de junio de 2022 .
  38. ^ ab Strickland, Eliza (14 de julio de 2022). "Los fallos de DALL·E 2 son lo más interesante de todo". IEEE Spectrum . Archivado desde el original el 15 de julio de 2022. Consultado el 16 de agosto de 2022 .
  39. ^ ab "Mitigaciones previas al entrenamiento de DALL·E 2". OpenAI . 28 de junio de 2022. Archivado desde el original el 19 de julio de 2022 . Consultado el 18 de julio de 2022 .
  40. ^ James Vincent (29 de septiembre de 2022). «El generador de imágenes DALL·E de OpenAI está disponible para que cualquiera lo use de inmediato». The Verge . Archivado desde el original el 29 de septiembre de 2022. Consultado el 29 de septiembre de 2022 .
  41. ^ Taylor, Josh (18 de junio de 2022). «From Trump Nevermind babies to deep fakes: DALL-E and the ethics of AI art» (De los bebés de Trump Nevermind a las falsificaciones profundas: DALL-E y la ética del arte de la IA). The Guardian . Archivado desde el original el 6 de julio de 2022. Consultado el 2 de agosto de 2022 .
  42. ^ Knight, Will (13 de julio de 2022). «Cuando la IA crea arte, los humanos aportan la chispa creativa». Wired . Archivado desde el original el 2 de agosto de 2022. Consultado el 2 de agosto de 2022 .
  43. ^ Rose, Janus (24 de junio de 2022). «DALL-E ahora genera rostros realistas de personas falsas». Vice . Archivado desde el original el 30 de julio de 2022. Consultado el 2 de agosto de 2022 .
  44. ^ de OpenAI (19 de junio de 2022). «DALL·E 2 Preview – Risks and Limitations». GitHub . Archivado desde el original el 2 de agosto de 2022 . Consultado el 2 de agosto de 2022 .
  45. ^ Lane, Laura (1 de julio de 2022). «DALL-E, hazme otro Picasso, por favor». The New Yorker . Archivado desde el original el 2 de agosto de 2022. Consultado el 2 de agosto de 2022 .
  46. ^ Goldman, Sharon (26 de julio de 2022). «OpenAI: ¿DALL·E 2 acabará con las carreras creativas?». Archivado desde el original el 15 de agosto de 2022. Consultado el 16 de agosto de 2022 .
  47. ^ Blain, Loz (29 de julio de 2022). «DALL-E 2: una herramienta onírica y una amenaza existencial para los artistas visuales». Archivado desde el original el 17 de agosto de 2022. Consultado el 16 de agosto de 2022 .
  48. ^ Biddle, Sam (10 de abril de 2024). "Microsoft presentó DALL-E de OpenAI como herramienta de campo de batalla para el ejército estadounidense". The Intercept .
  49. ^ Biddle, Sam (12 de enero de 2024). "OpenAI elimina silenciosamente la prohibición de usar ChatGPT para "militares y guerras"". The Intercept .
  50. ^ Kasana, Mehreen (7 de enero de 2021). «Esta IA convierte el texto en arte surrealista basado en sugerencias». Entrada. Archivado desde el original el 29 de enero de 2021. Consultado el 2 de marzo de 2021 .
  51. ^ Ehrenkranz, Melanie (27 de enero de 2021). «Aquí está DALL-E: un algoritmo que aprendió a dibujar cualquier cosa que le digas». NBC News . Archivado desde el original el 20 de febrero de 2021. Consultado el 2 de marzo de 2021 .
  52. ^ Stove, Emma (5 de febrero de 2021). «Circo de tardígrados y árbol de la vida: las mejores imágenes científicas de enero». Nature . Archivado desde el original el 8 de marzo de 2021 . Consultado el 2 de marzo de 2021 .
  53. ^ Knight, Will (26 de enero de 2021). «Esta IA podría pasar de ser un «arte» a conducir un coche autónomo». Wired . Archivado desde el original el 21 de febrero de 2021. Consultado el 2 de marzo de 2021 .
  54. ^ Metz, Rachel (2 de febrero de 2021). "¿Un rábano con tutú paseando a un perro? Esta IA puede dibujarlo muy bien". CNN. Archivado desde el original el 16 de julio de 2022. Consultado el 2 de marzo de 2021 .
  55. ^ Leswing, Kif (8 de octubre de 2022). «Por qué Silicon Valley está tan entusiasmado con los dibujos extraños hechos por inteligencia artificial». CNBC . Archivado desde el original el 29 de julio de 2023. Consultado el 1 de diciembre de 2022 .
  56. ^ Etherington, Darrell (22 de julio de 2019). «Microsoft invierte 1.000 millones de dólares en OpenAI en una nueva asociación multianual». TechCrunch . Archivado desde el original el 22 de julio de 2019. Consultado el 21 de septiembre de 2023 .
  57. ^ "El primer inversor de capital riesgo de OpenAI opina sobre la IA generativa" Fortune . Archivado desde el original el 23 de octubre de 2023 . Consultado el 21 de septiembre de 2023 .
  58. ^ Metz, Cade; Weise, Karen (23 de enero de 2023). «Microsoft invertirá 10.000 millones de dólares en OpenAI, el creador de ChatGPT». The New York Times . ISSN  0362-4331. Archivado desde el original el 21 de septiembre de 2023. Consultado el 21 de septiembre de 2023 .
  59. ^ "El arte generado por IA provoca una furiosa reacción de la comunidad de anime de Japón". Resto del mundo . 27 de octubre de 2022. Archivado desde el original el 31 de diciembre de 2022 . Consultado el 3 de enero de 2023 .
  60. ^ Roose, Kevin (2 de septiembre de 2022). «Una imagen generada por IA ganó un premio de arte. Los artistas no están contentos». The New York Times . ISSN  0362-4331. Archivado desde el original el 31 de mayo de 2023 . Consultado el 3 de enero de 2023 .
  61. ^ Daws, Ryan (15 de diciembre de 2022). «ArtStation contraataca tras la respuesta de la IA a las protestas artísticas». AI News . Archivado desde el original el 3 de enero de 2023 . Consultado el 3 de enero de 2023 .
  62. ^ ab Corden, Jez (8 de octubre de 2023). "La creación de imágenes de Bing Dall-E 3 fue genial durante unos días, pero ahora Microsoft, como era de esperar, la ha lobotomizado". Windows Central . Archivado desde el original el 10 de octubre de 2023 . Consultado el 11 de octubre de 2023 .
  63. ^ ab Allan, Darren (9 de octubre de 2023). "Microsoft controla el Creador de imágenes de Bing AI, y los resultados no tienen mucho sentido". TechRadar . Archivado desde el original el 10 de octubre de 2023 . Consultado el 11 de octubre de 2023 .
  64. ^ Sahar Mor, Stripe (16 de abril de 2022). «Cómo DALL-E 2 podría resolver los principales desafíos de la visión artificial». VentureBeat . Archivado desde el original el 24 de mayo de 2022. Consultado el 15 de junio de 2022 .
  65. ^ "jina-ai/dalle-flow". Jina AI. 17 de junio de 2022. Archivado desde el original el 17 de junio de 2022 . Consultado el 17 de junio de 2022 .
  66. ^ Carson, Erin (14 de junio de 2022). "Todo lo que debe saber sobre Dall-E Mini, el alucinante creador de arte con inteligencia artificial". CNET . Archivado desde el original el 15 de junio de 2022 . Consultado el 15 de junio de 2022 .
  67. ^ Schroeder, Audra (9 de junio de 2022). «El programa de inteligencia artificial DALL-E mini genera algunas imágenes verdaderamente malditas». Daily Dot . Archivado desde el original el 10 de junio de 2022. Consultado el 15 de junio de 2022 .
  68. ^ Díaz, Ana (15 de junio de 2022). «La gente está usando DALL-E mini para crear memes abominables, como el pug Pikachu». Polygon . Archivado desde el original el 15 de junio de 2022 . Consultado el 15 de junio de 2022 .

Enlaces externos