stringtranslate.com

Modelo de difusión

En el aprendizaje automático , los modelos de difusión , también conocidos como modelos probabilísticos de difusión o modelos generativos basados ​​en puntajes , son una clase de modelos generativos de variable latente . Un modelo de difusión consta de tres componentes principales: el proceso directo, el proceso inverso y el procedimiento de muestreo. [1] El objetivo de los modelos de difusión es aprender un proceso de difusión para un conjunto de datos dado, de modo que el proceso pueda generar nuevos elementos que se distribuyan de manera similar al conjunto de datos original. Un modelo de difusión modela los datos generados por un proceso de difusión, mediante el cual un nuevo dato realiza un recorrido aleatorio con deriva a través del espacio de todos los datos posibles. [2] Un modelo de difusión entrenado se puede muestrear de muchas formas, con diferente eficiencia y calidad.

Existen varios formalismos equivalentes, entre ellos las cadenas de Markov , los modelos probabilísticos de difusión con eliminación de ruido, las redes de puntuación condicionadas por ruido y las ecuaciones diferenciales estocásticas. [3] Normalmente se entrenan utilizando inferencia variacional . [4] El modelo responsable de la eliminación de ruido se suele denominar su "columna vertebral". La columna vertebral puede ser de cualquier tipo, pero normalmente son redes U o transformadores .

A partir de 2024 , los modelos de difusión se utilizan principalmente para tareas de visión artificial , incluida la eliminación de ruido de imágenes , la restauración de imágenes , la superresolución , la generación de imágenes y la generación de videos. Por lo general, esto implica entrenar una red neuronal para eliminar el ruido de manera secuencial de las imágenes borrosas con ruido gaussiano . [2] [5] El modelo se entrena para revertir el proceso de agregar ruido a una imagen. Después del entrenamiento hasta la convergencia, se puede usar para la generación de imágenes comenzando con una imagen compuesta de ruido aleatorio y aplicando la red de manera iterativa para eliminar el ruido de la imagen.

Los generadores de imágenes basados ​​en difusión han despertado un gran interés comercial, como Stable Diffusion y DALL-E . Estos modelos suelen combinar modelos de difusión con otros modelos, como codificadores de texto y módulos de atención cruzada, para permitir la generación condicionada por el texto. [6]

Además de la visión por computadora, los modelos de difusión también han encontrado aplicaciones en el procesamiento del lenguaje natural [7], como la generación de texto [8] [9] y el resumen , [10] la generación de sonido [11] y el aprendizaje de refuerzo. [12] [13]

Modelo de difusión de eliminación de ruido

Termodinámica del no equilibrio

Los modelos de difusión se introdujeron en 2015 como un método para aprender un modelo que pueda tomar muestras de una distribución de probabilidad altamente compleja. Utilizaron técnicas de la termodinámica del no equilibrio , especialmente la difusión . [14]

Consideremos, por ejemplo, cómo se podría modelar la distribución de todas las fotos que se forman de forma natural. Cada imagen es un punto en el espacio de todas las imágenes, y la distribución de las fotos que se forman de forma natural es una "nube" en el espacio que, al añadir ruido repetidamente a las imágenes, se difunde hacia el resto del espacio de la imagen, hasta que la nube se vuelve casi indistinguible de una distribución gaussiana . Un modelo que pueda deshacer aproximadamente la difusión se puede utilizar entonces para tomar muestras de la distribución original. Esto se estudia en la termodinámica del "no equilibrio", ya que la distribución inicial no está en equilibrio, a diferencia de la distribución final.

La distribución de equilibrio es la distribución gaussiana , con pdf . Esta es simplemente la distribución de Maxwell-Boltzmann de partículas en un pozo de potencial a temperatura 1. La distribución inicial, al estar muy fuera de equilibrio, se difundiría hacia la distribución de equilibrio, dando pasos aleatorios sesgados que son una suma de aleatoriedad pura (como un caminante browniano ) y descenso de gradiente por el pozo de potencial. La aleatoriedad es necesaria: si las partículas experimentaran solo un descenso de gradiente, entonces todas caerían al origen, colapsando la distribución.

Modelo probabilístico de difusión de eliminación de ruido (DDPM)

El artículo de 2020 propuso el modelo probabilístico de difusión de eliminación de ruido (DDPM), que mejora el método anterior mediante inferencia variacional . [4] [15]

Difusión hacia adelante

Para presentar el modelo, necesitamos alguna notación.

Un proceso de difusión hacia adelante comienza en un punto de partida , donde es la distribución de probabilidad que se debe aprender, y luego le agrega ruido repetidamente por donde son las muestras de IID de . Esto está diseñado de modo que para cualquier distribución de partida de , tengamos convergencia a .

Todo el proceso de difusión satisface entonces o donde es una constante de normalización y a menudo se omite. En particular, notamos que es un proceso gaussiano , que nos brinda una libertad considerable en la reparametrización . Por ejemplo, mediante la manipulación estándar con el proceso gaussiano, En particular, observe que para , la variable converge a . Es decir, después de un proceso de difusión lo suficientemente largo, terminamos con algo que es muy cercano a , con todos los rastros del original desaparecidos.

Por ejemplo, porque podemos muestrear directamente "en un solo paso", en lugar de pasar por todos los pasos intermedios .

Derivación por reparametrización

Sabemos que es una gaussiana y es otra gaussiana. También sabemos que son independientes. Por lo tanto, podemos realizar una reparametrización: donde son gaussianas IID.

Hay 5 variables y dos ecuaciones lineales. Las dos fuentes de aleatoriedad son , que se pueden repararmetrizar mediante rotación, ya que la distribución gaussiana IID es rotacionalmente simétrica.

Al introducir las ecuaciones, podemos resolver la primera reparametrización: donde es una gaussiana con media cero y varianza uno.

Para encontrar el segundo, completamos la matriz rotacional:

Como las matrices rotacionales son todas de la forma , sabemos que la matriz debe ser y como la inversa de la matriz rotacional es su transpuesta,

Retrocediendo y simplificando, tenemos

Difusión hacia atrás

La idea clave de DDPM es utilizar una red neuronal parametrizada por . La red toma dos argumentos y genera un vector y una matriz , de modo que cada paso en el proceso de difusión hacia adelante se puede deshacer aproximadamente mediante . Esto nos da un proceso de difusión hacia atrás definido por El objetivo ahora es aprender los parámetros de modo que sea lo más cercano posible a . Para ello, utilizamos la estimación de máxima verosimilitud con inferencia variacional.

Inferencia variacional

La desigualdad ELBO establece que y tomando una expectativa más, obtenemos Vemos que maximizar la cantidad de la derecha nos daría un límite inferior en la probabilidad de los datos observados. Esto nos permite realizar inferencia variacional.

Defina la función de pérdida y ahora el objetivo es minimizar la pérdida mediante un descenso de gradiente estocástico. La expresión se puede simplificar a [16] donde no depende del parámetro y, por lo tanto, se puede ignorar. Dado que tampoco depende del parámetro, el término también se puede ignorar. Esto deja solo con para minimizar.

Red de predicción de ruido

Dado que , esto sugiere que deberíamos usar ; sin embargo, la red no tiene acceso a , por lo que debe estimarlo en su lugar. Ahora, dado que , podemos escribir , donde es un ruido gaussiano desconocido. Ahora vemos que estimar es equivalente a estimar .

Por lo tanto, deje que la red genere un vector de ruido y que prediga . Queda por diseñar . El documento de DDPM sugirió no aprenderlo (ya que daba como resultado "un entrenamiento inestable y una calidad de muestra más pobre"), sino fijarlo en algún valor , donde cualquiera de los dos arrojara un rendimiento similar.

Con esto, la pérdida se simplifica a lo que se puede minimizar mediante el descenso del gradiente estocástico. El artículo observó empíricamente que una función de pérdida aún más simple dio como resultado mejores modelos.

Proceso de difusión hacia atrás

Una vez entrenada una red de predicción de ruido, se puede utilizar para generar puntos de datos en la distribución original en un bucle de la siguiente manera:

  1. Calcular la estimación del ruido
  2. Calcular la estimación de los datos originales
  3. Muestrear los datos anteriores
  4. Cambiar hora

Modelo generativo basado en puntuaciones

El modelo generativo basado en puntuaciones es otra formulación del modelado de difusión. También se denomina red de puntuación condicional al ruido (NCSN) o coincidencia de puntuaciones con dinámica de Langevin (SMLD). [17] [18] [19] [20]

Coincidencia de puntuaciones

La idea de las funciones de puntuación

Consideremos el problema de la generación de imágenes. Sea una imagen y sea la distribución de probabilidad sobre todas las imágenes posibles. Si tenemos la distribución de probabilidad , entonces podemos decir con certeza qué tan probable es una determinada imagen. Sin embargo, esto es intratable en general.

En la mayoría de los casos, no nos interesa conocer la probabilidad absoluta de una determinada imagen. En cambio, normalmente solo nos interesa saber qué probabilidad hay de que aparezca una determinada imagen en comparación con sus vecinas inmediatas (por ejemplo, ¿cuánta más probabilidad hay de que aparezca la imagen de un gato en comparación con algunas pequeñas variantes de la misma? ¿Es más probable que la imagen contenga dos bigotes, tres o algo de ruido gaussiano añadido?).

Por lo tanto, en realidad no nos interesa en sí mismo, sino más bien ... Esto tiene dos efectos principales:

Sea la función de puntuación ; luego consideremos lo que podemos hacer con .

Resulta que nos permite tomar muestras de la termodinámica. En concreto, si tenemos una función de energía potencial y muchas partículas en el pozo de potencial, entonces la distribución en equilibrio termodinámico es la distribución de Boltzmann . A temperatura , la distribución de Boltzmann es exactamente .

Por lo tanto, para modelar , podemos empezar con una partícula muestreada en cualquier distribución conveniente (como la distribución gaussiana estándar), luego simular el movimiento de la partícula hacia adelante de acuerdo con la ecuación de Langevin y la distribución de Boltzmann es, por la ecuación de Fokker-Planck, el único equilibrio termodinámico . Entonces, no importa qué distribución tenga, la distribución de converge en la distribución a como .

Aprendiendo la función de puntuación

Dada una densidad , deseamos aprender una aproximación de la función de puntuación . Esto es la coincidencia de puntuación . [21] Normalmente, la coincidencia de puntuación se formaliza como minimización de la función de divergencia de Fisher . Al expandir la integral y realizar una integración por partes, obtenemos una función de pérdida, también conocida como la regla de puntuación de Hyvärinen , que se puede minimizar mediante el descenso de gradiente estocástico.

Recocido de la función de puntuación

Supongamos que necesitamos modelar la distribución de imágenes y queremos , una imagen de ruido blanco. Ahora bien, la mayoría de las imágenes de ruido blanco no parecen imágenes reales, por lo que para grandes franjas de . Esto presenta un problema para aprender la función de puntuación, porque si no hay muestras alrededor de un punto determinado, entonces no podemos aprender la función de puntuación en ese punto. Si no conocemos la función de puntuación en ese punto, entonces no podemos imponer la ecuación de evolución temporal en una partícula: Para abordar este problema, realizamos el recocido . Si es demasiado diferente de una distribución de ruido blanco, entonces añadimos ruido progresivamente hasta que sea indistinguible de una. Es decir, realizamos una difusión hacia delante, luego aprendemos la función de puntuación, luego usamos la función de puntuación para realizar una difusión hacia atrás.

Procesos de difusión continua

Proceso de difusión hacia adelante

Consideremos nuevamente el proceso de difusión hacia adelante, pero esta vez en tiempo continuo: Tomando el límite, obtenemos un proceso de difusión continuo, en forma de una ecuación diferencial estocástica : donde es un proceso de Wiener (movimiento browniano multidimensional).

Ahora bien, la ecuación es exactamente un caso especial de la ecuación de Langevin sobreamortiguada , donde es el tensor de difusión, es la temperatura y es el campo de energía potencial. Si sustituimos en , recuperamos la ecuación anterior. Esto explica por qué a veces se utiliza la frase "dinámica de Langevin" en los modelos de difusión.

Ahora bien, la ecuación anterior es para el movimiento estocástico de una sola partícula. Supongamos que tenemos una nube de partículas distribuidas de acuerdo con en el tiempo , luego, después de un largo tiempo, la nube de partículas se asentaría en la distribución estable de . Sea la densidad de la nube de partículas en el tiempo , entonces tenemos y el objetivo es revertir de alguna manera el proceso, de modo que podamos comenzar en el final y difundir de nuevo al principio.

Por la ecuación de Fokker-Planck , la densidad de la nube evoluciona en función de donde es la dimensión del espacio, y es el operador de Laplace .

Proceso de difusión hacia atrás

Si hemos resuelto el tiempo , entonces podemos invertir exactamente la evolución de la nube. Supongamos que empezamos con otra nube de partículas con densidad , y dejamos que las partículas en la nube evolucionen de acuerdo con , entonces, introduciendo en la ecuación de Fokker-Planck, encontramos que . Por lo tanto, esta nube de puntos es la nube original, que evoluciona hacia atrás. [22]

Red de puntuación condicional de ruido (NCSN)

En el límite continuo, y así En particular, vemos que podemos muestrear directamente desde cualquier punto en el proceso de difusión continua sin pasar por los pasos intermedios, primero muestreando , luego obteniendo . Es decir, podemos muestrear rápidamente para cualquier .

Ahora, defina una cierta distribución de probabilidad sobre , luego la función de pérdida de coincidencia de puntaje se define como la divergencia de Fisher esperada: Después del entrenamiento, , por lo que podemos realizar el proceso de difusión hacia atrás muestreando primero , luego integrando la SDE de a : Esto se puede hacer mediante cualquier método de integración SDE, como el método de Euler-Maruyama .

El nombre "red de puntuación condicional de ruido" se explica así:

Su equivalencia

Los modelos generativos basados ​​en puntajes y DDPM son equivalentes. [18] [2] [23] Esto significa que una red entrenada con DDPM se puede utilizar como NCSN, y viceversa.

Sabemos que , por lo que por la fórmula de Tweedie , tenemos Como se describió anteriormente, la función de pérdida de DDPM es con donde . Por un cambio de variables, y el término dentro se convierte en una regresión de mínimos cuadrados, por lo que si la red realmente alcanza el mínimo global de pérdida, entonces tenemos

De este modo, se puede utilizar una red basada en puntuaciones para eliminar el ruido de la difusión.

Por el contrario, el límite continuo de la ecuación hacia atrás nos da exactamente la misma ecuación que la difusión basada en puntajes: por lo tanto, se puede utilizar una red de eliminación de ruido como para la difusión basada en puntajes.

Variantes principales

Horario de ruido

Ilustración de un programa de ruido de difusión lineal. Con ajustes .

En DDPM, la secuencia de números se denomina programa de ruido (tiempo discreto) . En general, considere una función monótona estrictamente creciente de tipo , como la función sigmoidea . En ese caso, un programa de ruido es una secuencia de números reales . Luego define una secuencia de ruidos , que luego deriva las otras cantidades .

Para utilizar programaciones de ruido arbitrarias, en lugar de entrenar un modelo de predicción de ruido , se entrena .

De manera similar, para la red de puntuación condicional de ruido, en lugar de entrenar , se entrena .

Modelo implícito de difusión de eliminación de ruido (DDIM)

El método DDPM original para generar imágenes es lento, ya que el proceso de difusión hacia adelante generalmente demora en hacer que la distribución de parezca cercana a la gaussiana. Sin embargo, esto significa que el proceso de difusión hacia atrás también requiere 1000 pasos. A diferencia del proceso de difusión hacia adelante, que puede omitir pasos ya que es gaussiano para todos los , el proceso de difusión hacia atrás no permite omitir pasos. Por ejemplo, para muestrear se requiere que el modelo primero muestree . Intentar muestrear directamente requeriría que marginalicemos , lo que generalmente es intratable.

DDIM [24] es un método para tomar cualquier modelo entrenado con pérdida de DDPM y usarlo para muestrear con algunos pasos omitidos, sacrificando una cantidad ajustable de calidad. Si generamos el caso de cadena markoviana en DDPM al caso no markoviano, DDIM corresponde al caso en que el proceso inverso tiene una varianza igual a 0. En otras palabras, el proceso inverso (y también el proceso directo) es determinista. Al utilizar menos pasos de muestreo, DDIM supera a DDPM.

En detalle, el método de muestreo DDIM es el siguiente. Comienza con el proceso de difusión hacia adelante . Luego, durante el proceso de eliminación de ruido hacia atrás, dado , los datos originales se estiman como entonces el proceso de difusión hacia atrás puede saltar a cualquier paso , y la siguiente muestra eliminada de ruido es donde es un número real arbitrario dentro del rango , y es un ruido gaussiano recién muestreado. [16] Si todos , entonces el proceso hacia atrás se vuelve determinista, y este caso especial de DDIM también se llama "DDIM". El documento original señaló que cuando el proceso es determinista, las muestras generadas con solo 20 pasos ya son muy similares a las generadas con 1000 pasos en el nivel alto.

El artículo original recomendaba definir un único "valor eta" , de modo que . Cuando , este es el DDPM original. Cuando , este es el DDIM completamente determinista. Para valores intermedios, el proceso interpola entre ellos.

Por equivalencia, el algoritmo DDIM también se aplica a los modelos de difusión basados ​​en puntuaciones.

Modelo de difusión latente (LDM)

Dado que el modelo de difusión es un método general para modelar distribuciones de probabilidad, si se desea modelar una distribución sobre imágenes, primero se pueden codificar las imágenes en un espacio de menor dimensión mediante un codificador y luego utilizar un modelo de difusión para modelar la distribución sobre imágenes codificadas. Luego, para generar una imagen, se puede tomar una muestra del modelo de difusión y luego utilizar un decodificador para decodificarla en una imagen. [25]

El par codificador-decodificador suele ser un autocodificador variacional (VAE).

Mejoras arquitectónicas

[26] propusieron varias mejoras arquitectónicas. Por ejemplo, propusieron una interpolación logarítmica durante el muestreo hacia atrás. En lugar de muestrear desde , recomendaron muestrear desde para un parámetro aprendido .

En el formalismo de predicción v , la fórmula de ruido se reparametriza mediante un ángulo tal que y una "velocidad" definida por . La red se entrena para predecir la velocidad , y la eliminación de ruido se realiza mediante . [27] Se descubrió que esta parametrización mejora el rendimiento, ya que el modelo se puede entrenar para alcanzar el ruido total (es decir, ) y luego revertirlo, mientras que la parametrización estándar nunca alcanza el ruido total ya que siempre es verdadera. [28]

Guía de clasificadores

En 2021 se propuso una guía de clasificadores para mejorar la generación condicional de clases mediante el uso de un clasificador. La publicación original utilizó codificadores de texto CLIP para mejorar la generación de imágenes condicionales de texto. [29]

Supongamos que no queremos tomar muestras de toda la distribución de imágenes, sino que queremos tomar muestras de la descripción de la imagen. No queremos tomar muestras de una imagen genérica, sino de una imagen que se ajuste a la descripción "gato negro con ojos rojos". En general, queremos tomar muestras de la distribución , donde se incluyen imágenes y clases de imágenes (una descripción "gato negro con ojos rojos" es solo una clase muy detallada, y una clase "gato" es solo una descripción muy vaga).

Tomando la perspectiva del modelo de canal ruidoso , podemos entender el proceso de la siguiente manera: Para generar una imagen condicional a la descripción , imaginamos que el solicitante realmente tenía en mente una imagen , pero la imagen pasa a través de un canal ruidoso y sale confusa, como . La generación de imágenes no es entonces más que inferir lo que el solicitante tenía en mente.

En otras palabras, la generación condicional de imágenes es simplemente "traducir de un lenguaje textual a un lenguaje pictórico". Luego, como en el modelo de canal ruidoso, usamos el teorema de Bayes para obtener, en otras palabras, si tenemos un buen modelo del espacio de todas las imágenes y un buen traductor de imagen a clase, obtenemos un traductor de clase a imagen "gratis". En la ecuación para la difusión hacia atrás, la puntuación se puede reemplazar por donde es la función de puntuación, entrenada como se describió anteriormente, y se encuentra utilizando un clasificador de imágenes diferenciable.

Durante el proceso de difusión, necesitamos condicionar el tiempo, dando Aunque, normalmente el modelo clasificador no depende del tiempo, en cuyo caso .

La guía del clasificador se define para el gradiente de la función de puntuación, por lo tanto, para la red de difusión basada en puntuación, pero como se señaló anteriormente, los modelos de difusión basados ​​en puntuación son equivalentes a los modelos de eliminación de ruido por , y de manera similar, . Por lo tanto, la guía del clasificador también funciona para la difusión de eliminación de ruido, utilizando la predicción de ruido modificada: [29]

Con temperatura

El modelo de difusión guiado por clasificador toma muestras de , que se concentra alrededor de la estimación máxima a posteriori . Si queremos forzar al modelo a moverse hacia la estimación de máxima verosimilitud , podemos usar donde es interpretable como temperatura inversa . En el contexto de los modelos de difusión, generalmente se denomina escala de guía . Un valor alto obligaría al modelo a tomar muestras de una distribución concentrada alrededor de . Esto a veces mejora la calidad de las imágenes generadas. [29]

Esto da una modificación a la ecuación anterior: para los modelos de eliminación de ruido, corresponde a [30]

Guía sin clasificador (CFG)

Si no tenemos un clasificador , aún podríamos extraer uno del propio modelo de imagen: [30] Un modelo de este tipo se suele entrenar presentándole tanto y , lo que le permite modelar tanto y .

Tenga en cuenta que, para CFG, el modelo de difusión no puede ser simplemente un modelo generativo de toda la distribución de datos . Debe ser un modelo generativo condicional . Por ejemplo, en la difusión estable, la estructura principal de la difusión toma como entrada un modelo ruidoso , un tiempo y un vector de condicionamiento (como un vector que codifica un mensaje de texto) y produce una predicción de ruido .

Para los modelos de eliminación de ruido, corresponde a Como se muestrea mediante DDIM, el algoritmo se puede escribir como [31] Una técnica similar se aplica al muestreo de modelos de lenguaje. Además, si la generación incondicional se reemplaza por , entonces da como resultado una indicación negativa, que aleja la generación de la condición. [32] [33]

Muestreadores

Dado un modelo de difusión, se lo puede considerar como un proceso continuo y tomar muestras de él mediante la integración de una SDE, o se lo puede considerar como un proceso discreto y tomar muestras de él mediante la iteración de los pasos discretos. La elección de la " programación de ruido " también puede afectar la calidad de las muestras. Una programación de ruido es una función que envía un número natural a un nivel de ruido: Una programación de ruido se especifica más a menudo mediante un mapa . Las dos definiciones son equivalentes, ya que .

En la perspectiva de DDPM, se puede utilizar el propio DDPM (con ruido) o DDIM (con una cantidad ajustable de ruido). El caso en el que se añade ruido a veces se denomina muestreo ancestral. [34] Se puede interpolar entre ruido y ausencia de ruido. La cantidad de ruido se denota ("valor eta") en el artículo de DDIM, con denotación de ausencia de ruido (como en DDIM determinista ) y denotación de ruido total (como en DDPM).

En la perspectiva de SDE, se puede utilizar cualquiera de los métodos de integración numérica , como el método de Euler-Maruyama , el método de Heun , los métodos lineales de múltiples pasos , etc. Al igual que en el caso discreto, se puede agregar una cantidad ajustable de ruido durante la integración.

En este artículo se presenta un estudio y una comparación de muestreadores en el contexto de la generación de imágenes. [35]

Otros ejemplos

Las variantes notables incluyen [36] modelo generativo de flujo de Poisson, [37] modelo de consistencia, [38] difusión de Langevin críticamente amortiguada, [39] GenPhys, [40] difusión fría, [41] difusión discreta, [42] [43] etc.

Modelo de difusión basado en flujo

En términos abstractos, la idea del modelo de difusión es tomar una distribución de probabilidad desconocida (la distribución de imágenes de aspecto natural) y luego convertirla progresivamente en una distribución de probabilidad conocida (distribución gaussiana estándar), mediante la construcción de una ruta de probabilidad absolutamente continua que las conecte. La ruta de probabilidad está, de hecho, definida implícitamente por la función de puntuación .

En los modelos de difusión de eliminación de ruido, el proceso directo agrega ruido y el proceso inverso lo elimina. Tanto el proceso directo como el inverso son ecuaciones diferenciales simples (EDS) , aunque el proceso directo es integrable en forma cerrada, por lo que se puede realizar sin costo computacional. El proceso inverso no es integrable en forma cerrada, por lo que debe integrarse paso a paso mediante solucionadores de EDS estándar, lo que puede ser muy costoso. La ruta de probabilidad en el modelo de difusión se define a través de un proceso de Itô y se puede recuperar el proceso determinista utilizando la formulación de flujo de EDO de probabilidad. [2]

En los modelos de difusión basados ​​en flujo, el proceso hacia adelante es un flujo determinista a lo largo de un campo vectorial dependiente del tiempo, y el proceso hacia atrás también es un flujo determinista a lo largo del mismo campo vectorial, pero en sentido inverso. Ambos procesos son soluciones de las EDO . Si el campo vectorial se comporta bien, la EDO también se comportará bien.

Dadas dos distribuciones y , un modelo basado en flujo es un campo de velocidad dependiente del tiempo en , de modo que si empezamos muestreando un punto y dejamos que se mueva de acuerdo con el campo de velocidad: terminamos con un punto . La solución de la EDO anterior define una ruta de probabilidad mediante el operador de medida de avance . En particular, .

La ruta de probabilidad y el campo de velocidad también satisfacen la ecuación de continuidad , en el sentido de distribución de probabilidad: Para construir una ruta de probabilidad, comenzamos por construir una ruta de probabilidad condicional y el campo de velocidad condicional correspondiente en alguna distribución condicional . Una opción natural es la ruta de probabilidad condicional gaussiana: El campo de velocidad condicional que corresponde a la ruta geodésica entre la ruta gaussiana condicional es La ruta de probabilidad y el campo de velocidad se calculan luego marginalizando

Flujo de transporte óptimo

La idea del flujo de transporte óptimo [44] es construir una ruta de probabilidad que minimice la métrica de Wasserstein . La distribución sobre la que condicionamos es el plan de transporte óptimo entre y : y , donde es el plan de transporte óptimo, que puede aproximarse mediante el transporte óptimo en minilotes.

Flujo rectificado

La idea del flujo rectificado [45] [46] es aprender un modelo de flujo tal que la velocidad sea casi constante a lo largo de cada trayectoria de flujo. Esto es beneficioso, porque podemos integrar a lo largo de dicho campo vectorial con muy pocos pasos. Por ejemplo, si una EDO sigue trayectorias perfectamente rectas, se simplifica a , lo que permite soluciones exactas en un solo paso. En la práctica, no podemos alcanzar tal perfección, pero cuando el campo de flujo es casi así, podemos dar unos pocos pasos grandes en lugar de muchos pasos pequeños.

La idea general es comenzar con dos distribuciones y , luego construir un campo de flujo a partir de ellas y luego aplicar repetidamente una operación de "reflujo" para obtener campos de flujo sucesivos , cada uno más recto que el anterior. Cuando el campo de flujo es lo suficientemente recto para la aplicación, nos detenemos.

En general, para cualquier proceso diferenciable en el tiempo , se puede estimar resolviendo:

En el flujo rectificado, al inyectar fuertes probabilidades previas de que las trayectorias intermedias son rectas, se puede lograr relevancia teórica para el transporte óptimo y eficiencia computacional, ya que las EDO con trayectorias rectas se pueden simular con precisión sin discretización temporal.

Transporte por flujo rectificado [45]

En concreto, el flujo rectificado busca hacer coincidir una EDO con las distribuciones marginales de la interpolación lineal entre puntos de las distribuciones y . Dadas las observaciones y , la interpolación lineal canónica produce un caso trivial , que no se puede simular causalmente sin . Para abordar esto, se "proyecta" en un espacio de EDO simulables causalmente, minimizando la pérdida de mínimos cuadrados con respecto a la dirección :

El par de datos puede ser cualquier acoplamiento de y , normalmente independientes (es decir, ) obtenidos mediante la combinación aleatoria de observaciones de y . Este proceso garantiza que las trayectorias reflejen fielmente el mapa de densidad de trayectorias, pero se redirigen en las intersecciones para garantizar la causalidad. Este proceso de rectificación también se conoce como coincidencia de flujo, [47] interpolación estocástica, [48] y combinación alfa. [ cita requerida ]

El proceso de reflujo [45]

Un aspecto distintivo del flujo rectificado es su capacidad de " reflujo ", que endereza la trayectoria de las trayectorias de las EDO. Denotemos el flujo rectificado inducido desde como . La aplicación recursiva de este operador genera una serie de flujos rectificados . Este proceso de "reflujo" no solo reduce los costos de transporte, sino que también endereza las trayectorias de los flujos rectificados, haciendo que las trayectorias sean más rectas a medida que aumenta .

El flujo rectificado incluye una extensión no lineal donde la interpolación lineal se reemplaza con cualquier curva diferenciable en el tiempo que conecta y , dada por . Este marco abarca DDIM y EDO de flujo de probabilidad como casos especiales, con opciones particulares de y . Sin embargo, en el caso donde la ruta de no es recta, el proceso de reflujo ya no garantiza una reducción en los costos de transporte convexo, y tampoco endereza las rutas de . [45]

Consulte [49] para obtener un tutorial sobre correspondencia de flujo, con animaciones.

Elección de la arquitectura

Arquitectura de difusión estable
El proceso de eliminación de ruido utilizado por Stable Diffusion

Modelo de difusión

Para generar imágenes mediante DDPM, necesitamos una red neuronal que tome un tiempo y una imagen ruidosa y prediga un ruido a partir de ella. Dado que predecir el ruido es lo mismo que predecir la imagen sin ruido y luego restarlo de , las arquitecturas de eliminación de ruido tienden a funcionar bien. Por ejemplo, la U-Net , que resultó ser buena para eliminar el ruido de las imágenes, se utiliza a menudo para eliminar el ruido de los modelos de difusión que generan imágenes. [50]

Para DDPM, la arquitectura subyacente ("columna vertebral") no tiene que ser una U-Net. Solo tiene que predecir el ruido de alguna manera. Por ejemplo, el transformador de difusión (DiT) utiliza un Transformador para predecir la covarianza media y diagonal del ruido, dado el condicionamiento textual y la imagen parcialmente denoizada. Es lo mismo que el modelo de difusión denoizado basado en U-Net estándar, con un Transformador reemplazando a la U-Net. [51] También se puede aplicar una mezcla de expertos -Transformador. [52]

El DDPM se puede utilizar para modelar distribuciones de datos generales, no solo imágenes de aspecto natural. Por ejemplo, Human Motion Diffusion [53] modela la trayectoria del movimiento humano mediante DDPM. Cada trayectoria del movimiento humano es una secuencia de poses, representadas por rotaciones o posiciones de las articulaciones. Utiliza una red de transformadores para generar una trayectoria menos ruidosa a partir de una ruidosa.

Acondicionamiento

El modelo de difusión base solo puede generar incondicionalmente a partir de toda la distribución. Por ejemplo, un modelo de difusión aprendido en ImageNet generaría imágenes que se verían como una imagen aleatoria de ImageNet. Para generar imágenes de una sola categoría, se necesitaría imponer la condición y luego tomar una muestra de la distribución condicional. Cualquiera sea la condición que se quiera imponer, primero se debe convertir el condicionamiento en un vector de números de punto flotante y luego introducirlo en la red neuronal del modelo de difusión subyacente. Sin embargo, uno tiene libertad para elegir cómo convertir el condicionamiento en un vector.

La difusión estable, por ejemplo, impone un condicionamiento en forma de mecanismo de atención cruzada , donde la consulta es una representación intermedia de la imagen en la U-Net, y tanto la clave como el valor son los vectores de condicionamiento. El condicionamiento se puede aplicar de forma selectiva solo a partes de una imagen, y se pueden ajustar nuevos tipos de condicionamientos sobre el modelo base, como se utiliza en ControlNet. [54]

Como ejemplo particularmente simple, considere la restauración de una imagen . Las condiciones son , la imagen de referencia, y , la máscara de restauración . El condicionamiento se impone en cada paso del proceso de difusión hacia atrás, primero muestreando , una versión ruidosa de , luego reemplazando con , donde significa multiplicación elemento por elemento . [55] Otra aplicación del mecanismo de atención cruzada es la edición de imágenes de aviso a aviso. [56]

El condicionamiento no se limita a generar imágenes de una categoría específica o de acuerdo con un título específico (como en el caso de la conversión de texto a imagen). Por ejemplo, [53] demostró la generación de movimiento humano, condicionado a un clip de audio de una persona caminando (lo que permite sincronizar el movimiento con una banda sonora), o un video de una persona corriendo, o una descripción textual del movimiento humano, etc. Para conocer cómo se formulan matemáticamente los modelos de difusión condicional, consulte un resumen metodológico en [57] .

Ampliación de escala

Como generar una imagen lleva mucho tiempo, se puede intentar generar una imagen pequeña mediante un modelo de difusión base y luego ampliarla mediante otros modelos. La ampliación se puede realizar mediante GAN , [58] Transformador , [59] o métodos de procesamiento de señales como el remuestreo de Lanczos .

Los modelos de difusión se pueden utilizar para realizar el escalado. El modelo de difusión en cascada apila varios modelos de difusión uno tras otro, al estilo de Progressive GAN . El nivel más bajo es un modelo de difusión estándar que genera una imagen de 32x32, luego la imagen se escalaría mediante un modelo de difusión entrenado específicamente para el escalado, y el proceso se repite. [50]

En más detalle, el escalador de difusión se entrena de la siguiente manera: [50]

Ejemplos

Esta sección recopila algunos modelos de difusión notables y describe brevemente su arquitectura.

IA abierta

La serie DALL-E de OpenAI son modelos de difusión de imágenes condicionales de texto.

La primera versión de DALL-E (2021) no es en realidad un modelo de difusión, sino que utiliza una arquitectura de transformador que genera de forma autorregresiva una secuencia de tokens, que luego el decodificador de un VAE discreto convierte en una imagen. Junto con DALL-E se lanzó el clasificador CLIP, que DALL-E utilizó para clasificar las imágenes generadas según el grado de ajuste de la imagen al texto.

GLIDE (2022-03) [60] es un modelo de difusión de 3.500 millones de caracteres, y se publicó una versión pequeña. [6] Poco después, se lanzó DALL-E 2 (2022-04). [61] DALL-E 2 es un modelo de difusión en cascada de 3.500 millones de caracteres que genera imágenes a partir de texto "invirtiendo el codificador de imágenes CLIP", la técnica que denominaron "unCLIP".

El método unCLIP contiene 4 modelos: un codificador de imágenes CLIP, un codificador de texto CLIP, un decodificador de imágenes y un modelo "previo" (que puede ser un modelo de difusión o un modelo autorregresivo). Durante el entrenamiento, el modelo previo se entrena para convertir las codificaciones de imágenes CLIP en codificaciones de texto CLIP. El decodificador de imágenes se entrena para convertir las codificaciones de imágenes CLIP nuevamente en imágenes. Durante la inferencia, el codificador de texto CLIP convierte un texto en un vector, luego el modelo previo lo convierte en una codificación de imágenes y luego el decodificador de imágenes lo convierte en una imagen.

Sora (2024-02) es un modelo de Transformador de difusión (DiT).

Estabilidad IA

Stable Diffusion (2022-08), publicado por Stability AI, consta de un modelo de difusión latente de eliminación de ruido (860 millones de parámetros), un VAE y un codificador de texto. La red de eliminación de ruido es una U-Net, con bloques de atención cruzada para permitir la generación de imágenes condicionales. [62] [25]

Stable Diffusion 3 (2024-03) [63] cambió el modelo de difusión latente de UNet a un modelo de Transformador, por lo que es un DiT. Utiliza flujo rectificado.

Stable Video 4D (2024-07) [64] es un modelo de difusión latente para vídeos de objetos 3D.

Google

Imagen (2022) [65] [66] utiliza un modelo de lenguaje T5-XXL para codificar el texto de entrada en un vector de incrustación. Es un modelo de difusión en cascada con tres submodelos. El primer paso elimina el ruido blanco de una imagen de 64×64, condicionado al vector de incrustación del texto. Este modelo tiene 2B parámetros. El segundo paso aumenta la escala de la imagen en 64×64→256×256, condicionado a la incrustación. Este modelo tiene 650M parámetros. El tercer paso es similar, aumenta la escala en 256×256→1024×1024. Este modelo tiene 400M parámetros. Las tres redes de eliminación de ruido son todas U-Nets.

Muse (2023-01) [67] no es un modelo de difusión, sino un transformador solo codificador que está entrenado para predecir tokens de imágenes enmascaradas a partir de tokens de imágenes no enmascaradas.

Imagen 2 (2023-12) también se basa en la difusión. Puede generar imágenes a partir de un mensaje que combina imágenes y texto. No hay más información disponible. [68]

Veo (2024) genera vídeos mediante difusión latente. La difusión está condicionada a un vector que codifica tanto un texto como una imagen. [69]

Meta

Make-A-Video (2022) es un modelo de difusión de texto a vídeo. [70] [71]

CM3leon (2023) no es un modelo de difusión, sino un transformador autorregresivo causalmente enmascarado, con prácticamente la misma arquitectura que LLaMa -2. [72] [73]

Diagrama arquitectónico de transfusión.

Transfusion (2024) es un transformador que combina la generación de texto autorregresivo y la difusión de eliminación de ruido. En concreto, genera texto de forma autorregresiva (con enmascaramiento causal) y genera imágenes eliminando el ruido varias veces en los tokens de imagen (con atención de todos a todos). [74]

Movie Gen (2024) es una serie de transformadores de difusión que operan en el espacio latente y mediante coincidencia de flujo. [75]

Véase también

Lectura adicional

Referencias

  1. ^ Chang, Ziyi; Koulieris, George Alex; Shum, Hubert PH (2023). "Sobre los fundamentos de diseño de los modelos de difusión: un estudio". arXiv : 2306.04542 [cs.LG].
  2. ^ abcd Song, Yang; Sohl-Dickstein, Jascha; Kingma, Diederik P.; Kumar, Abhishek; Ermon, Stefano; Poole, Ben (10 de febrero de 2021). "Modelado generativo basado en puntuaciones a través de ecuaciones diferenciales estocásticas". arXiv : 2011.13456 [cs.LG].
  3. ^ Croitoru, Florinel-Alin; Hondru, Vlad; Ionescu, Radu Tudor; Shah, Mubarak (2023). "Modelos de difusión en visión: una encuesta". Transacciones IEEE sobre análisis de patrones e inteligencia artificial . 45 (9): 10850–10869. arXiv : 2209.04747 . doi :10.1109/TPAMI.2023.3261988. PMID  37030794. S2CID  252199918.
  4. ^ ab Ho, Jonathan; Jain, Ajay; Abbeel, Pieter (2020). "Modelos probabilísticos de difusión para la eliminación de ruido". Avances en sistemas de procesamiento de información neuronal . 33 . Curran Associates, Inc.: 6840–6851.
  5. ^ Gu, Shuyang; Chen, Dong; Bao, Jianmin; Wen, colmillo; Zhang, Bo; Chen, Dongdong; Yuan, Lu; Guo, Baining (2021). "Modelo de difusión cuantificada vectorial para síntesis de texto a imagen". arXiv : 2111.14822 [cs.CV].
  6. ^ de GLIDE, OpenAI, 22 de septiembre de 2023 , consultado el 24 de septiembre de 2023
  7. ^ Li, Yifan; Zhou, Kun; Zhao, Wayne Xin; Wen, Ji-Rong (agosto de 2023). "Modelos de difusión para la generación de texto no autorregresivo: una encuesta". Actas de la 32.ª Conferencia Conjunta Internacional sobre Inteligencia Artificial . California: Organización de Conferencias Conjuntas Internacionales sobre Inteligencia Artificial. págs. 6692–6701. arXiv : 2303.06574 . doi :10.24963/ijcai.2023/750. ISBN 978-1-956792-03-4.
  8. ^ Han, Xiaochuang; Kumar, Sachin; Tsvetkov, Yulia (2023). "SSD-LM: modelo de lenguaje de difusión basado en símplex semiautorregresivo para generación de texto y control modular". Actas de la 61.ª reunión anual de la Asociación de Lingüística Computacional (volumen 1: artículos extensos) . Stroudsburg, PA, EE. UU.: Asociación de Lingüística Computacional: 11575–11596. arXiv : 2210.17432 . doi :10.18653/v1/2023.acl-long.647.
  9. ^ Xu, Weijie; Hu, Wenxiang; Wu, Fanyou; Sengamedu, Srinivasan (2023). "DeTiME: modelado de temas mejorado por difusión utilizando LLM basado en codificador-decodificador". Hallazgos de la Asociación de Lingüística Computacional: EMNLP 2023. Stroudsburg, PA, EE. UU.: Asociación de Lingüística Computacional: 9040–9057. arXiv : 2310.15296 . doi :10.18653/v1/2023.findings-emnlp.606.
  10. ^ Zhang, Haopeng; Liu, Xiao; Zhang, Jiawei (2023). "DiffuSum: Generación de resumen extractivo mejorado con difusión". Hallazgos de la Asociación de Lingüística Computacional: ACL 2023. Stroudsburg, PA, EE. UU.: Asociación de Lingüística Computacional: 13089–13100. arXiv : 2305.01735 . doi :10.18653/v1/2023.findings-acl.828.
  11. ^ Yang, Dongchao; Yu, Jianwei; Wang, Helin; Wang, Wen; Weng, Chao; Zou, Yuexian; Yu, Dong (2023). "Diffsound: modelo de difusión discreto para la generación de texto a sonido". Transacciones IEEE/ACM sobre procesamiento de audio, habla y lenguaje . 31 : 1720–1733. arXiv : 2207.09983 . doi :10.1109/taslp.2023.3268730. ISSN  2329-9290.
  12. ^ Janner, Michael; Du, Yilun; Tenenbaum, Joshua B.; Levine, Sergey (20 de diciembre de 2022). "Planificación con difusión para una síntesis de comportamiento flexible". arXiv : 2205.09991 [cs.LG].
  13. ^ Chi, Cheng; Xu, Zhenjia; Feng, Siyuan; Cousineau, Eric; Du, Yilun; Burchfiel, Benjamín; Tedrake, Russ; Canción, Shuran (14 de marzo de 2024). "Política de difusión: aprendizaje de políticas visomotoras a través de la difusión de la acción". arXiv : 2303.04137 [cs.RO].
  14. ^ Sohl-Dickstein, Jascha; Weiss, Eric; Maheswaranathan, Niru; Ganguli, Surya (1 de junio de 2015). "Aprendizaje profundo no supervisado mediante termodinámica del no equilibrio" (PDF) . Actas de la 32.ª Conferencia internacional sobre aprendizaje automático . 37 . PMLR: 2256–2265. arXiv : 1503.03585 .
  15. ^ Ho, Jonathan (20 de junio de 2020), hojonathanho/diffusion , consultado el 7 de septiembre de 2024
  16. ^ ab Weng, Lilian (11 de julio de 2021). "¿Qué son los modelos de difusión?". lilianweng.github.io . Consultado el 24 de septiembre de 2023 .
  17. ^ "Modelado generativo mediante la estimación de gradientes de la distribución de datos | Yang Song". yang-song.net . Consultado el 24 de septiembre de 2023 .
  18. ^ ab Song, Yang; Ermon, Stefano (2019). "Modelado generativo mediante la estimación de gradientes de la distribución de datos". Avances en sistemas de procesamiento de información neuronal . 32 . Curran Associates, Inc. arXiv : 1907.05600 .
  19. ^ Canción, Yang; Sohl-Dickstein, Jascha; Kingma, Diederik P.; Kumar, Abhishek; Ermón, Stefano; Poole, Ben (10 de febrero de 2021). "Modelado generativo basado en puntuaciones mediante ecuaciones diferenciales estocásticas". arXiv : 2011.13456 [cs.LG].
  20. ^ ermongroup/ncsn, ermongroup, 2019 , consultado el 7 de septiembre de 2024
  21. ^ "Coincidencia de puntajes por sectores: un enfoque escalable para la estimación de la densidad y el puntaje | Yang Song". yang-song.net . Consultado el 24 de septiembre de 2023 .
  22. ^ Anderson, Brian DO (mayo de 1982). "Modelos de ecuaciones de difusión en tiempo inverso". Procesos estocásticos y sus aplicaciones . 12 (3): 313–326. doi :10.1016/0304-4149(82)90051-5. ISSN  0304-4149.
  23. ^ Luo, Calvin (2022). "Comprensión de los modelos de difusión: una perspectiva unificada". arXiv : 2208.11970v1 [cs.LG].
  24. ^ Song, Jiaming; Meng, Chenlin; Ermon, Stefano (3 de octubre de 2023). "Modelos implícitos de difusión para eliminar el ruido". arXiv : 2010.02502 [cs.LG].
  25. ^ ab Rombach, Robin; Blattmann, Andreas; Lorenz, Dominik; Esser, Patricio; Ommer, Björn (13 de abril de 2022). "Síntesis de imágenes de alta resolución con modelos de difusión latente". arXiv : 2112.10752 [cs.CV].
  26. ^ Nichol, Alexander Quinn; Dhariwal, Prafulla (1 de julio de 2021). "Modelos probabilísticos de difusión con eliminación de ruido mejorados". Actas de la 38.ª Conferencia internacional sobre aprendizaje automático . PMLR: 8162–8171.
  27. ^ Salimans, Tim; Ho, Jonathan (6 de octubre de 2021). Destilación progresiva para el muestreo rápido de modelos de difusión. Décima Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR 2022).
  28. ^ Lin, Shanchuan; Liu, Bingchen; Li, Jiashi; Yang, Xiao (2024). Los programas de ruido de difusión comunes y los pasos de muestra son defectuosos. Conferencia de invierno IEEE/CVF sobre aplicaciones de visión artificial (WACV). págs. 5404–5411.
  29. ^ abc Dhariwal, Prafulla; Nichol, Alex (1 de junio de 2021). "Los modelos de difusión superan a las GAN en síntesis de imágenes". arXiv : 2105.05233 [cs.LG].
  30. ^ ab Ho, Jonathan; Salimans, Tim (25 de julio de 2022). "Guía de difusión sin clasificadores". arXiv : 2207.12598 [cs.LG].
  31. ^ Chung, Hyungjin; Kim, Jeongsol; Park, Geon Yeong; Nam, Hyelin; Ye, Jong Chul (12 de junio de 2024). "CFG++: Guía libre de clasificadores con restricciones de variedad para modelos de difusión". arXiv : 2406.08070 [cs.CV].
  32. ^ Sanchez, Guillaume; Fan, Honglu; Spangher, Alexander; Levi, Elad; Ammanamanchi, Pawan Sasanka; Biderman, Stella (30 de junio de 2023). "Manténgase dentro del tema con la guía sin clasificadores". arXiv : 2306.17806 [cs.CL].
  33. ^ Armandpour, Mohammadreza; Sadeghian, Ali; Zheng, Huangjie; Sadeghian, Amir; Zhou, Mingyuan (26 de abril de 2023). "Reimaginar el algoritmo de indicación negativa: transformar la difusión 2D en 3D, aliviar el problema de Janus y más allá". arXiv : 2304.04968 [cs.CV].
  34. ^ Yang, Ling; Zhang, Zhilong; Canción, Yang; Hong, Shenda; Xu, Runsheng; Zhao, Yue; Zhang, Wentao; Cui, Bin; Yang, Ming-Hsuan (2022). "Modelos de difusión: un estudio completo de métodos y aplicaciones". arXiv : 2206.00364 [cs.CV].
  35. ^ Karras, Tero; Aittala, Miika; Aila, Timo; Laine, Samuli (2022). "Aclarar el espacio de diseño de modelos generativos basados ​​en difusión". arXiv : 2206.00364v2 [cs.CV].
  36. ^ Cao, Hanqun; Tan, Cheng; Gao, Zhangyang; Xu, Yilun; Chen, Guangyong; Heng, Pheng-Ann; Li, Stan Z. (julio de 2024). "Una encuesta sobre modelos de difusión generativa". Transacciones IEEE sobre conocimiento e ingeniería de datos . 36 (7): 2814–2830. doi :10.1109/TKDE.2024.3361474. ISSN  1041-4347.
  37. ^ Xu, Yilun; Liu, Ziming; Tian, ​​Yonglong; Tong, Shangyuan; Tegmark, Max; Jaakkola, Tommi (3 de julio de 2023). "PFGM++: Liberando el potencial de los modelos generativos inspirados en la física". Actas de la 40.ª Conferencia internacional sobre aprendizaje automático . PMLR: 38566–38591. arXiv : 2302.04265 .
  38. ^ Song, Yang; Dhariwal, Prafulla; Chen, Mark; Sutskever, Ilya (3 de julio de 2023). "Modelos de consistencia". Actas de la 40.ª Conferencia internacional sobre aprendizaje automático . PMLR: 32211–32252.
  39. ^ Dockhorn, Tim; Vahdat, Arash; Kreis, Karsten (6 de octubre de 2021). "Modelado generativo basado en puntuaciones con difusión de Langevin críticamente amortiguada". arXiv : 2112.07068 [stat.ML].
  40. ^ Liu, Ziming; Luo, Di; Xu, Yilun; Jaakkola, Tommi; Tegmark, Max (5 de abril de 2023). "GenPhys: de los procesos físicos a los modelos generativos". arXiv : 2304.02637 [cs.LG].
  41. ^ Bansal, Arpit; Borgnia, Eitan; Chu, Hong-Min; Li, Jie; Kazemi, Hamid; Huang, Furong; Goldblum, Micah; Geiping, Jonas; Goldstein, Tom (15 de diciembre de 2023). "Difusión en frío: inversión de transformadas de imágenes arbitrarias sin ruido". Avances en sistemas de procesamiento de información neuronal . 36 : 41259–41282. arXiv : 2208.09392 .
  42. ^ Gulrajani, Ishaan; Hashimoto, Tatsunori B. (15 de diciembre de 2023). "Modelos de lenguaje de difusión basados ​​en verosimilitud". Avances en sistemas de procesamiento de información neuronal . 36 : 16693–16715.
  43. ^ Lou, Aaron; Meng, Chenlin; Ermon, Stefano (6 de junio de 2024). "Modelado de difusión discreta mediante la estimación de las proporciones de la distribución de datos". arXiv : 2310.16834 [stat.ML].
  44. ^ Tong, Alexander; Fatras, Kilian; Malkin, Nikolay; Huguet, Guillaume; Zhang, Yanlei; Rector-Brooks, Jarrid; Wolf, Guy; Bengio, Yoshua (8 de noviembre de 2023). "Mejora y generalización de modelos generativos basados ​​en flujo con transporte óptimo en minibatch". Transactions on Machine Learning Research . arXiv : 2302.00482 . ISSN  2835-8856.
  45. ^ abcd Liu, Xingchao; Gong, Chengyue; Liu, Qiang (7 de septiembre de 2022). "Flujo recto y rápido: aprender a generar y transferir datos con flujo rectificado". arXiv : 2209.03003 [cs.LG].
  46. ^ Liu, Qiang (29 de septiembre de 2022). "Flujo rectificado: un enfoque de preservación marginal para el transporte óptimo". arXiv : 2209.14577 [stat.ML].
  47. ^ Lipman, Yaron; Chen, Ricky TQ; Ben-Hamu, Heli; Nickel, Maximilian; Le, Matt (8 de febrero de 2023). "Coincidencia de flujo para modelado generativo". arXiv : 2210.02747 [cs.LG].
  48. ^ Albergo, Michael S.; Vanden-Eijnden, Eric (9 de marzo de 2023). "Construcción de flujos normalizadores con interpoladores estocásticos". arXiv : 2209.15571 [cs.LG].
  49. ^ "Introducción a Flow Matching · Blog de Cambridge MLG". mlg.eng.cam.ac.uk . Consultado el 20 de agosto de 2024 .
  50. ^ abc Ho, Jonathan; Saharia, Chitwan; Chan, William; Fleet, David J.; Norouzi, Mohammad; Salimans, Tim (1 de enero de 2022). "Modelos de difusión en cascada para la generación de imágenes de alta fidelidad". Revista de investigación en aprendizaje automático . 23 (1): 47:2249–47:2281. arXiv : 2106.15282 . ISSN  1532-4435.
  51. ^ Peebles, William; Xie, Saining (marzo de 2023). "Modelos de difusión escalables con transformadores". arXiv : 2212.09748v2 [cs.CV].
  52. ^ Fei, Zhengcong; Fan, Mingyuan; Yu, Changqian; Li, Debang; Huang, Junshi (16 de julio de 2024). "Ampliación de transformadores de difusión a 16 mil millones de parámetros". arXiv : 2407.11633 [cs.CV].
  53. ^ ab Tevet, chico; Raab, Sigal; Gordon, Brian; Shafir, Yonatan; Cohen-Or, Daniel; Bermano, Amit H. (2022). "Modelo de difusión del movimiento humano". arXiv : 2209.14916 [cs.CV].
  54. ^ Zhang, Lvmin; Rao, Anyi; Agrawala, Maneesh (2023). "Adición de control condicional a los modelos de difusión de texto a imagen". arXiv : 2302.05543 [cs.CV].
  55. ^ Lugmayr, Andreas; Danelljan, Martin; Romero, Andres; Yu, Fisher; Timofte, Radu; Van Gool, Luc (2022). "RePaint: Repintado mediante modelos probabilísticos de difusión con eliminación de ruido". arXiv : 2201.09865v4 [cs.CV].
  56. ^ Hertz, Amir; Mokady, Ron; Tenenbaum, Jay; Aberman, Kfir; Pritch, Yael; Cohen-Or, Daniel (2 de agosto de 2022). "Edición de imágenes de aviso a aviso con control de atención cruzada". arXiv : 2208.01626 [cs.CV].
  57. ^ Zhao, Zheng; Luo, Ziwei; Sjölund, Jens; Schön, Thomas B. (2024). "Muestreo condicional dentro de modelos de difusión generativa". arXiv : 2409.09650 [estad.ML].
  58. ^ Wang, Xintao; Xie, Liangbin; Dong, Chao; Shan, Ying (2021). "Real-ESRGAN: Entrenamiento de superresolución ciega en el mundo real con datos sintéticos puros" (PDF) . Actas de los talleres de la Conferencia internacional sobre visión artificial (ICCV) IEEE/CVF, 2021 . Conferencia internacional sobre visión artificial. págs. 1905–1914. arXiv : 2107.10833 .
  59. ^ Liang, Jingyun; Cao, Jiezhang; Sun, Guolei; Zhang, Kai; Van Gool, Luc; Timofte, Radu (2021). "SwinIR: restauración de imágenes mediante el transformador Swin" (PDF) . Actas de los talleres de la Conferencia internacional sobre visión artificial (ICCV) IEEE/CVF . Conferencia internacional sobre visión artificial, 2021. págs. 1833–1844. arXiv : 2108.10257v1 .
  60. ^ Nichol, Alex; Dhariwal, Prafulla; Ramesh, Aditya; Shyam, Pranav; Mishkin, Pamela; McGrew, Bob; Sutskever, Ilya; Chen, Mark (8 de marzo de 2022). "GLIDE: Hacia la generación y edición de imágenes fotorrealistas con modelos de difusión guiados por texto". arXiv : 2112.10741 [cs.CV].
  61. ^ Ramesh, Aditya; Dhariwal, Prafulla; Nichol, Alex; Chu, Casey; Chen, Mark (12 de abril de 2022). "Generación jerárquica de imágenes condicionales de texto con latentes CLIP". arXiv : 2204.06125 [cs.CV].
  62. ^ Alammar, Jay. "La difusión estable ilustrada". jalammar.github.io . Consultado el 31 de octubre de 2022 .
  63. ^ Esser, Patrick; Kulal, Sumith; Blattmann, Andreas; Entezari, Rahim; Müller, Jonas; Saini, Harry; Levi, Yam; Lorenz, Dominik; Sauer, Axel (5 de marzo de 2024). "Escalado de transformadores de flujo rectificados para síntesis de imágenes de alta resolución". arXiv : 2403.03206 [cs.CV].
  64. ^ Xie, Yiming; Yao, Chun-Han; Voleti, Vikram; Jiang, Huaizu; Jampani, Varun (24 de julio de 2024). "SV4D: Generación dinámica de contenido 3D con consistencia de múltiples cuadros y múltiples vistas". arXiv : 2407.17470 [cs.CV].
  65. ^ "Imagen: modelos de difusión de texto a imagen". imagen.research.google . Consultado el 4 de abril de 2024 .
  66. ^ Saharia, Chitwan; Chan, William; Saxena, Saurabh; Li, Lala; Whang, Jay; Denton, Emily L.; Ghasemipour, Kamyar; Gontijo Lopes, Raphael; Karagol Ayan, Burcu; Salimans, Tim; Ho, Jonathan; Fleet, David J.; Norouzi, Mohammad (6 de diciembre de 2022). "Modelos de difusión de texto a imagen fotorrealistas con comprensión profunda del lenguaje". Avances en sistemas de procesamiento de información neuronal . 35 : 36479–36494. arXiv : 2205.11487 .
  67. ^ Chang, Huiwen; Zhang, Han; Barber, Jarred; Maschinot, AJ; Lezama, Jose; Jiang, Lu; Yang, Ming-Hsuan; Murphy, Kevin; Freeman, William T. (2 de enero de 2023). "Muse: Generación de texto a imagen mediante transformadores generativos enmascarados". arXiv : 2301.00704 [cs.CV].
  68. ^ "Imagen 2: nuestra tecnología de conversión de texto a imagen más avanzada". Google DeepMind . Consultado el 4 de abril de 2024 .
  69. ^ "Veo". Google DeepMind . 2024-05-14 . Consultado el 2024-05-17 .
  70. ^ "Presentamos Make-A-Video: un sistema de inteligencia artificial que genera videos a partir de texto". ai.meta.com . Consultado el 20 de septiembre de 2024 .
  71. ^ Singer, Uriel; Polyak, Adam; Hayes, Thomas; Yin, Xi; An, Jie; Zhang, Songyang; Hu, Qiyuan; Yang, Harry; Ashual, Oron (29 de septiembre de 2022). "Make-A-Video: Generación de texto a video sin datos de texto a video". arXiv : 2209.14792 [cs.CV].
  72. ^ "Presentamos CM3leon, un modelo generativo de última generación y más eficiente para texto e imágenes". ai.meta.com . Consultado el 20 de septiembre de 2024 .
  73. ^ Chameleon Team (16 de mayo de 2024). "Chameleon: modelos de base de fusión temprana de modos mixtos". arXiv : 2405.09818 [cs.CL].
  74. ^ Zhou, cazando; Yu, Lili; Babú, Arun; Tirumala, Kushal; Yasunaga, Michihiro; Shamis, Leonidas; Kahn, Jacob; Mamá, Xuezhe; Zettlemoyer, Luke (20 de agosto de 2024). "Transfusión: predecir el siguiente token y difundir imágenes con un modelo multimodal". arXiv : 2408.11039 [cs.AI].
  75. ^ Movie Gen: Un elenco de modelos de Media Foundation , El equipo de Movie Gen @ Meta, 4 de octubre de 2024.