stringtranslate.com

Codificador automático

Un autocodificador es un tipo de red neuronal artificial que se utiliza para aprender codificaciones eficientes de datos no etiquetados ( aprendizaje no supervisado ). Un autocodificador aprende dos funciones: una función de codificación que transforma los datos de entrada y una función de decodificación que recrea los datos de entrada a partir de la representación codificada. El autocodificador aprende una representación eficiente (codificación) para un conjunto de datos, generalmente para la reducción de dimensionalidad , para generar incrustaciones de menor dimensión para su uso posterior por parte de otros algoritmos de aprendizaje automático . [1]

Existen variantes que tienen como objetivo hacer que las representaciones aprendidas asuman propiedades útiles. [2] Algunos ejemplos son los autocodificadores regularizados ( autocodificadores dispersos , denoising y contractivos ), que son eficaces en el aprendizaje de representaciones para tareas de clasificación posteriores , [3] y los autocodificadores variacionales , que pueden usarse como modelos generativos . [4] Los autocodificadores se aplican a muchos problemas, incluido el reconocimiento facial , [5] la detección de características , [6] la detección de anomalías y el aprendizaje del significado de las palabras . [7] [8] En términos de síntesis de datos , los autocodificadores también se pueden usar para generar aleatoriamente nuevos datos que sean similares a los datos de entrada (entrenamiento). [6]

Principios matemáticos

Definición

Un autocodificador se define mediante los siguientes componentes:

Dos conjuntos: el espacio de mensajes decodificados ; el espacio de mensajes codificados . Típicamente y son espacios euclidianos, es decir, con

Dos familias de funciones parametrizadas: la familia de codificadores , parametrizada por ; la familia de decodificadores , parametrizada por .

Para cualquier , normalmente escribimos , y nos referimos a él como el código, la variable latente , la representación latente, el vector latente, etc. Por el contrario, para cualquier , normalmente escribimos , y nos referimos a él como el mensaje (decodificado).

Por lo general, tanto el codificador como el decodificador se definen como perceptrones multicapa (MLP). Por ejemplo, un codificador MLP de una capa es:

donde es una función de activación elemento por elemento , es una matriz de "peso" y es un vector de "sesgo".

Entrenando un autocodificador

Un autocodificador, por sí mismo, es simplemente una tupla de dos funciones. Para juzgar su calidad , necesitamos una tarea . Una tarea se define mediante una distribución de probabilidad de referencia sobre , y una función de "calidad de reconstrucción" , de modo que mida cuánto difiere de .

Con estos, podemos definir la función de pérdida para el autocodificador como El autocodificador óptimo para la tarea dada es entonces . La búsqueda del autocodificador óptimo se puede lograr mediante cualquier técnica de optimización matemática, pero generalmente mediante descenso de gradiente . Este proceso de búsqueda se conoce como "entrenamiento del autocodificador".

En la mayoría de las situaciones, la distribución de referencia es simplemente la distribución empírica dada por un conjunto de datos , de modo que

donde es la medida de Dirac , la función de calidad es simplemente la pérdida L2: y es la norma euclidiana . Entonces el problema de buscar el autocodificador óptimo es simplemente una optimización de mínimos cuadrados :

Interpretación

Esquema de un autocodificador básico

Un autocodificador tiene dos partes principales: un codificador que asigna el mensaje a un código y un decodificador que reconstruye el mensaje a partir del código. Un autocodificador óptimo realizaría una reconstrucción lo más cercana posible a la perfección, siendo "casi perfecta" lo que se define mediante la función de calidad de reconstrucción .

La forma más sencilla de realizar la tarea de copia a la perfección sería duplicar la señal. Para evitar este comportamiento, el espacio de código suele tener menos dimensiones que el espacio de mensajes .

Este tipo de autocodificador se denomina subcompleto y puede interpretarse como una compresión del mensaje o una reducción de su dimensionalidad . [9] [10]

En el límite de un autocodificador subcompleto ideal, cada código posible en el espacio de códigos se utiliza para codificar un mensaje que realmente aparece en la distribución , y el decodificador también es perfecto: . Este autocodificador ideal puede entonces utilizarse para generar mensajes indistinguibles de los mensajes reales, alimentando a su decodificador con código arbitrario y obteniendo , que es un mensaje que realmente aparece en la distribución .

Si el espacio de código tiene una dimensión mayor que ( sobrecompleto ), o igual a, el espacio de mensajes , o las unidades ocultas tienen suficiente capacidad, un autocodificador puede aprender la función de identidad y volverse inútil. Sin embargo, los resultados experimentales encontraron que los autocodificadores sobrecompletos aún podrían aprender características útiles . [11]

En un contexto ideal, la dimensión del código y la capacidad del modelo podrían establecerse en función de la complejidad de la distribución de datos que se va a modelar. Una forma estándar de hacerlo es agregar modificaciones al autocodificador básico, que se detallarán a continuación. [2]

Variaciones

Autocodificadores regularizados

Existen varias técnicas para evitar que los autocodificadores aprendan la función de identidad y para mejorar su capacidad de capturar información importante y aprender representaciones más ricas.

Codificador automático disperso

Inspirados por la hipótesis de codificación dispersa en neurociencia, los autocodificadores dispersos (SAE) son variantes de los autocodificadores, de modo que los códigos para los mensajes tienden a ser códigos dispersos , es decir, están cerca de cero en la mayoría de las entradas. Los autocodificadores dispersos pueden incluir más (en lugar de menos) unidades ocultas que entradas, pero solo se permite que una pequeña cantidad de las unidades ocultas estén activas al mismo tiempo. [12] Fomentar la dispersión mejora el rendimiento en las tareas de clasificación. [13]

Esquema simple de un autocodificador disperso de una sola capa. Los nodos ocultos en amarillo brillante están activados, mientras que los de color amarillo claro están inactivos. La activación depende de la entrada.

Existen dos formas principales de aplicar la escasez. Una de ellas es simplemente limitar a cero todas las activaciones del código latente, excepto las k más altas. Este es el autocodificador k-disperso . [13]

El autocodificador k-sparse inserta la siguiente "función k-sparse" en la capa latente de un autocodificador estándar: donde si se ubica entre los k superiores y 0 en caso contrario.

La retropropagación es sencilla: se establece el gradiente en 0 para las entradas y se mantiene el gradiente para las entradas. Se trata, en esencia, de una función ReLU generalizada. [13]

La otra forma es una versión relajada del autocodificador k-sparse. En lugar de forzar la escasez, agregamos una pérdida de regularización de escasez y luego optimizamos para donde mide cuánta escasez queremos imponer. [14]

Dejemos que la arquitectura del autocodificador tenga capas. Para definir una pérdida de regularización por escasez, necesitamos una escasez "deseada" para cada capa, un peso que indique cuánto se debe aplicar cada escasez y una función para medir cuánto difieren dos escasez.

Para cada entrada , sea la escasez real de activación en cada capa, donde es la activación en la -ésima neurona de la -ésima capa en la entrada .

La pérdida de escasez en la entrada para una capa es , y la pérdida de regularización de escasez para todo el autocodificador es la suma ponderada esperada de las pérdidas de escasez: Normalmente, la función es la divergencia de Kullback-Leibler (KL) , como [13] [14] [15] [16]

o la pérdida L1, como , o la pérdida L2, como .

Como alternativa, la pérdida de regularización de la escasez se puede definir sin referencia a ninguna "escasez deseada", sino simplemente forzar la mayor escasez posible. En este caso, se puede definir la pérdida de regularización de la escasez como donde es el vector de activación en la capa -ésima del autocodificador. La norma suele ser la norma L1 (lo que da como resultado el autocodificador escaso L1) o la norma L2 (lo que da como resultado el autocodificador escaso L2).

Codificador automático de eliminación de ruido

Los autocodificadores de eliminación de ruido (DAE) intentan lograr una buena representación cambiando el criterio de reconstrucción . [2] [3]

Una DAE, originalmente llamada "red autoasociativa robusta", [17] se entrena corrompiendo intencionalmente las entradas de un autocodificador estándar durante el entrenamiento. Un proceso de ruido se define por una distribución de probabilidad sobre funciones . Es decir, la función toma un mensaje y lo corrompe a una versión ruidosa . La función se selecciona aleatoriamente, con una distribución de probabilidad .

Dada una tarea , el problema de entrenar un DAE es el problema de optimización: es decir, el DAE óptimo debería tomar cualquier mensaje ruidoso e intentar recuperar el mensaje original sin ruido, de ahí el nombre "eliminación de ruido" .

Normalmente, el proceso de ruido se aplica solo durante el entrenamiento y las pruebas, no durante el uso posterior.

El uso de DAE depende de dos supuestos:

Algunos ejemplos de procesos de ruido incluyen:

Autocodificador contractivo (CAE)

Un autocodificador contractivo suma la pérdida de regularización contractiva a la pérdida de autocodificador estándar: donde mide cuánta contractividad queremos imponer. La pérdida de regularización contractiva en sí misma se define como la norma de Frobenius esperada de la matriz jacobiana de las activaciones del codificador con respecto a la entrada: Para entender qué mide, observe el hecho de que para cualquier mensaje , y una pequeña variación en él. Por lo tanto, si es pequeño, significa que una pequeña vecindad del mensaje se asigna a una pequeña vecindad de su código. Esta es una propiedad deseada, ya que significa que una pequeña variación en el mensaje conduce a una pequeña, quizás incluso cero, variación en su código, como cuando dos imágenes pueden verse iguales incluso si no son exactamente iguales.

El DAE puede entenderse como un límite infinitesimal del CAE: en el límite del pequeño ruido de entrada gaussiano, los DAE hacen que la función de reconstrucción resista perturbaciones de entrada pequeñas pero de tamaño finito, mientras que los CAE hacen que las características extraídas resistan perturbaciones de entrada infinitesimales.

Autocodificador de longitud mínima de descripción

[18]

Codificador automático de hormigón

El autocodificador concreto está diseñado para la selección de características discretas. [19] Un autocodificador concreto obliga al espacio latente a constar únicamente de una cantidad de características especificada por el usuario. El autocodificador concreto utiliza una relajación continua de la distribución categórica para permitir que los gradientes pasen a través de la capa de selección de características, lo que hace posible utilizar la retropropagación estándar para aprender un subconjunto óptimo de características de entrada que minimicen la pérdida de reconstrucción.

Autocodificador variacional (VAE)

Los autocodificadores variacionales (VAE) pertenecen a la familia de métodos bayesianos variacionales . A pesar de las similitudes arquitectónicas con los autocodificadores básicos, los VAE están diseñados con objetivos diferentes y tienen una formulación matemática diferente. El espacio latente, en este caso, está compuesto por una mezcla de distribuciones en lugar de vectores fijos.

Dado un conjunto de datos de entrada caracterizado por una función de probabilidad desconocida y un vector de codificación latente multivariado , el objetivo es modelar los datos como una distribución , con definida como el conjunto de parámetros de red de modo que .

Ventajas de la profundidad

Estructura esquemática de un autocodificador con tres capas ocultas completamente conectadas. El código (z o h para referencia en el texto) es la capa más interna.

Los autocodificadores a menudo se entrenan con un codificador de una sola capa y un decodificador de una sola capa, pero el uso de codificadores y decodificadores de varias capas (profundos) ofrece muchas ventajas. [2]

Capacitación

Geoffrey Hinton desarrolló la técnica de red de creencias profundas para entrenar codificadores automáticos profundos de múltiples capas. Su método implica tratar cada conjunto vecino de dos capas como una máquina de Boltzmann restringida de modo que el preentrenamiento se aproxime a una buena solución y luego usar la retropropagación para ajustar los resultados. [10]

Los investigadores han debatido si el entrenamiento conjunto (es decir, entrenar toda la arquitectura junto con un único objetivo de reconstrucción global para optimizar) sería mejor para los codificadores automáticos profundos. [20] Un estudio de 2015 mostró que el entrenamiento conjunto aprende mejores modelos de datos junto con características más representativas para la clasificación en comparación con el método por capas. [20] Sin embargo, sus experimentos mostraron que el éxito del entrenamiento conjunto depende en gran medida de las estrategias de regularización adoptadas. [20] [21]

Historia

(Oja, 1982) [22] observó que el PCA es equivalente a una red neuronal con una capa oculta con función de activación de identidad. En el lenguaje de la autocodificación, el módulo de entrada a oculto es el codificador, y el módulo de oculto a salida es el decodificador. Posteriormente, en (Baldi y Hornik, 1989) [23] y (Kramer, 1991) [9] generalizaron el PCA a los autocodificadores, a los que denominaron "PCA no lineal".

Inmediatamente después del resurgimiento de las redes neuronales en la década de 1980, en 1986 [24] se sugirió que una red neuronal se pusiera en "modo de autoasociación". Esto se implementó en (Harrison, 1987) [25] y (Elman, Zipser, 1988) [26] para el habla y en (Cottrell, Munro, Zipser, 1987) [27] para las imágenes. [28] En (Hinton, Salakhutdinov, 2006), [29] se desarrollaron redes de creencias profundas . Estas entrenan un par de máquinas de Boltzmann restringidas como pares de codificador-decodificador, luego entrenan otro par en la representación latente del primer par, y así sucesivamente. [30]

Las primeras aplicaciones de AE ​​datan de principios de la década de 1990. [2] [31] [18] Su aplicación más tradicional fue la reducción de dimensionalidad o el aprendizaje de características , pero el concepto se usó ampliamente para aprender modelos generativos de datos. [32] [33] Algunas de las IA más poderosas en la década de 2010 involucraron módulos de autocodificador como un componente de sistemas de IA más grandes, como VAE en difusión estable , VAE discreto en generadores de imágenes basados ​​en transformadores como DALL-E 1 , etc.

Durante los primeros días, cuando la terminología era incierta, el autocodificador también se llamaba mapeo de identidad, [34] [9] autoasociación, [35] retropropagación autosupervisada, [9] o red Diabolo. [36] [11]

Aplicaciones

Las dos aplicaciones principales de los autocodificadores son la reducción de dimensionalidad y la recuperación de información (o memoria asociativa ), [2] pero se han aplicado variaciones modernas a otras tareas.

Reducción de dimensionalidad

Gráfico de los dos primeros componentes principales (izquierda) y una capa oculta bidimensional de un autocodificador lineal (derecha) aplicado al conjunto de datos Fashion MNIST . [37] Los dos modelos, al ser lineales, aprenden a abarcar el mismo subespacio. La proyección de los puntos de datos es, de hecho, idéntica, salvo por la rotación del subespacio. Mientras que el PCA selecciona una orientación específica hasta las reflexiones en el caso general, la función de costo de un autocodificador simple es invariante a las rotaciones del espacio latente.

La reducción de dimensionalidad fue una de las primeras aplicaciones del aprendizaje profundo . [2]

Para el estudio de Hinton de 2006, [10] entrenó previamente un autocodificador multicapa con una pila de RBM y luego utilizó sus pesos para inicializar un autocodificador profundo con capas ocultas gradualmente más pequeñas hasta llegar a un cuello de botella de 30 neuronas. Las 30 dimensiones resultantes del código arrojaron un error de reconstrucción menor en comparación con los primeros 30 componentes de un análisis de componentes principales (PCA), y aprendieron una representación que era cualitativamente más fácil de interpretar, separando claramente los grupos de datos. [2] [10]

La representación de dimensiones puede mejorar el desempeño en tareas como la clasificación. [2] De hecho, el sello distintivo de la reducción de dimensionalidad es colocar ejemplos semánticamente relacionados cerca unos de otros. [38]

Análisis de componentes principales

Reconstrucción de imágenes de 28x28 píxeles mediante un autocodificador con un tamaño de código de dos (capa oculta de dos unidades) y reconstrucción a partir de los dos primeros componentes principales de PCA. Las imágenes proceden del conjunto de datos Fashion MNIST. [37]

Si se utilizan activaciones lineales, o solo una única capa oculta sigmoidea, entonces la solución óptima para un autocodificador está fuertemente relacionada con el análisis de componentes principales (PCA). [28] [39] Los pesos de un autocodificador con una única capa oculta de tamaño (donde es menor que el tamaño de la entrada) abarcan el mismo subespacio vectorial que el abarcado por los primeros componentes principales, y la salida del autocodificador es una proyección ortogonal sobre este subespacio. Los pesos del autocodificador no son iguales a los componentes principales, y generalmente no son ortogonales, sin embargo, los componentes principales pueden recuperarse de ellos utilizando la descomposición en valores singulares . [40]

Sin embargo, el potencial de los autocodificadores reside en su no linealidad, lo que permite al modelo aprender generalizaciones más potentes en comparación con PCA y reconstruir la entrada con una pérdida de información significativamente menor. [10]

Recuperación de información y optimización de motores de búsqueda

La recuperación de información se beneficia particularmente de la reducción de la dimensionalidad , ya que la búsqueda puede volverse más eficiente en ciertos tipos de espacios de baja dimensión. Los autocodificadores se aplicaron al hash semántico, propuesto por Salakhutdinov y Hinton en 2007. [38] Al entrenar el algoritmo para producir un código binario de baja dimensión, todas las entradas de la base de datos podrían almacenarse en una tabla hash que mapee vectores de código binario a las entradas. Esta tabla luego respaldaría la recuperación de información al devolver todas las entradas con el mismo código binario que la consulta, o entradas ligeramente menos similares invirtiendo algunos bits de la codificación de la consulta.

La arquitectura codificador-decodificador, a menudo utilizada en el procesamiento del lenguaje natural y las redes neuronales, se puede aplicar científicamente en el campo del SEO (optimización de motores de búsqueda) de varias maneras:

  1. Procesamiento de texto : mediante el uso de un codificador automático, es posible comprimir el texto de las páginas web en una representación vectorial más compacta. Esto puede ayudar a reducir los tiempos de carga de las páginas y mejorar la indexación por parte de los motores de búsqueda.
  2. Reducción de ruido : los codificadores automáticos se pueden utilizar para eliminar el ruido de los datos textuales de las páginas web. Esto puede generar una mejor comprensión del contenido por parte de los motores de búsqueda, mejorando así la clasificación en las páginas de resultados de los motores de búsqueda.
  3. Generación de metaetiquetas y fragmentos : los codificadores automáticos pueden entrenarse para generar automáticamente metaetiquetas, fragmentos y descripciones para páginas web utilizando el contenido de la página. Esto puede optimizar la presentación en los resultados de búsqueda, lo que aumenta la tasa de clics (CTR).
  4. Agrupamiento de contenido : mediante un codificador automático, las páginas web con contenido similar se pueden agrupar automáticamente. Esto puede ayudar a organizar el sitio web de forma lógica y mejorar la navegación, lo que puede afectar positivamente la experiencia del usuario y las clasificaciones en los motores de búsqueda.
  5. Generación de contenido relacionado : se puede utilizar un codificador automático para generar contenido relacionado con lo que ya está presente en el sitio. Esto puede mejorar el atractivo del sitio web para los motores de búsqueda y brindar a los usuarios información relevante adicional.
  6. Detección de palabras clave : los codificadores automáticos pueden entrenarse para identificar palabras clave y conceptos importantes dentro del contenido de las páginas web. Esto puede ayudar a optimizar el uso de palabras clave para una mejor indexación.
  7. Búsqueda semántica : mediante técnicas de autocodificación se pueden crear modelos de representación semántica del contenido. Estos modelos se pueden utilizar para mejorar la comprensión de los motores de búsqueda de los temas tratados en las páginas web.

En esencia, la arquitectura codificador-descodificador o autocodificadores se pueden aprovechar en SEO para optimizar el contenido de las páginas web, mejorar su indexación y aumentar su atractivo tanto para los motores de búsqueda como para los usuarios.

Detección de anomalías

Otra aplicación de los autocodificadores es la detección de anomalías . [17] [41] [42] [43] [44] [45] Al aprender a replicar las características más destacadas en los datos de entrenamiento bajo algunas de las restricciones descritas anteriormente, se alienta al modelo a aprender a reproducir con precisión las características observadas con mayor frecuencia. Cuando se enfrenta a anomalías, el modelo debería empeorar su rendimiento de reconstrucción. En la mayoría de los casos, solo se utilizan datos con instancias normales para entrenar al autocodificador; en otros, la frecuencia de anomalías es pequeña en comparación con el conjunto de observaciones, por lo que su contribución a la representación aprendida podría ignorarse. Después del entrenamiento, el autocodificador reconstruirá con precisión los datos "normales", mientras que no podrá hacerlo con datos anómalos desconocidos. [43] El error de reconstrucción (el error entre los datos originales y su reconstrucción de baja dimensión) se utiliza como una puntuación de anomalía para detectar anomalías. [43]

Sin embargo, la literatura reciente ha demostrado que ciertos modelos de autocodificación pueden, contrariamente a la intuición, ser muy buenos para reconstruir ejemplos anómalos y, en consecuencia, no ser capaces de realizar una detección de anomalías de manera confiable. [46] [47]

Procesamiento de imágenes

Las características de los autocodificadores son útiles en el procesamiento de imágenes.

Un ejemplo puede encontrarse en la compresión de imágenes con pérdida , donde los autocodificadores superaron a otros enfoques y demostraron ser competitivos frente a JPEG 2000. [ 48] [49]

Otra aplicación útil de los autocodificadores en el preprocesamiento de imágenes es la eliminación de ruido de imágenes . [50] [51] [52]

Los autocodificadores se han utilizado en contextos más exigentes, como las imágenes médicas , donde se han utilizado para la eliminación de ruido de imágenes [53], así como para la superresolución . [54] [55] En el diagnóstico asistido por imágenes, los experimentos han aplicado autocodificadores para la detección del cáncer de mama [56] y para modelar la relación entre el deterioro cognitivo de la enfermedad de Alzheimer y las características latentes de un autocodificador entrenado con MRI . [57]

Descubrimiento de fármacos

En 2019, se validaron experimentalmente moléculas generadas con autocodificadores variacionales en ratones. [58] [59]

Predicción de popularidad

Recientemente, un marco de autocodificador apilado produjo resultados prometedores en la predicción de la popularidad de las publicaciones en las redes sociales, [60] lo que resulta útil para las estrategias de publicidad en línea.

Traducción automática

Los autocodificadores se han aplicado a la traducción automática , que normalmente se conoce como traducción automática neuronal (NMT). [61] [62] A diferencia de los autocodificadores tradicionales, la salida no coincide con la entrada: está en otro idioma. En NMT, los textos se tratan como secuencias que se codificarán en el procedimiento de aprendizaje, mientras que en el lado del decodificador se generan secuencias en el idioma o idiomas de destino. Los autocodificadores específicos del idioma incorporan características lingüísticas adicionales al procedimiento de aprendizaje, como características de descomposición en chino. [63] La traducción automática rara vez se realiza todavía con autocodificadores, debido a la disponibilidad de redes de transformadores más efectivas .

Véase también

Lectura adicional

Referencias

  1. ^ Bank, Dor; Koenigstein, Noam; Giryes, Raja (2023). "Autocodificadores". En Rokach, Lior; Maimon, Oded; Shmueli, Erez (eds.). Manual de aprendizaje automático para ciencia de datos . págs. 353–374. doi :10.1007/978-3-031-24628-9_16. ISBN 978-3-031-24627-2.
  2. ^ abcdefghi Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). Aprendizaje profundo. MIT Press. ISBN 978-0262035613.
  3. ^ abcd Vincent, Pascal; Larochelle, Hugo (2010). "Autocodificadores de eliminación de ruido apilados: aprendizaje de representaciones útiles en una red profunda con un criterio de eliminación de ruido local". Revista de investigación en aprendizaje automático . 11 : 3371–3408.
  4. ^ Welling, Max; Kingma, Diederik P. (2019). "Introducción a los autocodificadores variacionales". Fundamentos y tendencias en aprendizaje automático . 12 (4): 307–392. arXiv : 1906.02691 . Código Bibliográfico :2019arXiv190602691K. doi :10.1561/2200000056. S2CID  174802445.
  5. ^ Hinton GE, Krizhevsky A, Wang SD. Autocodificadores transformadores. En la Conferencia internacional sobre redes neuronales artificiales, 14 de junio de 2011 (pp. 44-51). Springer, Berlín, Heidelberg.
  6. ^ ab Géron, Aurélien (2019). Aprendizaje automático práctico con Scikit-Learn, Keras y TensorFlow . Canadá: O'Reilly Media, Inc., págs. 739-740.
  7. ^ Liou, Cheng-Yuan; Huang, Jau-Chi; Yang, Wen-Chie (2008). "Modelado de la percepción de palabras utilizando la red Elman". Neurocomputación . 71 (16–18): 3150. doi :10.1016/j.neucom.2008.04.030.
  8. ^ Liou, Cheng-Yuan; Cheng, Wei-Chen; Liou, Jiun-Wei; Liou, Daw Ran (2014). "Codificador automático de palabras". Neurocomputación . 139 : 84–96. doi :10.1016/j.neucom.2013.09.055.
  9. ^ abcd Kramer, Mark A. (1991). "Análisis de componentes principales no lineales utilizando redes neuronales autoasociativas" (PDF) . AIChE Journal . 37 (2): 233–243. Bibcode :1991AIChE..37..233K. doi :10.1002/aic.690370209.
  10. ^ abcdef Hinton, GE; Salakhutdinov, RR (28 de julio de 2006). "Reducción de la dimensionalidad de los datos con redes neuronales". Science . 313 (5786): 504–507. Bibcode :2006Sci...313..504H. doi :10.1126/science.1127647. PMID  16873662. S2CID  1658773.
  11. ^ ab Bengio, Y. (2009). "Arquitecturas profundas de aprendizaje para IA" (PDF) . Fundamentos y tendencias en aprendizaje automático . 2 (8): 1795–7. CiteSeerX 10.1.1.701.9550 . doi :10.1561/2200000006. PMID  23946944. S2CID  207178999. 
  12. ^ Domingos, Pedro (2015). "4". El algoritmo maestro: cómo la búsqueda de la máquina de aprendizaje definitiva transformará nuestro mundo . Basic Books. Subsección "Más a fondo en el cerebro". ISBN 978-046506192-1.
  13. ^ abcd Makhzani, Alireza; Frey, Brendan (2013). "Autocodificadores K-Sparse". arXiv : 1312.5663 [cs.LG].
  14. ^ ab Ng, A. (2011). Autocodificador disperso. CS294A Notas de clase , 72 (2011), 1-19.
  15. ^ Nair, Vinod; Hinton, Geoffrey E. (2009). "Reconocimiento de objetos en 3D con redes de creencias profundas". Actas de la 22.ª Conferencia internacional sobre sistemas de procesamiento de información neuronal . NIPS'09. EE. UU.: Curran Associates Inc.: 1339–1347. ISBN 9781615679119.
  16. ^ Zeng, Nianyin; Zhang, Hong; Song, Baoye; Liu, Weibo; Li, Yurong; Dobaie, Abdullah M. (17 de enero de 2018). "Reconocimiento de expresiones faciales mediante el aprendizaje de autocodificadores dispersos profundos". Neurocomputing . 273 : 643–649. doi :10.1016/j.neucom.2017.08.043. ISSN  0925-2312.
  17. ^ ab Kramer, MA (1992-04-01). "Redes neuronales autoasociativas". Computers & Chemical Engineering . Aplicaciones de redes neutras en ingeniería química. 16 (4): 313–328. doi :10.1016/0098-1354(92)80051-A. ISSN  0098-1354.
  18. ^ ab Hinton, Geoffrey E; Zemel, Richard (1993). "Autocodificadores, longitud mínima de descripción y energía libre de Helmholtz". Avances en sistemas de procesamiento de información neuronal . 6 . Morgan-Kaufmann.
  19. ^ Abid, Abubakar; Balin, Muhammad Fatih; Zou, James (27 de enero de 2019). "Autocodificadores concretos para la selección y reconstrucción de características diferenciables". arXiv : 1901.09346 [cs.LG].
  20. ^ abc Zhou, Yingbo; Arpit, Devansh; Nwogu, Ifeoma; Govindaraju, Venu (2014). "¿Es el entrenamiento conjunto mejor para los autocodificadores profundos?". arXiv : 1405.1380 [stat.ML].
  21. ^ R. Salakhutdinov y GE Hinton, “Máquinas de Boltzmann profundas”, en AISTATS, 2009, págs. 448–455.
  22. ^ Oja, Erkki (1982-11-01). "Modelo neuronal simplificado como analizador de componentes principales". Revista de biología matemática . 15 (3): 267–273. doi :10.1007/BF00275687. ISSN  1432-1416. PMID  7153672.
  23. ^ Baldi, Pierre; Hornik, Kurt (1989-01-01). "Redes neuronales y análisis de componentes principales: aprendizaje a partir de ejemplos sin mínimos locales". Redes neuronales . 2 (1): 53–58. doi :10.1016/0893-6080(89)90014-2. ISSN  0893-6080.
  24. ^ Rumelhart, David E.; McClelland, James L.; AU (1986). "2. Un marco general para el procesamiento distribuido en paralelo". Procesamiento distribuido en paralelo: exploraciones en la microestructura de la cognición: fundamentos. The MIT Press. doi :10.7551/mitpress/5236.001.0001. ISBN 978-0-262-29140-8.
  25. ^ Harrison TD (1987) Un marco conexionista para el reconocimiento continuo del habla. Tesis doctoral de la Universidad de Cambridge
  26. ^ Elman, Jeffrey L.; Zipser, David (1 de abril de 1988). "Aprendiendo la estructura oculta del habla". Revista de la Sociedad Acústica de América . 83 (4): 1615–1626. Bibcode :1988ASAJ...83.1615E. doi :10.1121/1.395916. ISSN  0001-4966. PMID  3372872.
  27. ^ Cottrell, Garrison W.; Munro, Paul; Zipser, David (1987). "Aprendizaje de la representación interna a partir de imágenes en escala de grises: un ejemplo de programación extensional". Actas de la Reunión Anual de la Sociedad de Ciencias Cognitivas . 9 .
  28. ^ ab Bourlard, H.; Kamp, Y. (1988). "Autoasociación por perceptrones multicapa y descomposición en valores singulares". Cibernética biológica . 59 (4–5): 291–294. doi :10.1007/BF00332918. PMID  3196773. S2CID  206775335.
  29. ^ Hinton, GE; Salakhutdinov, RR (28 de julio de 2006). "Reducción de la dimensionalidad de los datos con redes neuronales". Science . 313 (5786): 504–507. Bibcode :2006Sci...313..504H. doi :10.1126/science.1127647. PMID  16873662. S2CID  1658773.
  30. ^ Hinton G (2009). "Redes de creencias profundas". Scholarpedia . 4 (5): 5947. Bibcode :2009SchpJ...4.5947H. doi : 10.4249/scholarpedia.5947 .
  31. ^ Schmidhuber, Jürgen (enero de 2015). "Aprendizaje profundo en redes neuronales: una descripción general". Redes neuronales . 61 : 85–117. arXiv : 1404.7828 . doi :10.1016/j.neunet.2014.09.003. PMID  25462637. S2CID  11715509.
  32. ^ Diederik P. Kingma; Bien, Max (2013). "Bayes variacionales de codificación automática". arXiv : 1312.6114 [estad.ML].
  33. ^ Generación de caras con Torch, Boesen A., Larsen L. y Sonderby SK, 2015 Torch.ch/blog/2015/11/13/gan.html
  34. ^ Baldi, Pierre; Hornik, Kurt (1989-01-01). "Redes neuronales y análisis de componentes principales: aprendizaje a partir de ejemplos sin mínimos locales". Redes neuronales . 2 (1): 53–58. doi :10.1016/0893-6080(89)90014-2. ISSN  0893-6080.
  35. ^ Ackley, D; Hinton, G; Sejnowski, T (marzo de 1985). "Un algoritmo de aprendizaje para máquinas de Boltzmann". Cognitive Science . 9 (1): 147–169. doi :10.1016/S0364-0213(85)80012-4 (inactivo 2024-10-05).{{cite journal}}: CS1 maint: DOI inactive as of October 2024 (link)
  36. ^ Schwenk, Holger; Bengio, Yoshua (1997). "Métodos de entrenamiento para el refuerzo adaptativo de redes neuronales". Avances en sistemas de procesamiento de información neuronal . 10 . MIT Press.
  37. ^ ab "Moda MNIST". GitHub . 12 de julio de 2019.
  38. ^ ab Salakhutdinov, Ruslan; Hinton, Geoffrey (1 de julio de 2009). "Hashing semántico". Revista internacional de razonamiento aproximado . Sección especial sobre modelos gráficos y recuperación de información. 50 (7): 969–978. doi : 10.1016/j.ijar.2008.11.006 . ISSN  0888-613X.
  39. ^ Chicco, Davide; Sadowski, Peter; Baldi, Pierre (2014). "Redes neuronales de autocodificadores profundos para predicciones de anotaciones de ontologías genéticas". Actas de la 5.ª Conferencia de la ACM sobre bioinformática, biología computacional e informática de la salud - BCB '14. pág. 533. doi :10.1145/2649387.2649442. hdl :11311/964622. ISBN 9781450328944. Número de identificación del sujeto  207217210.
  40. ^ Plaut, E (2018). "De subespacios principales a componentes principales con autocodificadores lineales". arXiv : 1804.10253 [stat.ML].
  41. ^ Morales-Forero, A.; Bassetto, S. (diciembre de 2019). "Estudio de caso: una metodología semisupervisada para la detección y el diagnóstico de anomalías". Conferencia internacional IEEE de 2019 sobre ingeniería industrial y gestión de ingeniería (IEEM) . Macao, Macao: IEEE. págs. 1031–1037. doi :10.1109/IEEM44572.2019.8978509. ISBN . 978-1-7281-3804-6.S2CID211027131  .​
  42. ^ Sakurada, Mayu; Yairi, Takehisa (diciembre de 2014). "Detección de anomalías mediante codificadores automáticos con reducción de dimensionalidad no lineal". Actas del segundo taller de la MLSDA 2014 sobre aprendizaje automático para el análisis de datos sensoriales . Gold Coast, Australia QLD, Australia: ACM Press. págs. 4–11. doi :10.1145/2689746.2689747. ISBN 978-1-4503-3159-3. Número de identificación del sujeto  14613395.
  43. ^ abc An, J., & Cho, S. (2015). Detección de anomalías basada en autocodificador variacional utilizando probabilidad de reconstrucción. Conferencia especial sobre ingeniería inversa , 2 , 1-18.
  44. ^ Zhou, Chong; Paffenroth, Randy C. (4 de agosto de 2017). "Detección de anomalías con codificadores automáticos profundos robustos". Actas de la 23.ª Conferencia internacional ACM SIGKDD sobre descubrimiento de conocimientos y minería de datos . ACM. págs. 665–674. doi :10.1145/3097983.3098052. ISBN . 978-1-4503-4887-4.S2CID207557733  .​
  45. ^ Ribeiro, Manasés; Lazzaretti, André Eugenio; Lopes, Heitor Silvério (2018). "Un estudio de codificadores automáticos convolucionales profundos para la detección de anomalías en vídeos". Letras de reconocimiento de patrones . 105 : 13-22. Código Bib : 2018PaReL.105...13R. doi :10.1016/j.patrec.2017.07.016.
  46. ^ Nalisnick, Eric; Matsukawa, Akihiro; Teh, Yee Whye; Gorur, Dilan; Lakshminarayanan, Balaji (24 de febrero de 2019). "¿Saben los modelos generativos profundos lo que no saben?". arXiv : 1810.09136 [stat.ML].
  47. ^ Xiao, Zhisheng; Yan, Qing; Amit, Yali (2020). "Arrepentimiento de verosimilitud: una puntuación de detección fuera de distribución para el autocodificador variacional". Avances en sistemas de procesamiento de información neuronal . 33 . arXiv : 2003.02977 .
  48. ^ Theis, Lucas; Shi, Wenzhe; Cunningham, Andrew; Huszár, Ferenc (2017). "Compresión de imágenes con pérdida mediante codificadores automáticos de compresión". arXiv : 1703.00395 [stat.ML].
  49. ^ Balle, J; Laparra, V; Simoncelli, EP (abril de 2017). "Compresión de imágenes optimizada de extremo a extremo". Conferencia internacional sobre representaciones de aprendizaje . arXiv : 1611.01704 .
  50. ^ Cho, K. (febrero de 2013). La esparsificación simple mejora los autocodificadores de eliminación de ruido disperso en la eliminación de ruido de imágenes altamente corruptas. En la Conferencia internacional sobre aprendizaje automático (pp. 432-440).
  51. ^ Cho, Kyunghyun (2013). "Máquinas de Boltzmann y codificadores automáticos de eliminación de ruido para la eliminación de ruido de imágenes". arXiv : 1301.3468 [stat.ML].
  52. ^ Buades, A.; Coll, B.; Morel, JM (2005). "Una revisión de algoritmos de eliminación de ruido de imágenes, con uno nuevo". Modelado y simulación multiescala . 4 (2): 490–530. doi :10.1137/040616024. S2CID  218466166.
  53. ^ Gondara, Lovedeep (diciembre de 2016). "Reducción de ruido en imágenes médicas mediante codificadores automáticos de reducción de ruido convolucional". 2016 IEEE 16th International Conference on Data Mining Workshops (ICDMW) . Barcelona, ​​España: IEEE. pp. 241–246. arXiv : 1608.04667 . Bibcode :2016arXiv160804667G. doi :10.1109/ICDMW.2016.0041. ISBN 9781509059102.S2CID 14354973  .
  54. ^ Zeng, Kun; Yu, Jun; Wang, Ruxin; Li, Cuihua; Tao, Dacheng (enero de 2017). "Codificador automático profundo acoplado para superresolución de imagen única". IEEE Transactions on Cybernetics . 47 (1): 27–37. doi :10.1109/TCYB.2015.2501373. ISSN  2168-2267. PMID  26625442. S2CID  20787612.
  55. ^ Tzu-Hsi, Song; Sanchez, Victor; Hesham, EIDaly; Nasir M., Rajpoot (2017). "Autocodificador híbrido profundo con curvatura gaussiana para la detección de varios tipos de células en imágenes de biopsia de médula ósea por trepanación". 2017 IEEE 14th International Symposium on Biomedical Imaging (ISBI 2017) . págs. 1040–1043. doi :10.1109/ISBI.2017.7950694. ISBN . 978-1-5090-1172-8.S2CID 7433130  .
  56. ^ Xu, Jun; Xiang, Lei; Liu, Qingshan; Gilmore, Hannah; Wu, Jianzhong; Tang, Jinghai; Madabhushi, Anant (enero de 2016). "Autocodificador disperso apilado (SSAE) para la detección de núcleos en imágenes de histopatología del cáncer de mama". IEEE Transactions on Medical Imaging . 35 (1): 119–130. doi :10.1109/TMI.2015.2458702. PMC 4729702 . PMID  26208307. 
  57. ^ Martinez-Murcia, Francisco J.; Ortiz, Andres; Gorriz, Juan M.; Ramirez, Javier; Castillo-Barnes, Diego (2020). "Estudio de la estructura de la variedad de la enfermedad de Alzheimer: un enfoque de aprendizaje profundo utilizando autocodificadores convolucionales". IEEE Journal of Biomedical and Health Informatics . 24 (1): 17–26. doi : 10.1109/JBHI.2019.2914970 . hdl : 10630/28806 . PMID  31217131. S2CID  195187846.
  58. ^ Zhavoronkov, Alex (2019). "El aprendizaje profundo permite la identificación rápida de potentes inhibidores de la quinasa DDR1". Nature Biotechnology . 37 (9): 1038–1040. doi :10.1038/s41587-019-0224-x. PMID  31477924. S2CID  201716327.
  59. ^ Gregory, Barber. "Una molécula diseñada por IA exhibe cualidades 'similares a las de un fármaco'". Wired .
  60. ^ De, Shaunak; Maity, Abhishek; Goel, Vritti; Shitole, Sanjay; Bhattacharya, Avik (2017). "Predicción de la popularidad de las publicaciones de Instagram para una revista de estilo de vida mediante aprendizaje profundo". 2017 2nd IEEE International Conference on Communication Systems, Computing and IT Applications (CSCITA) . págs. 174–177. doi :10.1109/CSCITA.2017.8066548. ISBN 978-1-5090-4381-1. Número de identificación del sujeto  35350962.
  61. ^ Cho, Kyunghyun; Bart van Merrienboer; Bahdanau, Dzmitry; Bengio, Yoshua (2014). "Sobre las propiedades de la traducción automática neuronal: enfoques de codificador-decodificador". arXiv : 1409.1259 [cs.CL].
  62. ^ Sutskever, Ilya; Vinyals, Oriol; Le, Quoc V. (2014). "Aprendizaje secuencia a secuencia con redes neuronales". arXiv : 1409.3215 [cs.CL].
  63. ^ Han, Lifeng; Kuang, Shaohui (2018). "Incorporación de radicales chinos en la traducción automática neuronal: más allá del nivel de caracteres". arXiv : 1805.01565 [cs.CL].