stringtranslate.com

Aprendizaje de características

Diagrama del paradigma de aprendizaje de características en el aprendizaje automático para su aplicación en tareas posteriores, que se puede aplicar a datos sin procesar, como imágenes o texto, o a un conjunto inicial de características para los datos. El aprendizaje de características tiene como objetivo generar un entrenamiento más rápido o un mejor rendimiento en entornos específicos de tareas que si los datos se ingresaran directamente; compárese con el aprendizaje por transferencia . [1]

En el aprendizaje automático , el aprendizaje de características o aprendizaje de representaciones [2] es un conjunto de técnicas que permiten a un sistema descubrir automáticamente las representaciones necesarias para la detección o clasificación de características a partir de datos sin procesar. Esto reemplaza la ingeniería de características manual y permite que una máquina aprenda las características y las use para realizar una tarea específica.

El aprendizaje de características está motivado por el hecho de que las tareas de aprendizaje automático, como la clasificación, a menudo requieren datos que sean matemática y computacionalmente convenientes para procesar. Sin embargo, los datos del mundo real, como imágenes, videos y datos de sensores, no han dado lugar a intentos de definir características específicas mediante algoritmos. Una alternativa es descubrir dichas características o representaciones mediante el examen, sin depender de algoritmos explícitos.

El aprendizaje de características puede ser supervisado, no supervisado o autosupervisado.

Supervisado

El aprendizaje supervisado de características consiste en aprender características a partir de datos etiquetados. La etiqueta de los datos permite que el sistema calcule un término de error, el grado en el que el sistema no produce la etiqueta, que luego se puede utilizar como retroalimentación para corregir el proceso de aprendizaje (reducir o minimizar el error). Los enfoques incluyen:

Aprendizaje supervisado de diccionarios

El aprendizaje de diccionario desarrolla un conjunto (diccionario) de elementos representativos a partir de los datos de entrada, de modo que cada punto de datos pueda representarse como una suma ponderada de los elementos representativos. Los elementos del diccionario y los pesos pueden encontrarse minimizando el error de representación promedio (sobre los datos de entrada), junto con la regularización L1 de los pesos para permitir la escasez (es decir, la representación de cada punto de datos tiene solo unos pocos pesos distintos de cero).

El aprendizaje supervisado de diccionarios explota tanto la estructura subyacente a los datos de entrada como las etiquetas para optimizar los elementos del diccionario. Por ejemplo, esta técnica de aprendizaje supervisado de diccionarios [12] aplica el aprendizaje de diccionarios a problemas de clasificación optimizando conjuntamente los elementos del diccionario, los pesos para representar puntos de datos y los parámetros del clasificador en función de los datos de entrada. En particular, se formula un problema de minimización, donde la función objetivo consiste en el error de clasificación, el error de representación, una regularización L1 en los pesos de representación para cada punto de datos (para permitir una representación dispersa de los datos) y una regularización L2 en los parámetros del clasificador.

Redes neuronales

Las redes neuronales son una familia de algoritmos de aprendizaje que utilizan una "red" formada por múltiples capas de nodos interconectados. Está inspirada en el sistema nervioso animal, donde los nodos se consideran neuronas y los bordes se consideran sinapsis. Cada borde tiene un peso asociado y la red define reglas computacionales para pasar datos de entrada desde la capa de entrada de la red a la capa de salida. Una función de red asociada con una red neuronal caracteriza la relación entre las capas de entrada y salida, que está parametrizada por los pesos. Con funciones de red definidas adecuadamente, se pueden realizar varias tareas de aprendizaje minimizando una función de costo sobre la función de red (pesos).

Las redes neuronales multicapa se pueden utilizar para realizar aprendizaje de características, ya que aprenden una representación de su entrada en las capas ocultas que luego se utiliza para la clasificación o regresión en la capa de salida. La arquitectura de red más popular de este tipo son las redes siamesas .

Sin supervisión

El aprendizaje de características no supervisado consiste en aprender características a partir de datos no etiquetados. El objetivo del aprendizaje de características no supervisado suele ser descubrir características de baja dimensión que capturen alguna estructura subyacente a los datos de entrada de alta dimensión. Cuando el aprendizaje de características se realiza de forma no supervisada, permite una forma de aprendizaje semisupervisado en el que las características aprendidas de un conjunto de datos no etiquetados se emplean para mejorar el rendimiento en un entorno supervisado con datos etiquetados. [13] [14] A continuación se presentan varios enfoques.

K-significa agrupamiento

La agrupación en k -medias es un método para la cuantificación de vectores. En particular, dado un conjunto de n vectores, la agrupación en k -medias los agrupa en k grupos (es decir, subconjuntos) de tal manera que cada vector pertenece al grupo con la media más cercana. El problema es computacionalmente NP-hard , aunque se han desarrollado algoritmos voraces subóptimos

La agrupación en clústeres de k-medias se puede utilizar para agrupar un conjunto no etiquetado de entradas en k clústeres y luego utilizar los centroides de estos clústeres para producir características. Estas características se pueden producir de varias maneras. La más simple es agregar k características binarias a cada muestra, donde cada característica j tiene valor uno si y solo si el centroide j aprendido por k -medias es el más cercano a la muestra en consideración. [6] También es posible utilizar las distancias a los clústeres como características, quizás después de transformarlas a través de una función de base radial (una técnica que se ha utilizado para entrenar redes RBF [15] ). Coates y Ng señalan que ciertas variantes de k -medias se comportan de manera similar a los algoritmos de codificación dispersa . [16]

En una evaluación comparativa de métodos de aprendizaje de características no supervisados, Coates, Lee y Ng descubrieron que la agrupación de k -medias con una transformación apropiada supera a los codificadores automáticos y RBM inventados más recientemente en una tarea de clasificación de imágenes. [6] K -medias también mejora el rendimiento en el dominio de NLP , específicamente para el reconocimiento de entidades nombradas ; [17] allí, compite con la agrupación de Brown , así como con las representaciones de palabras distribuidas (también conocidas como incrustaciones de palabras neuronales). [14]

Análisis de componentes principales

El análisis de componentes principales (PCA) se utiliza a menudo para la reducción de dimensión. Dado un conjunto no etiquetado de n vectores de datos de entrada, el PCA genera p (que es mucho menor que la dimensión de los datos de entrada) vectores singulares derechos correspondientes a los p valores singulares más grandes de la matriz de datos, donde la k -ésima fila de la matriz de datos es el k -ésimo vector de datos de entrada desplazado por la media de la muestra de la entrada (es decir, restando la media de la muestra del vector de datos). De manera equivalente, estos vectores singulares son los vectores propios correspondientes a los p valores propios más grandes de la matriz de covarianza de la muestra de los vectores de entrada. Estos p vectores singulares son los vectores de características aprendidos de los datos de entrada y representan direcciones a lo largo de las cuales los datos tienen las mayores variaciones.

El PCA es un método de aprendizaje de características lineales, ya que los p vectores singulares son funciones lineales de la matriz de datos. Los vectores singulares se pueden generar mediante un algoritmo simple con p iteraciones. En la iteración i , se resta la proyección de la matriz de datos sobre el (i-1) vector propio y se encuentra el i -ésimo vector singular como el vector singular derecho correspondiente al singular más grande de la matriz de datos residual.

El PCA tiene varias limitaciones. En primer lugar, supone que las direcciones con gran varianza son las de mayor interés, lo que puede no ser el caso. El PCA solo se basa en transformaciones ortogonales de los datos originales y explota solo los momentos de primer y segundo orden de los datos, que pueden no caracterizar bien la distribución de datos. Además, el PCA puede reducir eficazmente la dimensión solo cuando los vectores de datos de entrada están correlacionados (lo que da como resultado unos pocos valores propios dominantes).

Incrustación lineal local

La incrustación lineal local (LLE) es un enfoque de aprendizaje no lineal para generar representaciones de baja dimensión que preservan los vecinos a partir de una entrada de alta dimensión (sin etiquetar). El enfoque fue propuesto por Roweis y Saul (2000). [18] [19] La idea general de LLE es reconstruir los datos originales de alta dimensión utilizando puntos de menor dimensión mientras se mantienen algunas propiedades geométricas de los vecindarios en el conjunto de datos original.

LLE consta de dos pasos principales. El primer paso es para la "preservación de vecinos", donde cada punto de datos de entrada Xi se reconstruye como una suma ponderada de K puntos de datos vecinos más cercanos , y los pesos óptimos se encuentran minimizando el error de reconstrucción cuadrático promedio (es decir, la diferencia entre un punto de entrada y su reconstrucción) bajo la restricción de que los pesos asociados con cada punto sumen uno. El segundo paso es para la "reducción de dimensión", mediante la búsqueda de vectores en un espacio de menor dimensión que minimice el error de representación utilizando los pesos optimizados en el primer paso. Tenga en cuenta que en el primer paso, los pesos se optimizan con datos fijos, que se pueden resolver como un problema de mínimos cuadrados . En el segundo paso, los puntos de menor dimensión se optimizan con pesos fijos, que se pueden resolver mediante la descomposición de valores propios dispersos.

Los pesos de reconstrucción obtenidos en el primer paso capturan las "propiedades geométricas intrínsecas" de un vecindario en los datos de entrada. [19] Se supone que los datos originales se encuentran en una variedad suave de menor dimensión , y se espera que las "propiedades geométricas intrínsecas" capturadas por los pesos de los datos originales también estén en la variedad. Es por eso que se utilizan los mismos pesos en el segundo paso de LLE. En comparación con PCA, LLE es más poderoso en la explotación de la estructura de datos subyacente.

Análisis de componentes independientes

El análisis de componentes independientes (ICA) es una técnica para formar una representación de datos utilizando una suma ponderada de componentes no gaussianos independientes. [20] Se impone el supuesto de que no son gaussianos ya que los pesos no se pueden determinar de forma única cuando todos los componentes siguen una distribución gaussiana .

Aprendizaje de diccionarios sin supervisión

El aprendizaje de diccionarios no supervisado no utiliza etiquetas de datos y explota la estructura subyacente de los datos para optimizar los elementos del diccionario. Un ejemplo de aprendizaje de diccionarios no supervisado es la codificación dispersa , que tiene como objetivo aprender funciones base (elementos del diccionario) para la representación de datos a partir de datos de entrada no etiquetados. La codificación dispersa se puede aplicar para aprender diccionarios sobrecompletos, donde el número de elementos del diccionario es mayor que la dimensión de los datos de entrada. [21] Aharon et al. propusieron el algoritmo K-SVD para aprender un diccionario de elementos que permite la representación dispersa. [22]

Arquitecturas multicapa/profundas

La arquitectura jerárquica del sistema neuronal biológico inspira arquitecturas de aprendizaje profundo para el aprendizaje de características mediante el apilamiento de múltiples capas de nodos de aprendizaje. [23] Estas arquitecturas a menudo se diseñan basándose en el supuesto de representación distribuida : los datos observados se generan por las interacciones de muchos factores diferentes en múltiples niveles. En una arquitectura de aprendizaje profundo, la salida de cada capa intermedia se puede ver como una representación de los datos de entrada originales. Cada nivel utiliza la representación producida por el nivel anterior, inferior, como entrada y produce nuevas representaciones como salida, que luego se alimentan a niveles superiores. La entrada en la capa inferior son datos sin procesar, y la salida de la capa final, más alta, es la característica o representación final de baja dimensión.

Máquina de Boltzmann restringida

Las máquinas de Boltzmann restringidas (RBM) se utilizan a menudo como un bloque de construcción para arquitecturas de aprendizaje multicapa. [6] [24] Una RBM puede representarse mediante un gráfico bipartito no dirigido que consiste en un grupo de variables ocultas binarias , un grupo de variables visibles y aristas que conectan los nodos ocultos y visibles. Es un caso especial de las máquinas de Boltzmann más generales con la restricción de que no hay conexiones intra-nodo. Cada arista en una RBM está asociada con un peso. Los pesos junto con las conexiones definen una función de energía , en base a la cual se puede idear una distribución conjunta de nodos visibles y ocultos. Con base en la topología de la RBM, las variables ocultas (visibles) son independientes, condicionadas a las variables visibles (ocultas). [ aclaración necesaria ] Tal independencia condicional facilita los cálculos.

Un RBM puede considerarse como una arquitectura de una sola capa para el aprendizaje de características no supervisado. En particular, las variables visibles corresponden a los datos de entrada y las variables ocultas corresponden a los detectores de características. Los pesos pueden entrenarse maximizando la probabilidad de las variables visibles utilizando el algoritmo de divergencia contrastiva (CD) de Hinton . [24]

En general, el entrenamiento de los RBM mediante la solución del problema de maximización tiende a dar como resultado representaciones no dispersas. Se propuso Sparse RBM [25] para permitir representaciones dispersas. La idea es agregar un término de regularización en la función objetivo de la verosimilitud de los datos, que penaliza la desviación de las variables ocultas esperadas con respecto a una pequeña constante . Los RBM también se han utilizado para obtener representaciones desenredadas de datos, donde las características interesantes se asignan a unidades ocultas separadas. [26]

Codificador automático

Un autocodificador que consta de un codificador y un decodificador es un paradigma para las arquitecturas de aprendizaje profundo. Hinton y Salakhutdinov [24] proporcionan un ejemplo donde el codificador utiliza datos sin procesar (por ejemplo, imagen) como entrada y produce una característica o representación como salida y el decodificador utiliza la característica extraída del codificador como entrada y reconstruye los datos sin procesar de entrada originales como salida. El codificador y el decodificador se construyen apilando múltiples capas de RBM. Los parámetros involucrados en la arquitectura se entrenaron originalmente de una manera codiciosa capa por capa: después de que se aprende una capa de detectores de características, se alimentan como variables visibles para entrenar el RBM correspondiente. Los enfoques actuales generalmente aplican entrenamiento de extremo a extremo con métodos de descenso de gradiente estocástico . El entrenamiento se puede repetir hasta que se cumplan algunos criterios de detención.

Autosupervisado

El aprendizaje de representación autosupervisado consiste en aprender características mediante el entrenamiento en la estructura de datos no etiquetados en lugar de depender de etiquetas explícitas para una señal de información . Este enfoque ha permitido el uso combinado de arquitecturas de redes neuronales profundas y conjuntos de datos no etiquetados más grandes para producir representaciones de características profundas. [9] Las tareas de entrenamiento normalmente se incluyen en las clases de contrastivo, generativo o ambos. [27] El aprendizaje de representación contrastivo entrena representaciones para pares de datos asociados, llamados muestras positivas, para que se alineen, mientras que los pares sin relación, llamados muestras negativas, se contrastan. Por lo general, se necesita una porción más grande de muestras negativas para evitar un colapso catastrófico, que es cuando todas las entradas se asignan a la misma representación. [9] El aprendizaje de representación generativa asigna al modelo la tarea de producir los datos correctos para que coincidan con una entrada restringida o reconstruir la entrada completa a partir de una representación de dimensión inferior. [27]

Una configuración común para el aprendizaje de representaciones autosupervisadas de un cierto tipo de datos (por ejemplo, texto, imagen, audio, video) es entrenar previamente el modelo utilizando grandes conjuntos de datos de contexto general, datos no etiquetados. [11] Dependiendo del contexto, el resultado de esto es un conjunto de representaciones para segmentos de datos comunes (por ejemplo, palabras) en los que se pueden dividir los nuevos datos, o una red neuronal capaz de convertir cada nuevo punto de datos (por ejemplo, imagen) en un conjunto de características de menor dimensión. [9] En cualquier caso, las representaciones de salida se pueden utilizar como una inicialización en muchos entornos de problemas diferentes donde los datos etiquetados pueden ser limitados. La especialización del modelo para tareas específicas se realiza típicamente con aprendizaje supervisado, ya sea ajustando el modelo / representaciones con las etiquetas como señal, o congelando las representaciones y entrenando un modelo adicional que las toma como entrada. [11]

Se han desarrollado muchos esquemas de entrenamiento autosupervisados ​​para su uso en el aprendizaje de representaciones de diversas modalidades , que a menudo muestran primero una aplicación exitosa en texto o imagen antes de ser transferidos a otros tipos de datos. [9]

Texto

Word2vec es una técnica de incrustación de palabras que aprende a representar palabras mediante la autosupervisión de cada palabra y sus palabras vecinas en una ventana deslizante a lo largo de un gran corpus de texto. [28] El modelo tiene dos posibles esquemas de entrenamiento para producir representaciones de vectores de palabras, uno generativo y otro contrastivo. [27] El primero es la predicción de palabras dada cada una de las palabras vecinas como entrada. [28] El segundo es el entrenamiento en la similitud de representación para palabras vecinas y la disimilitud de representación para pares aleatorios de palabras. [10] Una limitación de word2vec es que solo se utiliza la estructura de coocurrencia por pares de los datos, y no el ordenamiento o el conjunto completo de palabras de contexto. Los enfoques de aprendizaje de representación basados ​​en transformadores más recientes intentan resolver esto con tareas de predicción de palabras. [9] Los GPT se entrenan previamente en la predicción de la próxima palabra utilizando palabras de entrada anteriores como contexto, [29] mientras que BERT enmascara tokens aleatorios para proporcionar un contexto bidireccional. [30]

Otras técnicas autosupervisadas amplían las incrustaciones de palabras al encontrar representaciones para estructuras de texto más grandes, como oraciones o párrafos, en los datos de entrada. [9] Doc2vec extiende el enfoque de entrenamiento generativo en word2vec al agregar una entrada adicional a la tarea de predicción de palabras en función del párrafo en el que se encuentra y, por lo tanto, está destinado a representar el contexto a nivel de párrafo. [31]

Imagen

El dominio del aprendizaje de la representación de imágenes ha empleado muchas técnicas de entrenamiento autosupervisadas diferentes, incluidas la transformación, [32] la reproducción en color, [33] la discriminación de parches , [34] y la agrupación. [35]

Ejemplos de enfoques generativos son los codificadores de contexto, que entrenan una arquitectura CNN de AlexNet para generar una región de imagen eliminada dada la imagen enmascarada como entrada, [33] e iGPT, que aplica la arquitectura del modelo de lenguaje GPT-2 a las imágenes mediante el entrenamiento en predicción de píxeles después de reducir la resolución de la imagen . [36]

Muchos otros métodos autosupervisados ​​utilizan redes siamesas , que generan diferentes vistas de la imagen a través de varios aumentos que luego se alinean para tener representaciones similares. El desafío es evitar soluciones colapsantes donde el modelo codifica todas las imágenes a la misma representación. [37] SimCLR es un enfoque contrastivo que utiliza ejemplos negativos para generar representaciones de imágenes con una CNN ResNet . [34] Bootstrap Your Own Latent (BYOL) elimina la necesidad de muestras negativas al codificar una de las vistas con un promedio móvil lento de los parámetros del modelo a medida que se modifican durante el entrenamiento. [38]

Gráfico

El objetivo de muchas técnicas de aprendizaje de representación gráfica es producir una representación integrada de cada nodo en función de la topología general de la red . [39] node2vec extiende la técnica de entrenamiento word2vec a los nodos de un gráfico utilizando la coocurrencia en recorridos aleatorios a través del gráfico como medida de asociación. [40] Otro enfoque es maximizar la información mutua , una medida de similitud, entre las representaciones de estructuras asociadas dentro del gráfico. [9] Un ejemplo es Deep Graph Infomax, que utiliza autosupervisión contrastiva basada en información mutua entre la representación de un "parche" alrededor de cada nodo y una representación resumida de todo el gráfico. Las muestras negativas se obtienen emparejando la representación gráfica con representaciones de otro gráfico en un entorno de entrenamiento multigráfico o representaciones de parches corruptos en un entrenamiento de un solo gráfico. [41]

Video

Con resultados análogos en la predicción enmascarada [42] y la agrupación [43] , los enfoques de aprendizaje de la representación de video a menudo son similares a las técnicas de imágenes, pero deben utilizar la secuencia temporal de fotogramas de video como una estructura aprendida adicional. Los ejemplos incluyen VCP, que enmascara videoclips y entrena para elegir el correcto dado un conjunto de opciones de clip, y Xu et al., que entrenan una CNN 3D para identificar el orden original dado un conjunto aleatorio de videoclips. [44]

Audio

Las técnicas de representación autosupervisadas también se han aplicado a muchos formatos de datos de audio, en particular para el procesamiento de voz . [9] Wav2vec 2.0 discretiza la forma de onda de audio en pasos de tiempo a través de convoluciones temporales y luego entrena un transformador en la predicción enmascarada de pasos de tiempo aleatorios utilizando una pérdida contrastiva. [45] Esto es similar al modelo de lenguaje BERT , excepto que, como en muchos enfoques SSL para video, el modelo elige entre un conjunto de opciones en lugar de sobre todo el vocabulario de palabras. [30] [45]

Multimodal

El aprendizaje autosupervisado también se ha utilizado para desarrollar representaciones conjuntas de múltiples tipos de datos. [9] Los enfoques generalmente se basan en alguna asociación natural o derivada del ser humano entre las modalidades como una etiqueta implícita, por ejemplo, videoclips de animales u objetos con sonidos característicos, [46] o subtítulos escritos para describir imágenes. [47] CLIP produce un espacio de representación conjunta de imagen y texto mediante el entrenamiento para alinear las codificaciones de imagen y texto de un gran conjunto de datos de pares de imagen y subtítulo utilizando una pérdida contrastiva. [47] MERLOT Reserve entrena un codificador basado en transformador para representar conjuntamente audio, subtítulos y fotogramas de vídeo de un gran conjunto de datos de vídeos a través de 3 tareas de preentrenamiento conjuntas: predicción enmascarada contrastiva de segmentos de audio o texto dados los fotogramas de vídeo y el contexto de audio y texto circundante, junto con la alineación contrastiva de los fotogramas de vídeo con sus subtítulos correspondientes. [46]

Los modelos de representación multimodal normalmente no pueden suponer una correspondencia directa de las representaciones en las diferentes modalidades, ya que la alineación precisa puede ser a menudo ruidosa o ambigua. Por ejemplo, el texto "perro" podría estar emparejado con muchas imágenes diferentes de perros y, en consecuencia, una imagen de un perro podría tener un título con distintos grados de especificidad. Esta limitación significa que las tareas posteriores pueden requerir una red de mapeo generativo adicional entre modalidades para lograr un rendimiento óptimo, como en DALLE-2 para la generación de texto a imagen. [48]

Aprendizaje de representación dinámica

Los métodos de aprendizaje de representación dinámica [49] generan incrustaciones latentes para sistemas dinámicos como redes dinámicas. Dado que las funciones de distancia particulares son invariantes bajo transformaciones lineales particulares, diferentes conjuntos de vectores de incrustación pueden representar en realidad la misma información o información similar. Por lo tanto, para un sistema dinámico, una diferencia temporal en sus incrustaciones puede explicarse por la desalineación de las incrustaciones debido a transformaciones arbitrarias y/o cambios reales en el sistema. [50] Por lo tanto, en términos generales, las incrustaciones temporales aprendidas a través de métodos de aprendizaje de representación dinámica deben inspeccionarse para detectar cualquier cambio espurio y alinearse antes de los análisis dinámicos consecuentes.

Véase también

Referencias

  1. ^ Goodfellow, Ian (2016). Aprendizaje profundo . Yoshua Bengio, Aaron Courville. Cambridge, Massachusetts. págs. 524–534. ISBN  0-262-03561-8 . OCLC  955778308.
  2. ^ Y. Bengio; A. Courville; P. Vincent (2013). "Representation Learning: A Review and New Perspectives". IEEE Transactions on Pattern Analysis and Machine Intelligence . 35 (8): 1798–1828. arXiv : 1206.5538 . doi :10.1109/tpami.2013.50. PMID  23787338. S2CID  393948.
  3. ^ Stuart J. Russell, Peter Norvig (2010) Inteligencia artificial: un enfoque moderno , tercera edición , Prentice Hall ISBN 978-0-13-604259-4
  4. ^ Hinton, Geoffrey; Sejnowski, Terrence (1999). Aprendizaje no supervisado: fundamentos de la computación neuronal . MIT Press. ISBN 978-0-262-58168-4
  5. ^ Nathan Srebro; Jason DM Rennie; Tommi S. Jaakkola (2004). Factorización matricial de margen máximo . NIPS .
  6. ^ abcd Coates, Adam; Lee, Honglak; Ng, Andrew Y. (2011). Un análisis de redes de una sola capa en el aprendizaje de características no supervisado (PDF) . Conferencia Internacional sobre IA y Estadística (AISTATS). Archivado desde el original (PDF) el 2017-08-13 . Consultado el 2014-11-24 .
  7. ^ Csurka, Gabriella; Dance, Christopher C.; Fan, Lixin; Willamowski, Jutta; Bray, Cédric (2004). Categorización visual con bolsas de puntos clave (PDF) . Taller ECCV sobre aprendizaje estadístico en visión artificial.
  8. ^ Daniel Jurafsky ; James H. Martin (2009). Procesamiento del habla y del lenguaje . Pearson Educación Internacional. págs. 145–146.
  9. ^ abcdefghijk Ericsson, Linus; Gouk, Henry; Loy, Chen Change; Hospedales, Timothy M. (mayo de 2022). "Aprendizaje de representación autosupervisado: introducción, avances y desafíos". Revista IEEE Signal Processing . 39 (3): 42–62. arXiv : 2110.09327 . Código Bibliográfico : 2022ISPM...39c..42E. doi : 10.1109/MSP.2021.3134634. ISSN  1558-0792. S2CID  : 239017006.
  10. ^ ab Mikolov, Tomas; Sutskever, Ilya; Chen, Kai; Corrado, Greg S; Dean, Jeff (2013). "Representaciones distribuidas de palabras y frases y su composicionalidad". Avances en sistemas de procesamiento de información neuronal . 26 . Curran Associates, Inc. arXiv : 1310.4546 .
  11. ^ abc Goodfellow, Ian (2016). Aprendizaje profundo . Yoshua Bengio, Aaron Courville. Cambridge, Massachusetts. págs. 499–516. ISBN 0-262-03561-8 . OCLC  955778308. 
  12. ^ Mairal, Julien; Bach, Francis; Ponce, Jean; Sapiro, Guillermo; Zisserman, Andrew (2009). "Supervised Dictionary Learning". Avances en sistemas de procesamiento de información neuronal .
  13. ^ Percy Liang (2005). Aprendizaje semisupervisado para lenguaje natural (PDF) (M. Eng.). MIT . págs. 44–52.
  14. ^ ab Joseph Turian; Lev Ratinov; Yoshua Bengio (2010). Representaciones de palabras: un método simple y general para el aprendizaje semisupervisado (PDF) . Actas de la 48.ª reunión anual de la Asociación de Lingüística Computacional. Archivado desde el original (PDF) el 26 de febrero de 2014. Consultado el 22 de febrero de 2014 .
  15. ^ Schwenker, Friedhelm; Kestler, Hans A.; Palm, Günther (2001). "Tres fases de aprendizaje para redes de función de base radial". Redes neuronales . 14 (4–5): 439–458. CiteSeerX 10.1.1.109.312 . doi :10.1016/s0893-6080(01)00027-2. PMID  11411631. 
  16. ^ Coates, Adam; Ng, Andrew Y. (2012). "Aprendizaje de representaciones de características con k-means". En G. Montavon, GB Orr y K.-R. Müller (ed.). Redes neuronales: trucos del oficio . Springer.
  17. ^ Dekang Lin; Xiaoyun Wu (2009). Agrupamiento de frases para el aprendizaje discriminativo (PDF) . Proc. J. Conf. de la ACL y 4th Int'l J. Conf. sobre procesamiento del lenguaje natural de la AFNLP. págs. 1030–1038. Archivado desde el original (PDF) el 2016-03-03 . Consultado el 2013-07-14 .
  18. ^ Roweis, Sam T; Saul, Lawrence K (2000). "Reducción de dimensionalidad no lineal mediante incrustación lineal local". Science . Nuevas series. 290 (5500): 2323–2326. Bibcode :2000Sci...290.2323R. doi :10.1126/science.290.5500.2323. JSTOR  3081722. PMID  11125150. S2CID  5987139.
  19. ^ ab Saul, Lawrence K; Roweis, Sam T (2000). "Introducción a la incrustación lineal local". {{cite journal}}: Requiere citar revista |journal=( ayuda )
  20. ^ Hyvärinen, Aapo; Oja, Erkki (2000). "Análisis de componentes independientes: algoritmos y aplicaciones". Redes Neuronales . 13 (4): 411–430. doi :10.1016/s0893-6080(00)00026-5. PMID  10946390. S2CID  11959218.
  21. ^ Lee, Honglak; Battle, Alexis; Raina, Rajat; Ng, Andrew Y (2007). "Algoritmos de codificación dispersa eficientes". Avances en sistemas de procesamiento de información neuronal .
  22. ^ Aharon, Michal ; Elad, Michael; Bruckstein, Alfred (2006). "K-SVD: Un algoritmo para diseñar diccionarios sobrecompletos para representación dispersa". IEEE Trans. Signal Process . 54 (11): 4311–4322. Bibcode :2006ITSP...54.4311A. doi :10.1109/TSP.2006.881199. S2CID  7477309.
  23. ^ Bengio, Yoshua (2009). "Arquitecturas profundas de aprendizaje para IA". Fundamentos y tendencias en aprendizaje automático . 2 (1): 1–127. doi :10.1561/2200000006. S2CID  207178999.
  24. ^ abc Hinton, GE; Salakhutdinov, RR (2006). "Reducción de la dimensionalidad de los datos con redes neuronales" (PDF) . Science . 313 (5786): 504–507. Bibcode :2006Sci...313..504H. doi :10.1126/science.1127647. PMID  16873662. S2CID  1658773. Archivado desde el original (PDF) el 23 de diciembre de 2015 . Consultado el 29 de agosto de 2015 .
  25. ^ Lee, Honglak; Ekanadham, Chaitanya; Andrew, Ng (2008). "Modelo de red de creencias profundas dispersas para el área visual V2". Avances en sistemas de procesamiento de información neuronal .
  26. ^ Fernandez-de-Cossio-Diaz, Jorge; Cocco, Simona; Monasson, Rémi (5 de abril de 2023). "Desenredando representaciones en máquinas de Boltzmann restringidas sin adversarios". Physical Review X . 13 (2): 021003. arXiv : 2206.11600 . Código Bibliográfico :2023PhRvX..13b1003F. doi :10.1103/PhysRevX.13.021003.
  27. ^ abc Liu, Xiao; Zhang, Fanjin; Hou, Zhenyu; Mian, Li; Wang, Zhaoyu; Zhang, Jing; Tang, Jie (2021). "Aprendizaje autosupervisado: generativo o contrastivo". Transacciones IEEE sobre conocimiento e ingeniería de datos . 35 (1): 857–876. arXiv : 2006.08218 . doi :10.1109/TKDE.2021.3090866. ISSN  1558-2191. S2CID  219687051.
  28. ^ ab Mikolov, Tomas; Chen, Kai; Corrado, Greg; Dean, Jeffrey (6 de septiembre de 2013). "Estimación eficiente de representaciones de palabras en el espacio vectorial". arXiv : 1301.3781 [cs.CL].
  29. ^ "Mejorar la comprensión del lenguaje mediante el preentrenamiento generativo" (PDF). Consultado el 10 de octubre de 2022.
  30. ^ ab Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina (junio de 2019). "Actas de la Conferencia del Norte de 2019". Actas de la Conferencia de 2019 del Capítulo norteamericano de la Asociación de Lingüística Computacional: Tecnologías del lenguaje humano, volumen 1 (artículos largos y cortos) . Minneapolis, Minnesota: Asociación de Lingüística Computacional: 4171–4186. doi :10.18653/v1/N19-1423. S2CID  52967399.
  31. ^ Le, Quoc; Mikolov, Tomas (18 de junio de 2014). "Representaciones distribuidas de oraciones y documentos". Conferencia internacional sobre aprendizaje automático . PMLR: 1188–1196. arXiv : 1405.4053 .
  32. ^ Spyros Gidaris, Praveer Singh y Nikos Komodakis. Aprendizaje de representación no supervisado mediante la predicción de rotaciones de imágenes. En ICLR, 2018.
  33. ^ ab Pathak, Deepak; Krahenbuhl, Philipp; Donahue, Jeff; Darrell, Trevor; Efros, Alexei A. (2016). "Codificadores de contexto: aprendizaje de características mediante inserción de imágenes": 2536–2544. arXiv : 1604.07379 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  34. ^ ab Chen, Ting; Kornblith, Simon; Norouzi, Mohammad; Hinton, Geoffrey (21 de noviembre de 2020). "Un marco simple para el aprendizaje contrastivo de representaciones visuales". Conferencia internacional sobre aprendizaje automático . PMLR: 1597–1607.
  35. ^ Mathilde, Caron; Ishan, Misra; Julien, Mairal; Priya, Goyal; Piotr, Bojanowski; Armand, Joulin (2020). "Aprendizaje no supervisado de características visuales mediante asignaciones de grupos contrastantes". Avances en sistemas de procesamiento de información neuronal . 33 . arXiv : 2006.09882 .
  36. ^ Chen, Mark; Radford, Alec; Child, Rewon; Wu, Jeffrey; Jun, Heewoo; Luan, David; Sutskever, Ilya (21 de noviembre de 2020). "Preentrenamiento generativo a partir de píxeles". Conferencia internacional sobre aprendizaje automático . PMLR: 1691–1703.
  37. ^ Chen, Xinlei; He, Kaiming (2021). "Explorando el aprendizaje de la representación siamesa simple": 15750–15758. arXiv : 2011.10566 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  38. ^ Jean-Bastien, Grill; Florian, Strub; Florent, Altché; Corentin, Tallec; Pierre, Richemond; Elena, Buchatskaya; Carl, Doersch; Bernardo, Avila Pires; Zhaohan, Guo; Mohammad, Gheshlaghi Azar; Bilal, Piot; koray, kavukcuoglu; Remi, Munos; Michal, Valko (2020). "Bootstrap Your Own Latent - Un nuevo enfoque para el aprendizaje autosupervisado". Avances en sistemas de procesamiento de información neuronal . 33 .
  39. ^ Cai, HongYun; Zheng, Vincent W.; Chang, Kevin Chen-Chuan (septiembre de 2018). "Un estudio exhaustivo de la incrustación de grafos: problemas, técnicas y aplicaciones". IEEE Transactions on Knowledge and Data Engineering . 30 (9): 1616–1637. arXiv : 1709.07604 . doi :10.1109/TKDE.2018.2807452. ISSN  1558-2191. S2CID  13999578.
  40. ^ Grover, Aditya; Leskovec, Jure (13 de agosto de 2016). "Node2vec". Actas de la 22.ª Conferencia internacional ACM SIGKDD sobre descubrimiento de conocimiento y minería de datos . KDD '16. Vol. 2016. Nueva York, NY, EE. UU.: Association for Computing Machinery. págs. 855–864. doi :10.1145/2939672.2939754. ISBN 978-1-4503-4232-2. PMC  5108654 . PMID  27853626.
  41. ^ Velikovi, P., Fedus, W., Hamilton, WL, Li, P., Bengio, Y. y Hjelm, RD Deep Graph InfoMax. En la Conferencia internacional sobre representaciones de aprendizaje (ICLR'2019), 2019.
  42. ^ Luo, Dezhao; Liu, Chang; Zhou, Yu; Yang, Dongbao; Ma, Can; Ye, Qixiang; Wang, Weiping (3 de abril de 2020). "Procedimiento de video cloze para el aprendizaje espacio-temporal autosupervisado". Actas de la Conferencia AAAI sobre Inteligencia Artificial . 34 (7): 11701–11708. arXiv : 2001.00294 . doi : 10.1609/aaai.v34i07.6840 . ISSN  2374-3468. S2CID  209531629.
  43. ^ Humam, Alwassel; Dhruv, Mahajan; Bruno, Korbar; Lorenzo, Torresani; Bernard, Ghanem; Du, Tran (2020). "Aprendizaje autosupervisado mediante agrupamiento de audio y vídeo multimodal". Avances en sistemas de procesamiento de información neuronal . 33 . arXiv : 1911.12667 .
  44. ^ Xu, Dejing; Xiao, Jun; Zhao, Zhou; Shao, Jian; Xie, Di; Zhuang, Yueting (junio de 2019). "Aprendizaje espaciotemporal autosupervisado mediante predicción del orden de videoclips". Conferencia IEEE/CVF de 2019 sobre visión artificial y reconocimiento de patrones (CVPR) . págs. 10326–10335. doi :10.1109/CVPR.2019.01058. ISBN . 978-1-7281-3293-8.S2CID 195504152  .
  45. ^ ab Alexei, Baevski; Yuhao, Zhou; Abdelrahman, Mohamed; Michael, Auli (2020). "wav2vec 2.0: Un marco para el aprendizaje autosupervisado de representaciones del habla". Avances en sistemas de procesamiento de información neuronal . 33 . arXiv : 2006.11477 .
  46. ^ ab Zellers, Rowan; Lu, Jiasen; Lu, Ximing; Yu, Youngjae; Zhao, Yanpeng; Salehi, Mohammadreza; Kusupati, Aditya; Hessel, Jack; Farhadi, Ali; Choi, Yejin (2022). "Reserva MERLOT: conocimiento de la escritura neuronal a través de la visión, el lenguaje y el sonido": 16375–16387. arXiv : 2201.02639 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  47. ^ ab Radford, Alec; Kim, Jong Wook; Hallacy, Chris; Ramesh, Aditya; Goh, Gabriel; Agarwal, Sandhini; Sastry, Girish; Askell, Amanda; Mishkin, Pamela; Clark, Jack; Krueger, Gretchen; Sutskever, Ilya (1 de julio de 2021). "Aprendizaje de modelos visuales transferibles a partir de la supervisión del lenguaje natural". Conferencia internacional sobre aprendizaje automático . PMLR: 8748–8763. arXiv : 2103.00020 .
  48. ^ Ramesh, Aditya; Dhariwal, Prafulla; Nichol, Alex; Chu, Casey; Chen, Mark (12 de abril de 2022). "Generación jerárquica de imágenes condicionales de texto con latentes CLIP". arXiv : 2204.06125 [cs.CV].
  49. ^ Zhang, Daokun; Yin, Jie; Zhu, Xingquan; Zhang, Chengqi (marzo de 2020). "Aprendizaje de la representación de redes: una encuesta". IEEE Transactions on Big Data . 6 (1): 3–28. arXiv : 1801.05852 . doi :10.1109/TBDATA.2018.2850013. ISSN  2332-7790. S2CID  1479507.
  50. ^ Gürsoy, Furkan; Haddad, Mounir; Bothorel, Cécile (7 de octubre de 2023). "Alineación y estabilidad de las incrustaciones: mejora de la medición y la inferencia". Neurocomputing . 553 : 126517. arXiv : 2101.07251 . doi :10.1016/j.neucom.2023.126517. ISSN  0925-2312. S2CID  231632462.