Incrustación de datos dentro de una variedad basada en una función de similitud
Un espacio latente , también conocido como espacio de características latentes o espacio de incrustación , es una incrustación de un conjunto de elementos dentro de una variedad en la que elementos que se parecen entre sí se colocan más cerca unos de otros. La posición dentro del espacio latente puede verse definida por un conjunto de variables latentes que emergen de las semejanzas de los objetos.
En la mayoría de los casos, la dimensionalidad del espacio latente se elige para que sea menor que la dimensionalidad del espacio de características del cual se extraen los puntos de datos, lo que hace que la construcción de un espacio latente sea un ejemplo de reducción de dimensionalidad , que también puede verse como una forma de compresión de datos . [1] Los espacios latentes generalmente se ajustan mediante aprendizaje automático y luego pueden usarse como espacios de características en modelos de aprendizaje automático, incluidos clasificadores y otros predictores supervisados.
La interpretación de los espacios latentes de los modelos de aprendizaje automático es un campo de estudio activo, pero la interpretación de los espacios latentes es difícil de lograr. Debido a la naturaleza de caja negra de los modelos de aprendizaje automático, el espacio latente puede resultar completamente poco intuitivo. Además, el espacio latente puede ser de alta dimensión, complejo y no lineal, lo que puede aumentar la dificultad de interpretación. [2] Se han desarrollado algunas técnicas de visualización para conectar el espacio latente con el mundo visual, pero a menudo no existe una conexión directa entre la interpretación del espacio latente y el modelo en sí. Dichas técnicas incluyen la incrustación de vecinos estocásticos distribuidos en t (t-SNE), donde el espacio latente se asigna a dos dimensiones para su visualización. Las distancias del espacio latente carecen de unidades físicas, por lo que la interpretación de estas distancias puede depender de la aplicación. [3]
Incrustar modelos
Se han desarrollado varios modelos de incrustación para realizar esta transformación y crear incrustaciones de espacio latente dado un conjunto de elementos de datos y una función de similitud . Estos modelos aprenden las incorporaciones aprovechando técnicas estadísticas y algoritmos de aprendizaje automático. A continuación se muestran algunos modelos de incrustación de uso común:
- Word2Vec : [4] Word2Vec es un modelo de incrustación popular utilizado en el procesamiento del lenguaje natural (NLP). Aprende incrustaciones de palabras entrenando una red neuronal en un gran corpus de texto. Word2Vec captura relaciones semánticas y sintácticas entre palabras, lo que permite cálculos significativos como analogías de palabras.
- GloVe : [5] GloVe (Vectores globales para representación de palabras) es otro modelo de incrustación ampliamente utilizado para PNL. Combina información estadística global de un corpus con información de contexto local para aprender incrustaciones de palabras. Las incrustaciones de GloVe son conocidas por capturar similitudes tanto semánticas como relacionales entre palabras.
- Redes siamesas : [6] Las redes siamesas son un tipo de arquitectura de red neuronal comúnmente utilizada para la incrustación basada en similitudes. Consisten en dos subredes idénticas que procesan dos muestras de entrada y producen sus respectivas incrustaciones. Las redes siamesas se utilizan a menudo para tareas como similitud de imágenes, sistemas de recomendación y reconocimiento facial.
- Autocodificadores variacionales (VAE): [7] Los VAE son modelos generativos que aprenden simultáneamente a codificar y decodificar datos. El espacio latente en VAE actúa como un espacio de incrustación. Al entrenar VAE con datos de alta dimensión, como imágenes o audio, el modelo aprende a codificar los datos en una representación latente compacta. Los VAE son conocidos por su capacidad para generar nuevas muestras de datos a partir del espacio latente aprendido.
Multimodalidad
La multimodalidad se refiere a la integración y análisis de múltiples modos o tipos de datos dentro de un único modelo o marco. La incorporación de datos multimodales implica capturar relaciones e interacciones entre diferentes tipos de datos, como imágenes, texto, audio y datos estructurados.
Los modelos de incorporación multimodal tienen como objetivo aprender representaciones conjuntas que fusionan información de múltiples modalidades, lo que permite análisis y tareas intermodales. Estos modelos permiten aplicaciones como subtítulos de imágenes, respuesta visual a preguntas y análisis de sentimientos multimodal.
Para incorporar datos multimodales, se emplean arquitecturas especializadas, como redes multimodales profundas o transformadores multimodales. Estas arquitecturas combinan diferentes tipos de módulos de redes neuronales para procesar e integrar información de diversas modalidades. Las incorporaciones resultantes capturan las relaciones complejas entre diferentes tipos de datos, facilitando el análisis y la comprensión multimodal.
Aplicaciones
La incrustación de modelos de espacio latente y de incrustación multimodal ha encontrado numerosas aplicaciones en varios dominios:
- Recuperación de información: las técnicas de incrustación permiten sistemas eficientes de búsqueda y recomendación de similitudes al representar puntos de datos en un espacio compacto.
- Procesamiento del lenguaje natural: las incrustaciones de palabras han revolucionado las tareas de PNL como el análisis de sentimientos, la traducción automática y la clasificación de documentos.
- Visión por computadora: las incrustaciones de imágenes y videos permiten tareas como el reconocimiento de objetos, la recuperación de imágenes y el resumen de videos.
- Sistemas de recomendación: las incrustaciones ayudan a capturar las preferencias del usuario y las características de los elementos, lo que permite recomendaciones personalizadas.
- Atención sanitaria: se han aplicado técnicas de integración a registros médicos electrónicos, imágenes médicas y datos genómicos para la predicción, el diagnóstico y el tratamiento de enfermedades.
- Sistemas sociales: se pueden utilizar técnicas de incrustación para aprender representaciones latentes de sistemas sociales, como sistemas de migración interna, [8] redes de citas académicas, [9] y redes de comercio mundial. [10]
Ver también
Referencias
- ^ Liu, Yang; Jun, Eunice; Li, Qisheng; Heer, Jeffrey (junio de 2019). "Cartografía del espacio latente: análisis visual de incrustaciones del espacio vectorial". Foro de gráficos por computadora . 38 (3): 67–78. doi :10.1111/cgf.13672. ISSN 0167-7055. S2CID 189858337.
- ^ Li, Ziqiang; Tao, Rentuo; Wang, Jie; Li, Fu; Niu, Hongjing; Yue, Mingdao; Li, Bin (febrero de 2021). "Interpretación del espacio latente de GAN mediante la medición del desacoplamiento". Transacciones IEEE sobre Inteligencia Artificial . 2 (1): 58–70. doi :10.1109/TAI.2021.3071642. ISSN 2691-4581. S2CID 234847784.
- ^ Arvanitidis, Georgios; Hansen, Lars Kai; Hauberg, Søren (13 de diciembre de 2021). "Rareza del espacio latente: sobre la curvatura de modelos generativos profundos". arXiv : 1710.11379 [estad.ML].
- ^ Mikolov, Tomás; Sutskever, Ilya; Chen, Kai; Corrado, Greg S; Decano, Jeff (2013). "Representaciones distribuidas de palabras y frases y su composicionalidad". Avances en los sistemas de procesamiento de información neuronal . 26 . Curran Associates, Inc. arXiv : 1310.4546 .
- ^ Pennington, Jeffrey; Socher, Richard; Manning, Christopher (octubre de 2014). "Guante: vectores globales para la representación de palabras". Actas de la Conferencia de 2014 sobre métodos empíricos en el procesamiento del lenguaje natural (EMNLP) . Doha, Qatar: Asociación de Lingüística Computacional. págs. 1532-1543. doi : 10.3115/v1/D14-1162 .
- ^ Chicco, Davide (2021), Cartwright, Hugh (ed.), "Redes neuronales siamesas: una descripción general", Redes neuronales artificiales , Métodos en biología molecular, vol. 2190, Nueva York, NY: Springer US, págs. 73–94, doi :10.1007/978-1-0716-0826-5_3, ISBN 978-1-0716-0826-5, PMID 32804361, S2CID 221144012 , consultado el 26 de junio de 2023
- ^ Kingma, Diederik P.; Welling, Max (27 de noviembre de 2019). "Introducción a los codificadores automáticos variacionales". Fundamentos y tendencias en aprendizaje automático . 12 (4): 307–392. arXiv : 1906.02691 . doi :10.1561/2200000056. ISSN 1935-8237. S2CID 174802445.
- ^ Gürsoy, Furkan; Badur, Bertán (6 de octubre de 2022). "Investigar la migración interna con análisis de redes y representaciones espaciales latentes: una aplicación a Turquía". Análisis y Minería de Redes Sociales . 12 (1): 150. doi :10.1007/s13278-022-00974-w. ISSN 1869-5469. PMC 9540093 . PMID 36246429.
- ^ Asatani, Kimitaka; Mori, Junichiro; Ochi, Masanao; Sakata, Ichiro (21 de mayo de 2018). "Detección de tendencias en la investigación académica a partir de una red de citas utilizando el aprendizaje de representación de red". MÁS UNO . 13 (5): e0197260. doi : 10.1371/journal.pone.0197260 . ISSN 1932-6203. PMC 5962067 . PMID 29782521.
- ^ García-Pérez, Guillermo; Boguñá, Marián; Allard, Antoine; Serrano, M. Ángeles (2016-09-16). "La geometría hiperbólica oculta del comercio internacional: Atlas del comercio mundial 1870-2013". Informes científicos . 6 (1): 33441. doi : 10.1038/srep33441. ISSN 2045-2322. PMC 5025783 . PMID 27633649.