stringtranslate.com

Aprendizaje profundo topológico

El aprendizaje automático topológico (TML) es un campo de investigación situado en la intersección de la topología computacional y el aprendizaje automático . A diferencia de muchas otras técnicas de aprendizaje automático , los métodos de TML ofrecen una perspectiva unificada que permite estudiar varios tipos de datos, incluidas nubes de puntos , mallas , series de tiempo , campos escalares (por ejemplo, imágenes ), gráficos o espacios topológicos generales como complejos simpliciales y Complejos CW . [1]

Una rama particularmente notable del aprendizaje automático topológico es el aprendizaje profundo topológico (TDL) . [2] [3] [4] [5] [6] [7] Al igual que los métodos de aprendizaje profundo obvian la necesidad de ingeniería de características explícitas , los métodos de TDL pueden aprender representaciones de tareas específicas a partir de datos de entrada. Además, los métodos TDL se pueden utilizar de forma modular, por ejemplo, como capas para una red neuronal profunda, lo que permite su perfecta integración en las arquitecturas de modelos de aprendizaje profundo existentes . [8] [9] [10] [11] TDL también abarca métodos de topología computacional y algebraica que permiten estudiar propiedades de redes neuronales y su proceso de entrenamiento, como su rendimiento predictivo o propiedades de generalización. [12] [13] [14] [15] [16] [17]

Historia y motivación

Las técnicas tradicionales de aprendizaje profundo a menudo operan bajo el supuesto de que un conjunto de datos reside en un espacio altamente estructurado (como imágenes , donde las redes neuronales convolucionales exhiben un rendimiento sobresaliente sobre métodos alternativos) o un espacio euclidiano . La prevalencia de nuevos tipos de datos, en particular gráficos , mallas y moléculas , dio lugar al desarrollo de nuevas técnicas, que culminaron en el campo del aprendizaje profundo geométrico , que originalmente propuso una perspectiva de procesamiento de señales para tratar dichos tipos de datos. [18] Aunque originalmente se limitaba a gráficos, donde la conectividad se define en función de nodos y bordes, el trabajo de seguimiento amplió los conceptos a una variedad más amplia de tipos de datos, incluidos complejos simpliciales [19] y complejos CW , [20] con trabajos recientes que proponen una perspectiva unificada de la transmisión de mensajes sobre complejos combinatorios generales. [2]

Una perspectiva independiente sobre diferentes tipos de datos se originó a partir del análisis de datos topológicos , que propuso un nuevo marco para describir la información estructural de los datos, es decir, su "forma", que es inherentemente consciente de múltiples escalas en los datos, que van desde información local hasta información global . . [21] Si bien al principio se limitó a conjuntos de datos más pequeños, el trabajo posterior desarrolló nuevos descriptores que resumían eficientemente la información topológica de los conjuntos de datos para que estuvieran disponibles para técnicas tradicionales de aprendizaje automático, como máquinas de vectores de soporte o bosques aleatorios . Dichos descriptores iban desde nuevas técnicas para la ingeniería de características hasta nuevas formas de proporcionar coordenadas adecuadas para descriptores topológicos, [22] [23] [24] o la creación de medidas de disimilitud más eficientes . [25] [26] [27] [28]

La investigación contemporánea en este campo se ocupa en gran medida de integrar información sobre la topología de datos subyacente en modelos de aprendizaje profundo existentes u obtener formas novedosas de entrenamiento en dominios topológicos. El término "aprendizaje profundo topológico" fue acuñado por primera vez por Gunnar Carlsson en una charla de 2021 con el mismo título. La charla describe la visión de Carlsson para un nuevo campo que emplea conceptos de topología para comprender el aprendizaje profundo y crear mejores modelos. Desde entonces, diferentes equipos de autores han aportado sus propias interpretaciones del campo, dando como resultado numerosas direcciones de investigación, que este artículo comentará posteriormente.

Aprendizaje sobre descriptores topológicos

Motivado por la naturaleza modular de las redes neuronales profundas , el trabajo inicial en TDL se inspiró en el análisis de datos topológicos y tenía como objetivo hacer que los descriptores resultantes fueran susceptibles de integración en modelos de aprendizaje profundo . Esto llevó a trabajar en la definición de nuevas capas para redes neuronales profundas. El trabajo pionero de Hofer et al. [8] , por ejemplo, introdujo una capa que permitía integrar descriptores topológicos como diagramas de persistencia o códigos de barras de persistencia en una red neuronal profunda. Esto se logró mediante funciones de proyección entrenables de un extremo a otro, lo que permitió utilizar características topológicas para resolver tareas de clasificación de formas, por ejemplo. El trabajo de seguimiento amplió más las propiedades teóricas de dichos descriptores y los integró en el campo del aprendizaje de representación . [29] Otras capas topológicas similares incluyen capas basadas en descriptores de homología persistentes extendidos, [9] paisajes de persistencia [10] o funciones de coordenadas. [11] Paralelamente, la homología persistente también encontró aplicaciones en tareas de aprendizaje de gráficos. Ejemplos dignos de mención incluyen nuevos algoritmos para aprender funciones de filtrado específicas de tareas para tareas de clasificación de gráficos o clasificación de nodos. [30] [31] [32]

Aprendizaje sobre espacios topológicos

Las tareas de aprendizaje en dominios topológicos se pueden clasificar en términos generales en tres categorías: clasificación de células, predicción de células y clasificación compleja [2] .

Centrándose ampliamente en la topología en el sentido de topología de conjuntos de puntos , una rama activa de TDL se ocupa del aprendizaje en espacios topológicos o, dicho de otra manera, en ciertos dominios topológicos.

Una introducción a los dominios topológicos.

Uno de los conceptos centrales del aprendizaje profundo topológico es el dominio en el que se definen y respaldan estos datos. En el caso de datos euclidianos, como imágenes, este dominio es una cuadrícula sobre la cual se sustenta el valor de píxeles de la imagen. En un entorno más general, este dominio podría ser un dominio topológico . A continuación, presentamos los dominios topológicos más comunes que se encuentran en un entorno de aprendizaje profundo. Estos dominios incluyen, entre otros, gráficos, complejos simpliciales, complejos celulares, complejos combinatorios e hipergráficos.

Dado un conjunto finito S de entidades abstractas, una función de vecindad en S es una asignación que adjunta a cada punto en S un subconjunto de S o una relación . Esta función puede inducirse equipando a S con una estructura auxiliar . Los bordes proporcionan una forma de definir las relaciones entre las entidades de S. Más específicamente, los bordes en un gráfico permiten definir la noción de vecindad usando, por ejemplo, la noción de vecindad de un salto. Sin embargo, los bordes tienen una capacidad de modelado limitada, ya que solo se pueden usar para modelar relaciones binarias entre entidades de S, ya que cada borde está conectado típicamente a dos entidades. En muchas aplicaciones, es deseable permitir relaciones que incorporen más de dos entidades. La idea de utilizar relaciones que involucren a más de dos entidades es fundamental para los dominios topológicos. Estas relaciones de orden superior permiten definir una gama más amplia de funciones de vecindad en S para capturar interacciones multidireccionales entre entidades de S.

A continuación, revisamos las principales propiedades, ventajas y desventajas de algunos dominios topológicos comúnmente estudiados en el contexto del aprendizaje profundo, incluidos los complejos simpliciales (abstractos), los complejos de células regulares, los hipergrafos y los complejos combinatorios.

(a): Un grupo S está formado por partes básicas (vértices) sin ninguna conexión. (b): Una gráfica representa conexiones simples entre sus partes (vértices) que son elementos de S. (c): Un complejo simplicial muestra una forma en que las partes (relaciones) se conectan entre sí, pero con reglas estrictas sobre cómo se conectan. (d): Al igual que los complejos simpliciales, un complejo de células muestra cómo se conectan las partes (relaciones), pero es más flexible en cómo se conectan. remodelados (como 'células'). (f): Un hipergráfico muestra cualquier tipo de conexiones entre partes de S, pero estas conexiones no están organizadas en ningún orden particular. (e): Un CC mezcla elementos de complejos celulares (conexiones con orden) e hipergrafías (conexiones variadas), cubriendo ambos tipos de configuraciones. [2]

Comparaciones entre dominios topológicos

Cada uno de los dominios topológicos enumerados tiene sus propias características, ventajas y limitaciones:

Estructura jerárquica y relaciones de tipo conjunto.

Las propiedades de los complejos simpliciales, los complejos celulares y los hipergráficos dan lugar a dos características principales de las relaciones en dominios de orden superior, a saber, jerarquías de relaciones y relaciones de tipo conjunto. [2]

Función de rango

Una función de rango en un dominio X de orden superior es una función que preserva el orden rk : XZ , donde rk ( x ) adjunta un valor entero no negativo a cada relación x en X , preservando la inclusión de conjuntos en X . Los complejos celulares y simpliciales son ejemplos comunes de dominios de orden superior equipados con funciones de rango y, por tanto, con jerarquías de relaciones. [2]

Relaciones de tipo conjunto

Las relaciones en un dominio de orden superior se denominan relaciones de tipo conjunto si la existencia de una relación no está implicada por otra relación en el dominio. Los hipergrafos constituyen ejemplos de dominios de orden superior equipados con relaciones de tipo conjunto. Dadas las limitaciones de modelado de los complejos simpliciales, los complejos celulares y los hipergráficos, desarrollamos el complejo combinatorio, un dominio de orden superior que presenta jerarquías de relaciones y relaciones de tipo conjunto. [2]

Las tareas de aprendizaje en TDL se pueden clasificar en términos generales en tres categorías: [2]

En la práctica, para realizar las tareas antes mencionadas, se deben construir e implementar modelos de aprendizaje profundo diseñados para espacios topológicos específicos. Estos modelos, conocidos como redes neuronales topológicas, están diseñados para operar eficazmente dentro de estos espacios.

Redes neuronales topológicas

Un elemento central de TDL son las redes neuronales topológicas (TNN) , arquitecturas especializadas diseñadas para operar con datos estructurados en dominios topológicos. [3] [2] A diferencia de las redes neuronales tradicionales diseñadas para estructuras tipo cuadrícula, las TNN son expertas en manejar representaciones de datos más complejas, como gráficos, complejos simpliciales y complejos celulares. Al aprovechar la topología inherente de los datos, las TNN pueden capturar relaciones tanto locales como globales, lo que permite un análisis e interpretación matizados.

Mensaje que pasa redes neuronales topológicas.

En un dominio topológico general, el paso de mensajes de orden superior implica el intercambio de mensajes entre entidades y celdas utilizando un conjunto de funciones de vecindad.

Definición: mensaje de orden superior que se transmite en un dominio topológico general

El paso de mensajes de orden superior es un modelo de aprendizaje profundo definido en un dominio topológico y se basa en el paso de información de mensajes entre entidades en el dominio subyacente para realizar una tarea de aprendizaje [2] .

Sea un dominio topológico. Definimos un conjunto de funciones de vecindad en . Considere una celda y déjela por algunos . Un mensaje entre celdas y es un cálculo que depende de estas dos celdas o de los datos admitidos en ellas. Denote como conjunto múltiple y represente algunos datos admitidos en la celda en la capa . La transmisión de mensajes de orden superior , [2] [33] inducida por , se define mediante las siguientes cuatro reglas de actualización:

  1. , donde está la función de agregación intrabarrio.
  2. , donde está la función de agregación entre barrios.
  3. , donde son funciones diferenciables.

Algunas observaciones sobre la definición anterior son las siguientes.

Primero, la Ecuación 1 describe cómo se calculan los mensajes entre celdas y . El mensaje está influenciado tanto por los datos como por los asociados a las celdas y , respectivamente. Además, incorpora características propias de las propias células, como la orientación en el caso de complejos celulares. Esto permite una representación más rica de las relaciones espaciales en comparación con los marcos tradicionales de transmisión de mensajes basados ​​en gráficos.

En segundo lugar, la Ecuación 2 define cómo se agregan los mensajes de las celdas vecinas dentro de cada vecindario. La función agrega estos mensajes, permitiendo que la información se intercambie de manera efectiva entre celdas adyacentes dentro del mismo vecindario.

En tercer lugar, la Ecuación 3 describe el proceso de combinar mensajes de diferentes barrios. La función agrega mensajes a través de varios vecindarios, facilitando la comunicación entre células que pueden no estar conectadas directamente pero que comparten relaciones de vecindario comunes.

En cuarto lugar, la ecuación 4 especifica cómo los mensajes agregados influyen en el estado de una celda en la siguiente capa. Aquí, la función actualiza el estado de la celda en función de su estado actual y del mensaje agregado obtenido de las celdas vecinas.

Redes neuronales topológicas que no pasan mensajes

Si bien la mayoría de las TNN siguen el paradigma de transmisión de mensajes del aprendizaje de gráficos , se han sugerido varios modelos que no siguen este enfoque. Por ejemplo, Maggs et al. [34] aprovechan la información geométrica de complejos simpliciales integrados, es decir, complejos simpliciales con características de alta dimensión adjuntas a sus vértices. Esto ofrece interpretabilidad y consistencia geométrica sin depender del paso de mensajes. Además, en [35] se sugirió un método contrastivo basado en pérdidas para aprender la representación simplicial.

Aplicaciones

TDL está encontrando rápidamente nuevas aplicaciones en diferentes dominios, incluida la compresión de datos, [36] mejorando la expresividad y el rendimiento predictivo de las redes neuronales gráficas , [19] [20] [30] el reconocimiento de acciones, [37] y la predicción de trayectorias. [38]

Referencias

  1. ^ Uray, Martín; Giunti, Bárbara; Kerber, Michael; Huber, Stefan (1 de octubre de 2024). "Análisis de datos topológicos en la fabricación inteligente: estado del arte y direcciones futuras". Revista de sistemas de fabricación . 76 : 75–91. doi :10.1016/j.jmsy.2024.07.006. ISSN  0278-6125.
  2. ^ abcdefghijkl Hajij, M.; Zamzmi, G.; Papamarkou, T.; Miolane, N.; Guzmán-Sáenz, A.; Ramamurthy, KN; Schaub, MT (2022), Aprendizaje profundo topológico: ir más allá de los datos gráficos , arXiv : 2206.00606
  3. ^ ab Papillon, M.; Sanborn, S.; Hajij, M.; Miolane, N. (2023). "Arquitecturas de aprendizaje profundo topológico: un estudio sobre redes neuronales topológicas". arXiv : 2304.10031 [cs.LG].
  4. ^ Ebli, S.; Defferrard, M.; Spreemann, G. (2020), Redes neuronales simpliciales , arXiv : 2010.03633
  5. ^ Battiloro, C.; Testa, L.; Giusti, L.; Sardellitti, S.; DiLorenzo, P.; Barbarossa, S. (2023), Redes neuronales de atención simplicial generalizada , arXiv : 2309.02138
  6. ^ Yang, M.; Isufi, E. (2023), Aprendizaje convolucional en complejos simpliciales , arXiv : 2301.11163
  7. ^ Chen, Y.; Gel, año; Poor, HV (2022), "BScNets: Block simplicial complex neural network", Actas de la Conferencia AAAI sobre Inteligencia Artificial , 36 (6): 6333–6341, arXiv : 2112.06826 , doi :10.1609/aaai.v36i6.20583
  8. ^ ab Hofer, Christoph; Kwitt, Roland; Niethammer, Marc; Uhl, Andreas (2017). "Aprendizaje profundo con firmas topológicas". Avances en los sistemas de procesamiento de información neuronal . 30 . Curran asociados, Inc.
  9. ^ ab Carriere, Mathieu; Chazal, Federico; Ike, Yuichi; Lacombe, Theo; Royer, Martín; Umeda, Yuhei (3 de junio de 2020). "PersLay: una capa de red neuronal para diagramas de persistencia y nuevas firmas topológicas de gráficos". Actas de la Vigésima Tercera Conferencia Internacional sobre Inteligencia Artificial y Estadística . PMLR: 2786–2796.
  10. ^ ab Kim, Kwangho; Kim, Jisu; Zaheer, Manzil; Kim, Joon; Chazal, Federico; Wasserman, Larry (2020). "PLLay: Capa topológica eficiente basada en paisajes persistentes". Avances en los sistemas de procesamiento de información neuronal . 33 . Curran Associates, Inc.: 15965–15977.
  11. ^ ab Gabrielsson, Rickard Brüel; Nelson, Bradley J.; Dwaraknath, Anjan; Skraba, Primoz (3 de junio de 2020). "Una capa de topología para el aprendizaje automático". Actas de la Vigésima Tercera Conferencia Internacional sobre Inteligencia Artificial y Estadística . PMLR: 1553-1563.
  12. ^ Bianchini, Mónica; Scarselli, Franco (2014). "Sobre la complejidad de los clasificadores de redes neuronales: una comparación entre arquitecturas superficiales y profundas". Transacciones IEEE sobre redes neuronales y sistemas de aprendizaje . 25 (8): 1553-1565. doi :10.1109/TNNLS.2013.2293637. ISSN  2162-237X.
  13. ^ Naitzat, Gregorio; Zhitnikov, Andrey; Lim, Lek-Heng (2020). "Topología de redes neuronales profundas" (PDF) . Revista de investigación sobre aprendizaje automático . 21 (1): 184:7503–184:7542. ISSN  1532-4435.
  14. ^ Birdal, Tolga; Lou, Aarón; Guibas, Leónidas J; Simsekli, Umut (2021). "Dimensión intrínseca, homología persistente y generalización en redes neuronales". Avances en los sistemas de procesamiento de información neuronal . 34 . Curran Associates, Inc.: 6776–6789.
  15. ^ Ballester, Rubén; Clemente, Xavier Arnal; Casacuberta, Carles; Madadi, Meysam; Corneanu, Ciprián A.; Escalera, Sergio (2024). "Predecir la brecha de generalización en redes neuronales mediante análisis de datos topológicos". Neurocomputación . 596 : 127787. arXiv : 2203.12330 . doi : 10.1016/j.neucom.2024.127787.
  16. ^ Rieck, Bastián; Togninalli, Matteo; Bock, cristiano; Moro, Michael; Cuerno, Max; Gumbsch, Thomas; Borgwardt, Karsten (27 de septiembre de 2018). "Persistencia neuronal: una medida de complejidad para redes neuronales profundas utilizando topología algebraica". Conferencia Internacional sobre Representaciones del Aprendizaje .
  17. ^ Dupuis, Benjamín; Deligiannidis, George; Simsekli, Umut (3 de julio de 2023). "Límites de generalización utilizando dimensiones fractales dependientes de datos". Actas de la 40ª Conferencia Internacional sobre Aprendizaje Automático . PMLR: 8922–8968.
  18. ^ Bronstein, Michael M.; Bruna, Juana; LeCun, Yann; Szlam, Arturo; Vandergheynst, Pierre (2017). "Aprendizaje profundo geométrico: ir más allá de los datos euclidianos". Revista de procesamiento de señales IEEE . 34 (4): 18–42. doi :10.1109/MSP.2017.2693418. ISSN  1053-5888.
  19. ^ ab Bodnar, Cristian; Frasca, Fabricio; Wang, Yuguang; Nutria, Nina; Montúfar, Guido F.; Lió, Pietro; Bronstein, Michael (1 de julio de 2021). "Weisfeiler y Lehman se vuelven topológicos: mensajes que pasan por redes simples". Actas de la 38ª Conferencia Internacional sobre Aprendizaje Automático . PMLR: 1026-1037.
  20. ^ ab Bodnar, Cristian; Frasca, Fabricio; Nutria, Nina; Wang, Yuguang; Lió, Pietro; Montúfar, Guido F; Bronstein, Michael (2021). "Weisfeiler y Lehman se vuelven móviles: CW Networks". Avances en los sistemas de procesamiento de información neuronal . 34 . Curran Associates, Inc.: 2625–2640.
  21. ^ Carlsson, Gunnar (29 de enero de 2009). "Topología y datos". Boletín de la Sociedad Matemática Estadounidense . 46 (2): 255–308. doi :10.1090/S0273-0979-09-01249-X. ISSN  0273-0979.
  22. ^ Adcock, Aarón; Carlsson, Erik; Carlsson, Gunnar (2016). "El anillo de funciones algebraicas en códigos de barras de persistencia". Homología, Homotopía y Aplicaciones . 18 (1): 381–402. doi :10.4310/HHA.2016.v18.n1.a21.
  23. ^ Adams, Enrique; Emerson, Tegan; Kirby, Michael; Neville, Raquel; Peterson, Chris; Marinero, Patricio; Chepushtanova, Sofía; Hanson, Eric; Motta, Francisco; Ziegelmeier, Lori (2017). "Imágenes de persistencia: una representación vectorial estable de homología persistente". Revista de investigación sobre aprendizaje automático . 18 (8): 1–35. ISSN  1533-7928.
  24. ^ Bubenik, Peter (2015). "Análisis estadístico de datos topológicos utilizando paisajes de persistencia". Revista de investigación sobre aprendizaje automático . 16 (3): 77–102. ISSN  1533-7928.
  25. ^ Kwitt, Roland; Huber, Stefan; Niethammer, Marc; Lin, Weili; Bauer, Ulrich (2015). "Análisis estadístico de datos topológicos: una perspectiva del kernel". Avances en los sistemas de procesamiento de información neuronal . 28 . Curran asociados, Inc.
  26. ^ Carrière, Mathieu; Cuturi, Marco; Oudot, Steve (17 de julio de 2017). "Núcleo de Wasserstein en rodajas para diagramas de persistencia". Actas de la 34ª Conferencia Internacional sobre Aprendizaje Automático . PMLR: 664–673.
  27. ^ Kusano, Genki; Fukumizu, Kenji; Hiraoka, Yasuaki (2018). "Método del kernel para diagramas de persistencia mediante incrustación del kernel y factor de peso". Revista de investigación sobre aprendizaje automático . 18 (189): 1–41. ISSN  1533-7928.
  28. ^ Le, Tam; Yamada, Makoto (2018). "Persistence Fisher Kernel: un núcleo múltiple de Riemann para diagramas de persistencia". Avances en los sistemas de procesamiento de información neuronal . 31 . Curran asociados, Inc.
  29. ^ Hofer, Christoph D.; Kwitt, Roland; Niethammer, Marc (2019). "Aprendizaje de representaciones de códigos de barras de persistencia". Revista de investigación sobre aprendizaje automático . 20 (126): 1–45. ISSN  1533-7928.
  30. ^ ab Cuerno, Max; Brouwer, Edward De; Moro, Michael; Moreau, Yves; Rieck, Bastián; Borgwardt, Karsten (6 de octubre de 2021). "Redes neuronales de gráficos topológicos". Conferencia Internacional sobre Representaciones del Aprendizaje .
  31. ^ Hofer, Christoph; Graf, Florián; Rieck, Bastián; Niethammer, Marc; Kwitt, Roland (21 de noviembre de 2020). "Aprendizaje de filtración de gráficos". Actas de la 37ª Conferencia Internacional sobre Aprendizaje Automático . PMLR: 4314–4323.
  32. ^ Inmonen, Johanna; Souza, Amauri; Garg, Vikas (15 de diciembre de 2023). "Ir más allá de la homología persistente utilizando homología persistente". Avances en los sistemas de procesamiento de información neuronal . 36 : 63150–63173.
  33. ^ Hajij, M.; István, K.; Zamzmi, G. (2020), Redes neuronales complejas celulares , arXiv : 2010.00743
  34. ^ Maggs, Kelly; Hacker, Celia; Rieck, Bastián (13 de octubre de 2023). "Aprendizaje de representación simple con k-Forms neuronales". Conferencia Internacional sobre Representaciones del Aprendizaje .
  35. ^ Ramamurthy, KN; Guzmán-Sáenz, A.; Hajij, M. (2023), Topo-mlp: una red simple sin paso de mensajes , págs. 1–5
  36. ^ Battiloro, C.; DiLorenzo, P.; Ribeiro, A. (septiembre de 2023), Aprendizaje de diccionario paramétrico para la representación de señales topológicas , IEEE, págs. 1958-1962
  37. ^ Wang, C.; Hombre.; Wu, Z.; Zhang, J.; Yao, Y. (agosto de 2022), Estudio de redes neuronales Hypergraph y su aplicación al reconocimiento de acciones , Springer Nature Suiza, págs. 387–398
  38. ^ Roddenberry, TM; Glaseado, N.; Segarra, S. (julio de 2021), Redes neuronales simpliciales de principios para la predicción de trayectorias , PMLR, págs. 9020–9029, arXiv : 2102.10058