El despliegue de máxima varianza (MVU) , también conocido como incrustación semidefinida (SDE), es un algoritmo en informática que utiliza programación semidefinida para realizar una reducción de dimensionalidad no lineal de datos de entrada vectoriales de alta dimensión . [1] [2] [3]
Está motivado por la observación de que el análisis de componentes principales del kernel (kPCA) no reduce la dimensionalidad de los datos, [4] ya que aprovecha el truco del kernel para mapear de manera no lineal los datos originales en un espacio de producto interno .
Algoritmo
MVU crea una asignación de los vectores de entrada de alta dimensión a un espacio vectorial euclidiano de baja dimensión en los siguientes pasos: [5]
- Se crea un gráfico de vecindad . Cada entrada está conectada con sus k vectores de entrada más cercanos (según la métrica de distancia euclidiana) y todos los k vecinos más cercanos están conectados entre sí. Si los datos se muestrean lo suficientemente bien, el gráfico resultante es una aproximación discreta de la variedad subyacente.
- El gráfico de vecindad se "despliega" con la ayuda de la programación semidefinida. En lugar de aprender los vectores de salida directamente, la programación semidefinida apunta a encontrar una matriz de producto interno que maximice las distancias por pares entre dos entradas cualesquiera que no estén conectadas en el gráfico de vecindad, mientras se preservan las distancias de los vecinos más cercanos.
- La incrustación de baja dimensión se obtiene finalmente mediante la aplicación de escalamiento multidimensional en la matriz de producto interno aprendida.
Los pasos para aplicar programación semidefinida seguidos de un paso de reducción de dimensionalidad lineal para recuperar una incrustación de baja dimensión en un espacio euclidiano fueron propuestos por primera vez por Linial , London y Rabinovich. [6]
Formulación de optimización
Sea la entrada original y la incrustación. Si son dos vecinos, entonces la restricción de isometría local que se debe satisfacer es: [7] [8] [9]
Sean las matrices de Gram de y (es decir: ). Podemos expresar la restricción anterior para cada punto vecino en términos de : [10] [11]
Además, también queremos restringir la incrustación al centro en el origen: [12] [13] [14]
Como se describió anteriormente, excepto que se conservan las distancias de los puntos vecinos, el algoritmo apunta a maximizar la distancia por pares de cada par de puntos. La función objetivo que se debe maximizar es: [15] [16] [17]
Intuitivamente, maximizar la función anterior equivale a alejar los puntos lo más posible entre sí y, por lo tanto, "desplegar" la variedad. La restricción de isometría local [18]
Deja donde
evita que la función objetivo diverja (vaya al infinito).
Como el gráfico tiene N puntos, la distancia entre dos puntos cualesquiera es . Podemos entonces acotar la función objetivo de la siguiente manera: [19] [20]
La función objetivo se puede reescribir puramente en la forma de la matriz de Gram: [21] [22] [23]
Finalmente, la optimización se puede formular como: [24] [25] [26]
Una vez que se aprende la matriz de Gram mediante programación semidefinida, la salida se puede obtener mediante la descomposición de Cholesky .
En particular, la matriz de Gram se puede escribir como donde es el i-ésimo elemento del vector propio del valor propio . [27] [28]
De ello se deduce que el elemento -ésimo de la salida es . [29] [30]
Véase también
Notas
- ^ Weinberger, Sha y Saul 2004a
- ^ Weinberger y Saul 2004b
- ^ Weinberger y Saul 2006
- ^ Lawrence 2012, página 1612
- ^ Weinberger, Sha y Saul 2004a, página 7.
- ^ Linial, Londres y Rabinovich 1995
- ^ Weinberger, Sha y Saul 2004a, página 3, ecuación 8
- ^ Weinberger y Saul 2004b, página 3, ecuación 2
- ^ Weinberger y Saul 2006, página 4, ecuación 2
- ^ Weinberger, Sha y Saul 2004a, página 3, ecuación 9
- ^ Weinberger y Saul 2004b, página 3, ecuación 3
- ^ Weinberger, Sha y Saul 2004a, página 3, ecuación 6
- ^ Weinberger y Saul 2004b, página 3, ecuación 5
- ^ Weinberger y Saul 2006, página 5, ecuación 8
- ^ Weinberger, Sha y Saul 2004a, página 4, ecuación 10
- ^ Weinberger y Saul 2004b, página 4, ecuación 6
- ^ Weinberger y Saul 2006, página 5, ecuación 4
- ^ Weinberger y Saul 2004b, página 4, ecuación 7
- ^ Weinberger y Saul 2004b, página 4, ecuación 8
- ^ Weinberger y Saul 2006, página 5, ecuación 6
- ^ Weinberger, Sha y Saul 2004a, página 4, ecuación 11
- ^ Weinberger y Saul 2004b, página 4, ecuación 9
- ^ Weinberger y Saul 2006, página 6, ecuaciones 10 a 13
- ^ Weinberger, Sha y Saul 2004a, página 4, sección 3.3
- ^ Weinberger y Saul 2004b, página 4, ecuación 9
- ^ Weinberger y Saul 2006, página 6, ecuaciones 10 a 13
- ^ Weinberger y Saul 2004b, página 4, ecuación 10
- ^ Weinberger y Saul 2006, página 7, ecuaciones 14
- ^ Weinberger y Saul 2004b, página 4, ecuación 11
- ^ Weinberger y Saul 2006, página 7, ecuaciones 15
Referencias
- Linial, London y Rabinovich, Nathan, Eran y Yuri (1995). "La geometría de grafos y algunas de sus aplicaciones algorítmicas". Combinatorica . 15 (2): 215–245. doi :10.1007/BF01200757. S2CID 5071936.
{{cite journal}}
: CS1 maint: multiple names: authors list (link) - Weinberger, Sha y Saul, Kilian Q., Fei y Lawrence K. (4 de julio de 2004a). Aprendizaje de una matriz de núcleo para reducción de dimensionalidad no lineal. Actas de la Vigésima Primera Conferencia Internacional sobre Aprendizaje Automático (ICML 2004). Banff, Alberta , Canadá.
{{cite conference}}
: CS1 maint: multiple names: authors list (link) - Weinberger y Saul, Kilian Q. y Lawrence K. (27 de junio de 2004b). Aprendizaje no supervisado de variedades de imágenes mediante programación semidefinida. Conferencia de la IEEE Computer Society de 2004 sobre visión artificial y reconocimiento de patrones. Vol. 2.
- Weinberger y Saul, Kilian Q. y Lawrence K. (1 de mayo de 2006). "Aprendizaje no supervisado de variedades de imágenes mediante programación semidefinida" (PDF) . Revista internacional de visión por computadora . 70 : 77–90. doi :10.1007/s11263-005-4939-z. S2CID 291166.
- Lawrence, Neil D (2012). "Una perspectiva probabilística unificadora para la reducción de la dimensionalidad espectral: perspectivas y nuevos modelos". Journal of Machine Learning Research . 13 (mayo): 1612. arXiv : 1010.4830 . Código Bibliográfico :2010arXiv1010.4830L.
Material adicional
- Código Matlab MVU de Kilian Q. Weinberger