stringtranslate.com

Incrustación semidefinida

El despliegue de máxima varianza (MVU) , también conocido como incrustación semidefinida (SDE), es un algoritmo en informática que utiliza programación semidefinida para realizar una reducción de dimensionalidad no lineal de datos de entrada vectoriales de alta dimensión . [1] [2] [3]

Está motivado por la observación de que el análisis de componentes principales del kernel (kPCA) no reduce la dimensionalidad de los datos, [4] ya que aprovecha el truco del kernel para mapear de manera no lineal los datos originales en un espacio de producto interno .

Algoritmo

MVU crea una asignación de los vectores de entrada de alta dimensión a un espacio vectorial euclidiano de baja dimensión en los siguientes pasos: [5]

  1. Se crea un gráfico de vecindad . Cada entrada está conectada con sus k vectores de entrada más cercanos (según la métrica de distancia euclidiana) y todos los k vecinos más cercanos están conectados entre sí. Si los datos se muestrean lo suficientemente bien, el gráfico resultante es una aproximación discreta de la variedad subyacente.
  2. El gráfico de vecindad se "despliega" con la ayuda de la programación semidefinida. En lugar de aprender los vectores de salida directamente, la programación semidefinida apunta a encontrar una matriz de producto interno que maximice las distancias por pares entre dos entradas cualesquiera que no estén conectadas en el gráfico de vecindad, mientras se preservan las distancias de los vecinos más cercanos.
  3. La incrustación de baja dimensión se obtiene finalmente mediante la aplicación de escalamiento multidimensional en la matriz de producto interno aprendida.

Los pasos para aplicar programación semidefinida seguidos de un paso de reducción de dimensionalidad lineal para recuperar una incrustación de baja dimensión en un espacio euclidiano fueron propuestos por primera vez por Linial , London y Rabinovich. [6]

Formulación de optimización

Sea la entrada original y la incrustación. Si son dos vecinos, entonces la restricción de isometría local que se debe satisfacer es: [7] [8] [9]

Sean las matrices de Gram de y (es decir: ). Podemos expresar la restricción anterior para cada punto vecino en términos de : [10] [11]

Además, también queremos restringir la incrustación al centro en el origen: [12] [13] [14]

Como se describió anteriormente, excepto que se conservan las distancias de los puntos vecinos, el algoritmo apunta a maximizar la distancia por pares de cada par de puntos. La función objetivo que se debe maximizar es: [15] [16] [17]

Intuitivamente, maximizar la función anterior equivale a alejar los puntos lo más posible entre sí y, por lo tanto, "desplegar" la variedad. La restricción de isometría local [18]

Deja donde

evita que la función objetivo diverja (vaya al infinito).

Como el gráfico tiene N puntos, la distancia entre dos puntos cualesquiera es . Podemos entonces acotar la función objetivo de la siguiente manera: [19] [20]

La función objetivo se puede reescribir puramente en la forma de la matriz de Gram: [21] [22] [23]

Finalmente, la optimización se puede formular como: [24] [25] [26]

Una vez que se aprende la matriz de Gram mediante programación semidefinida, la salida se puede obtener mediante la descomposición de Cholesky .

En particular, la matriz de Gram se puede escribir como donde es el i-ésimo elemento del vector propio del valor propio . [27] [28]

De ello se deduce que el elemento -ésimo de la salida es . [29] [30]

Véase también

Notas

  1. ^ Weinberger, Sha y Saul 2004a
  2. ^ Weinberger y Saul 2004b
  3. ^ Weinberger y Saul 2006
  4. ^ Lawrence 2012, página 1612
  5. ^ Weinberger, Sha y Saul 2004a, página 7.
  6. ^ Linial, Londres y Rabinovich 1995
  7. ^ Weinberger, Sha y Saul 2004a, página 3, ecuación 8
  8. ^ Weinberger y Saul 2004b, página 3, ecuación 2
  9. ^ Weinberger y Saul 2006, página 4, ecuación 2
  10. ^ Weinberger, Sha y Saul 2004a, página 3, ecuación 9
  11. ^ Weinberger y Saul 2004b, página 3, ecuación 3
  12. ^ Weinberger, Sha y Saul 2004a, página 3, ecuación 6
  13. ^ Weinberger y Saul 2004b, página 3, ecuación 5
  14. ^ Weinberger y Saul 2006, página 5, ecuación 8
  15. ^ Weinberger, Sha y Saul 2004a, página 4, ecuación 10
  16. ^ Weinberger y Saul 2004b, página 4, ecuación 6
  17. ^ Weinberger y Saul 2006, página 5, ecuación 4
  18. ^ Weinberger y Saul 2004b, página 4, ecuación 7
  19. ^ Weinberger y Saul 2004b, página 4, ecuación 8
  20. ^ Weinberger y Saul 2006, página 5, ecuación 6
  21. ^ Weinberger, Sha y Saul 2004a, página 4, ecuación 11
  22. ^ Weinberger y Saul 2004b, página 4, ecuación 9
  23. ^ Weinberger y Saul 2006, página 6, ecuaciones 10 a 13
  24. ^ Weinberger, Sha y Saul 2004a, página 4, sección 3.3
  25. ^ Weinberger y Saul 2004b, página 4, ecuación 9
  26. ^ Weinberger y Saul 2006, página 6, ecuaciones 10 a 13
  27. ^ Weinberger y Saul 2004b, página 4, ecuación 10
  28. ^ Weinberger y Saul 2006, página 7, ecuaciones 14
  29. ^ Weinberger y Saul 2004b, página 4, ecuación 11
  30. ^ Weinberger y Saul 2006, página 7, ecuaciones 15

Referencias

Material adicional