stringtranslate.com

Incrustación semidefinida

El despliegue de varianza máxima (MVU) , también conocido como incrustación semidefinida (SDE), es un algoritmo en informática que utiliza programación semidefinida para realizar una reducción de dimensionalidad no lineal de datos de entrada vectoriales de alta dimensión . [1] [2] [3]

Está motivado por la observación de que el Análisis de Componentes Principales del kernel (kPCA) no reduce la dimensionalidad de los datos, [4] ya que aprovecha el truco del Kernel para mapear de forma no lineal los datos originales en un espacio de producto interno .

Algoritmo

MVU crea un mapeo de los vectores de entrada de alta dimensión a algún espacio vectorial euclidiano de baja dimensión en los siguientes pasos: [5]

  1. Se crea un gráfico de vecindad . Cada entrada está conectada con sus k vectores de entrada más cercanos (según la métrica de distancia euclidiana) y todos los k vecinos más cercanos están conectados entre sí. Si los datos se muestrean lo suficientemente bien, el gráfico resultante es una aproximación discreta de la variedad subyacente.
  2. El gráfico de vecindad se "despliega" con la ayuda de programación semidefinida. En lugar de aprender los vectores de salida directamente, la programación semidefinida tiene como objetivo encontrar una matriz de producto interna que maximice las distancias por pares entre dos entradas cualesquiera que no estén conectadas en el gráfico de vecindad y al mismo tiempo preserve las distancias de los vecinos más cercanos.
  3. La incrustación de baja dimensión se obtiene finalmente mediante la aplicación de un escalado multidimensional en la matriz del producto interno aprendido.

Los pasos de aplicar programación semidefinida seguidos de un paso de reducción de dimensionalidad lineal para recuperar una incrustación de baja dimensión en un espacio euclidiano fueron propuestos por primera vez por Linial , London y Rabinovich. [6]

Formulación de optimización

Sea la entrada original y la incrustación. Si son dos vecinos, entonces la restricción de isometría local que debe satisfacerse es: [7] [8] [9]

Sean las matrices de Gram de y (es decir: ). Podemos expresar la restricción anterior para cada punto vecino en términos de : [10] [11]

Además, también queremos restringir la incrustación para que se centre en el origen: [12] [13] [14]

Como se describió anteriormente, excepto que se conservan las distancias de los puntos vecinos, el algoritmo tiene como objetivo maximizar la distancia por pares de cada par de puntos. La función objetivo a maximizar es: [15] [16] [17]

Intuitivamente, maximizar la función anterior equivale a alejar los puntos lo más posible entre sí y, por lo tanto, "desplegar" la variedad. La restricción de isometría local [18]

deja donde

evita que la función objetivo diverja (llegue al infinito).

Dado que la gráfica tiene N puntos, la distancia entre dos puntos cualesquiera . Luego podemos limitar la función objetivo de la siguiente manera: [19] [20]

La función objetivo se puede reescribir puramente en la forma de matriz de Gram: [21] [22] [23]

Finalmente, la optimización se puede formular como: [24] [25] [26]

Una vez que se aprende la matriz de Gram mediante programación semidefinida, el resultado se puede obtener mediante descomposición de Cholesky .

En particular, la matriz de Gram se puede escribir como dónde está el i-ésimo elemento del vector propio del valor propio . [27] [28]

De ello se deduce que el -ésimo elemento de la salida es . [29] [30]

Ver también

Notas

  1. ^ Weinberger, Sha y Saul 2004a
  2. ^ Weinberger y Saúl 2004b
  3. ^ Weinberger y Saúl 2006
  4. ^ Lorenzo 2012, página 1612
  5. ^ Weinberger, Sha y Saul 2004a, página 7.
  6. ^ Linial, Londres y Rabinovich 1995
  7. ^ Weinberger, Sha y Saul 2004a, página 3, ecuación 8
  8. ^ Weinberger y Saul 2004b, página 3, ecuación 2
  9. ^ Weinberger y Saul 2006, página 4, ecuación 2
  10. ^ Weinberger, Sha y Saul 2004a, página 3, ecuación 9
  11. ^ Weinberger y Saul 2004b, página 3, ecuación 3
  12. ^ Weinberger, Sha y Saul 2004a, página 3, ecuación 6
  13. ^ Weinberger y Saul 2004b, página 3, ecuación 5
  14. ^ Weinberger y Saul 2006, página 5, ecuación 8
  15. ^ Weinberger, Sha y Saul 2004a, página 4, ecuación 10
  16. ^ Weinberger y Saul 2004b, página 4, ecuación 6
  17. ^ Weinberger y Saul 2006, página 5, ecuación 4
  18. ^ Weinberger y Saul 2004b, página 4, ecuación 7
  19. ^ Weinberger y Saul 2004b, página 4, ecuación 8
  20. ^ Weinberger y Saul 2006, página 5, ecuación 6
  21. ^ Weinberger, Sha y Saul 2004a, página 4, ecuación 11
  22. ^ Weinberger y Saul 2004b, página 4, ecuación 9
  23. ^ Weinberger y Saul 2006, página 6, ecuaciones 10 a 13
  24. ^ Weinberger, Sha y Saul 2004a, página 4, sección 3.3
  25. ^ Weinberger y Saul 2004b, página 4, ecuación 9
  26. ^ Weinberger y Saul 2006, página 6, ecuaciones 10 a 13
  27. ^ Weinberger y Saul 2004b, página 4, ecuación 10
  28. ^ Weinberger y Saul 2006, página 7, ecuaciones 14
  29. ^ Weinberger y Saul 2004b, página 4, ecuación 11
  30. ^ Weinberger y Saul 2006, página 7, ecuaciones 15

Referencias

Material adicional