stringtranslate.com

Máquina de vectores de relevancia

En matemáticas , una máquina de vectores de relevancia (RVM) es una técnica de aprendizaje automático que utiliza la inferencia bayesiana para obtener soluciones parsimoniosas para regresión y clasificación probabilística . [1] La RVM tiene una forma funcional idéntica a la máquina de vectores de soporte , pero proporciona una clasificación probabilística.

En realidad, es equivalente a un modelo de proceso gaussiano con función de covarianza :

donde está la función central (generalmente gaussiana), son las varianzas del anterior en el vector de peso y son los vectores de entrada del conjunto de entrenamiento . [2]

En comparación con la de las máquinas de vectores de soporte (SVM), la formulación bayesiana de la RVM evita el conjunto de parámetros libres de la SVM (que normalmente requieren postoptimizaciones basadas en validación cruzada). Sin embargo, los RVM utilizan un método de aprendizaje similar a la maximización de expectativas (EM) y, por lo tanto, corren el riesgo de sufrir mínimos locales. Esto es diferente a los algoritmos estándar basados ​​en optimización secuencial mínima (SMO) empleados por SVM , que garantizan encontrar un óptimo global (del problema convexo).

La máquina de vectores de relevancia fue patentada en los Estados Unidos por Microsoft (la patente expiró el 4 de septiembre de 2019). [3]

Ver también

Referencias

  1. ^ Propinas, Michael E. (2001). "Aprendizaje bayesiano disperso y la máquina de vectores de relevancia". Revista de investigación sobre aprendizaje automático . 1 : 211–244.
  2. ^ Candela, Joaquín Quiñonero (2004). "Modelos lineales probabilísticos dispersos y RVM". Aprendizaje con incertidumbre: procesos gaussianos y máquinas de vectores de relevancia (PDF) (Ph.D.). Universidad Técnica de Dinamarca . Consultado el 22 de abril de 2016 .
  3. ^ US 6633857, Michael E. Tipping, "Máquina de vectores de relevancia" 

Software

enlaces externos