En matemáticas , una máquina de vectores de relevancia (RVM) es una técnica de aprendizaje automático que utiliza la inferencia bayesiana para obtener soluciones parsimoniosas para regresión y clasificación probabilística . [1] La RVM tiene una forma funcional idéntica a la máquina de vectores de soporte , pero proporciona una clasificación probabilística.
En realidad, es equivalente a un modelo de proceso gaussiano con función de covarianza :
donde está la función central (generalmente gaussiana), son las varianzas del anterior en el vector de peso y son los vectores de entrada del conjunto de entrenamiento . [2]
En comparación con la de las máquinas de vectores de soporte (SVM), la formulación bayesiana de la RVM evita el conjunto de parámetros libres de la SVM (que normalmente requieren postoptimizaciones basadas en validación cruzada). Sin embargo, los RVM utilizan un método de aprendizaje similar a la maximización de expectativas (EM) y, por lo tanto, corren el riesgo de sufrir mínimos locales. Esto es diferente a los algoritmos estándar basados en optimización secuencial mínima (SMO) empleados por SVM , que garantizan encontrar un óptimo global (del problema convexo).
La máquina de vectores de relevancia fue patentada en los Estados Unidos por Microsoft (la patente expiró el 4 de septiembre de 2019). [3]