En la clasificación estadística , el núcleo de Fisher , llamado así por Ronald Fisher , es una función que mide la similitud de dos objetos basándose en conjuntos de mediciones para cada objeto y un modelo estadístico. En un procedimiento de clasificación, la clase de un nuevo objeto (cuya clase real es desconocida) se puede estimar minimizando, entre clases, un promedio de la distancia del núcleo de Fisher desde el nuevo objeto hasta cada miembro conocido de la clase dada.
El núcleo Fisher se introdujo en 1998. [1] Combina las ventajas de los modelos estadísticos generativos (como el modelo oculto de Markov ) y las de los métodos discriminativos (como las máquinas de vectores de soporte ):
El núcleo de Fisher utiliza la puntuación de Fisher , definida como
donde θ es un conjunto (vector) de parámetros. La función que toma θ como log P( X | θ ) es la verosimilitud del modelo probabilístico.
El núcleo de Fisher se define como
siendo la matriz de información de Fisher .
El núcleo de Fisher es el núcleo de un modelo de probabilidad generativa. Como tal, constituye un puente entre los modelos generativos y probabilísticos de documentos. [2] Existen núcleos de Fisher para numerosos modelos, en particular tf–idf , [3] Naive Bayes y análisis semántico latente probabilístico .
El núcleo de Fisher también se puede aplicar a la representación de imágenes para problemas de clasificación o recuperación. Actualmente, la representación de bolsa de palabras visuales más popular adolece de escasez y alta dimensionalidad. El núcleo de Fisher puede dar como resultado una representación compacta y densa, que es más deseable para problemas de clasificación [4] y recuperación [5] [6] de imágenes .
El vector de Fisher (FV), un caso especial, aproximado y mejorado del núcleo general de Fisher, [7] es una representación de imagen obtenida mediante la agrupación de características de imagen locales . La codificación FV almacena los vectores de desviación de covarianza y media por componente k del modelo de mezcla gaussiana (GMM) y cada elemento de los descriptores de características locales juntos. En una comparación sistemática, FV superó a todos los métodos de codificación comparados ( Bolsa de palabras visuales (BoW) , codificación de libro de códigos de núcleo (KCB), codificación lineal restringida por localidad (LLC), vector de descriptores agregados localmente (VLAD)) mostrando que la codificación de información de segundo orden (también conocida como covarianzas de palabras de código) de hecho beneficia el rendimiento de la clasificación. [8]