La pérdida de tripletes es una función de pérdida para algoritmos de aprendizaje automático en la que se compara una entrada de referencia (denominada ancla) con una entrada coincidente (denominada positiva) y una entrada no coincidente (denominada negativa). La distancia desde el ancla hasta la entrada positiva se minimiza y la distancia desde el ancla hasta la entrada negativa se maximiza. [1] [2] M. Schultze y T. Joachims introdujeron una formulación temprana equivalente a la pérdida de tripletes (sin la idea de usar anclas) para el aprendizaje métrico a partir de comparaciones relativas en 2003. [3]
Al imponer el orden de las distancias, los modelos de pérdida de tripletes se incrustan de manera que un par de muestras con las mismas etiquetas son más pequeñas en distancia que aquellas con etiquetas diferentes. A diferencia de t-SNE , que preserva los órdenes de incrustación [ se necesita más explicación ] a través de distribuciones de probabilidad, la pérdida de tripletes funciona directamente sobre las distancias incrustadas. Por lo tanto, en su implementación común, necesita un tratamiento de margen suave con una variable de holgura en su formulación de estilo de pérdida de bisagra . A menudo se utiliza para aprender similitud con el propósito de aprender incrustaciones, como aprender a clasificar , incrustaciones de palabras , vectores de pensamiento y aprendizaje métrico . [4]
Consideremos la tarea de entrenar una red neuronal para reconocer rostros (por ejemplo, para ingresar a una zona de alta seguridad). Un clasificador entrenado para clasificar una instancia tendría que volver a entrenarse cada vez que se agrega una nueva persona a la base de datos de rostros. Esto se puede evitar planteando el problema como un problema de aprendizaje de similitud en lugar de un problema de clasificación. Aquí la red se entrena (usando una pérdida contrastiva) para generar una distancia que es pequeña si la imagen pertenece a una persona conocida y grande si la imagen pertenece a una persona desconocida. Sin embargo, si queremos generar las imágenes más cercanas a una imagen dada, queremos aprender una clasificación y no solo una similitud. En este caso, se utiliza una pérdida de triplete.
La función de pérdida se puede describir mediante la función de distancia euclidiana
Esto puede luego usarse en una función de costo, es decir la suma de todas las pérdidas, que luego puede usarse para minimizar el problema de optimización planteado.
Los índices corresponden a vectores de entrada individuales dados como un triplete. El triplete se forma dibujando una entrada de anclaje, una entrada positiva que describe la misma entidad que la entidad de anclaje y una entrada negativa que no describe la misma entidad que la entidad de anclaje. Estas entradas se pasan luego a través de la red y las salidas se utilizan en la función de pérdida.
En las tareas de visión artificial , como la reidentificación, la creencia predominante ha sido que la pérdida de tripletes es inferior al uso de pérdidas sustitutas (es decir, pérdidas de clasificación típicas) seguidas de pasos de aprendizaje métrico independientes. Un trabajo reciente demostró que, para los modelos entrenados desde cero, así como para los modelos entrenados previamente, una versión especial de la pérdida de tripletes que realiza un aprendizaje métrico profundo de extremo a extremo supera a la mayoría de los demás métodos publicados a partir de 2017. [5]
Además, la pérdida de tripletes se ha ampliado para mantener simultáneamente una serie de órdenes de distancia mediante la optimización de un grado de relevancia continuo con una cadena (es decir, una escalera ) de desigualdades de distancia. Esto conduce a la pérdida de escalera , que se ha demostrado que ofrece mejoras en el rendimiento de la integración visual-semántica en el aprendizaje de tareas de clasificación . [6]
En el procesamiento del lenguaje natural, la pérdida de tripletes es una de las funciones de pérdida consideradas para el ajuste fino de BERT en la arquitectura SBERT. [7]
Otras extensiones implican la especificación de múltiples negativos (pérdida de clasificación por múltiples negativos).
{{cite journal}}
: Requiere citar revista |journal=
( ayuda )