stringtranslate.com

Límite de decisión

En un problema de clasificación estadística con dos clases, un límite de decisión o superficie de decisión es una hipersuperficie que divide el espacio vectorial subyacente en dos conjuntos, uno para cada clase. El clasificador clasificará todos los puntos de un lado del límite de decisión como pertenecientes a una clase y todos los del otro lado como pertenecientes a la otra clase.

Un límite de decisión es la región de un espacio de problemas en la que la etiqueta de salida de un clasificador es ambigua. [1]

Si la superficie de decisión es un hiperplano , entonces el problema de clasificación es lineal y las clases son linealmente separables .

Los límites de las decisiones no siempre son claros. Es decir, la transición de una clase en el espacio de características a otra no es discontinua, sino gradual. Este efecto es común en algoritmos de clasificación basados ​​en lógica difusa , donde la pertenencia a una clase u otra es ambigua.

Los límites de decisión pueden ser aproximaciones a los límites de parada óptimos. [2] La frontera de decisión es el conjunto de puntos de ese hiperplano que pasan por cero. [3] Por ejemplo, el ángulo entre un vector y los puntos de un conjunto debe ser cero para los puntos que están en el límite de decisión o cerca de él. [4]

La inestabilidad de los límites de decisión se puede incorporar con el error de generalización como estándar para seleccionar el clasificador más preciso y estable. [5]

En redes neuronales y modelos de vectores de soporte.

En el caso de perceptrones o redes neuronales artificiales basadas en retropropagación , el tipo de límite de decisión que la red puede aprender está determinado por la cantidad de capas ocultas que tiene la red. Si no tiene capas ocultas, sólo puede aprender problemas lineales. Si tiene una capa oculta, entonces puede aprender cualquier función continua en subconjuntos compactos de R n como lo muestra el teorema de aproximación universal , por lo que puede tener un límite de decisión arbitrario.

En particular, las máquinas de vectores de soporte encuentran un hiperplano que separa el espacio de características en dos clases con el margen máximo . Si el problema no es originalmente separable linealmente, se puede utilizar el truco del kernel para convertirlo en uno linealmente separable, aumentando el número de dimensiones. Así, una hipersuperficie general en un espacio de pequeñas dimensiones se convierte en un hiperplano en un espacio con dimensiones mucho mayores.

Las redes neuronales intentan aprender el límite de decisión que minimiza el error empírico, mientras que las máquinas de vectores de soporte intentan aprender el límite de decisión que maximiza el margen empírico entre el límite de decisión y los puntos de datos.

Ver también

Referencias

  1. ^ Corso, Jason J. (primavera de 2013). "Prueba 1 de 14 - Soluciones" (PDF) . Departamento de Ingeniería y Ciencias de la Computación - Facultad de Ingeniería y Ciencias Aplicadas de la Universidad de Buffalo . Johnson, David.
  2. ^ Whittle, P. (1973). "Una caracterización aproximada de los límites de parada óptimos". Revista de probabilidad aplicada . 10 (1): 158–165. doi :10.2307/3212503. ISSN  0021-9002. JSTOR  3212503 . Consultado el 28 de noviembre de 2022 .
  3. ^ https://cmci.colorado.edu/classes/INFO-4604/files/notes_svm.pdf
  4. ^ Laber, Eric B.; Murphy, Susan A. (2011). "Réplica". Revista de la Asociación Estadounidense de Estadística . 106 (495): 940–945. ISSN  0162-1459. JSTOR  23427564 . Consultado el 28 de noviembre de 2022 .
  5. ^ Sol, Will Wei; Cheng, Guang; Liu, Yufeng (2018). "Selección de clasificador de margen grande con estabilidad mejorada". Estadística Sínica . arXiv : 1701.05672 . doi :10.5705/ss.202016.0260. ISSN  1017-0405 . Consultado el 28 de noviembre de 2022 .

Otras lecturas