En un problema de clasificación estadística con dos clases, un límite de decisión o superficie de decisión es una hipersuperficie que divide el espacio vectorial subyacente en dos conjuntos, uno para cada clase. El clasificador clasificará todos los puntos de un lado del límite de decisión como pertenecientes a una clase y todos los del otro lado como pertenecientes a la otra clase.
Un límite de decisión es la región de un espacio de problemas en la que la etiqueta de salida de un clasificador es ambigua. [1]
Si la superficie de decisión es un hiperplano , entonces el problema de clasificación es lineal y las clases son linealmente separables .
Los límites de decisión no siempre son claros, es decir, la transición de una clase a otra en el espacio de características no es discontinua, sino gradual. Este efecto es común en algoritmos de clasificación basados en lógica difusa , donde la pertenencia a una u otra clase es ambigua.
Los límites de decisión pueden ser aproximaciones de los límites de parada óptimos. [2] El límite de decisión es el conjunto de puntos de ese hiperplano que pasan por cero. [3] Por ejemplo, el ángulo entre un vector y los puntos de un conjunto debe ser cero para los puntos que están en el límite de decisión o cerca de él. [4]
La inestabilidad del límite de decisión se puede incorporar con el error de generalización como un estándar para seleccionar el clasificador más preciso y estable. [5]
En el caso de las redes neuronales artificiales basadas en retropropagación o perceptrones , el tipo de límite de decisión que la red puede aprender está determinado por la cantidad de capas ocultas que tiene la red. Si no tiene capas ocultas, entonces solo puede aprender problemas lineales. Si tiene una capa oculta, entonces puede aprender cualquier función continua en subconjuntos compactos de R n como lo muestra el teorema de aproximación universal , por lo tanto, puede tener un límite de decisión arbitrario.
En particular, las máquinas de vectores de soporte encuentran un hiperplano que separa el espacio de características en dos clases con el margen máximo . Si el problema no es linealmente separable originalmente, se puede usar el truco del núcleo para convertirlo en uno linealmente separable, aumentando el número de dimensiones. De este modo, una hipersuperficie general en un espacio de dimensión pequeña se convierte en un hiperplano en un espacio con dimensiones mucho mayores.
Las redes neuronales intentan aprender el límite de decisión que minimiza el error empírico, mientras que las máquinas de vectores de soporte intentan aprender el límite de decisión que maximiza el margen empírico entre el límite de decisión y los puntos de datos.