stringtranslate.com

tocón de decisión

Un ejemplo de un muñón de decisión que discrimina entre dos de tres clases de conjunto de datos de flores de Iris : Iris versicolor e Iris virginica . El ancho de los pétalos está en centímetros. Este muñón en particular logra una precisión del 94 % en el conjunto de datos de Iris para estas dos clases.

Un fragmento de decisión es un modelo de aprendizaje automático que consta de un árbol de decisión de un nivel . [1] Es decir, es un árbol de decisión con un nodo interno (la raíz) que se conecta inmediatamente a los nodos terminales (sus hojas). Un tocón de decisión hace una predicción basada en el valor de una sola característica de entrada. A veces también se les llama 1-reglas . [2]

Dependiendo del tipo de característica de entrada , son posibles varias variaciones. Para las características nominales, se puede construir un muñón que contenga una hoja para cada valor de característica posible [3] [4] o un muñón con dos hojas, una de las cuales corresponde a alguna categoría elegida y la otra hoja a todas las demás categorías. . [5] Para características binarias, estos dos esquemas son idénticos. Un valor faltante puede tratarse como una categoría más. [5]

Para características continuas , generalmente, se selecciona algún valor de característica umbral y el muñón contiene dos hojas, para valores por debajo y por encima del umbral. Sin embargo, en raras ocasiones, se pueden elegir múltiples umbrales y, por lo tanto, el tocón contiene tres o más hojas.

Los fragmentos de decisión se utilizan a menudo [6] como componentes (llamados "aprendices débiles" o "aprendices básicos") en técnicas de conjunto de aprendizaje automático , como embolsado y refuerzo . Por ejemplo, un algoritmo de detección de rostros de Viola-Jones emplea AdaBoost con puntos de decisión como estudiantes débiles. [7]

El término "punto de decisión" fue acuñado en un artículo del ICML de 1992 por Wayne Iba y Pat Langley. [1] [8]

Ver también

Referencias

  1. ^ ab Iba, Wayne; Langley, Pat (1992). "Inducción de árboles de decisión de un nivel" (PDF) . ML92: Actas de la Novena Conferencia Internacional sobre Aprendizaje Automático, Aberdeen, Escocia, 1 a 3 de julio de 1992 . Morgan Kaufman. págs. 233-240. doi :10.1016/B978-1-55860-247-2.50035-8. ISBN 978-1-55860-247-2.
  2. ^ Holte, Robert C. (1993). "Las reglas de clasificación muy simples funcionan bien en los conjuntos de datos más utilizados" (PDF) . Aprendizaje automático . 11 (1): 63–90. doi :10.1023/A:1022631118932. S2CID  6596.
  3. ^ Loper, Edward L.; Pájaro, Steven; Klein, Ewan (2009). Procesamiento de lenguaje natural con Python. Sebastopol, CA: O'Reilly . ISBN 978-0-596-51649-9. Archivado desde el original el 18 de junio de 2010 . Consultado el 10 de junio de 2010 .
  4. ^ Este clasificador se implementa en Weka con el nombre OneR(para "1 regla").
  5. ^ ab Esto es lo que se ha implementado en el clasificador de WekaDecisionStump .
  6. ^ Reyzin, Lev; Schapire, Robert E. (2006). "Cómo aumentar el margen también puede aumentar la complejidad del clasificador" (PDF) . ICML′06: Actas de la 23ª conferencia internacional sobre aprendizaje automático . págs. 753–760. doi :10.1145/1143844.1143939. ISBN 978-1-59593-383-6. S2CID  2483269.
  7. ^ Viola, Pablo; Jones, Michael J. (2004). "Sólida detección de rostros en tiempo real" (PDF) . Revista Internacional de Visión por Computadora . 57 (2): 137-154. doi :10.1023/B:VISI.0000013087.49260.fb. S2CID  2796017.
  8. ^ Oliver, Jonathan J.; Mano, David (1994). "Promedio de tocones de decisión". Aprendizaje automático: ECML-94, Conferencia europea sobre aprendizaje automático, Catania, Italia, 6 al 8 de abril de 1994, Actas . Apuntes de conferencias sobre informática. vol. 784. Saltador. págs. 231–241. doi :10.1007/3-540-57868-4_61. ISBN 3-540-57868-4. Estas reglas simples son, de hecho, árboles de decisión severamente podados y han sido denominados tocones de decisión Iba y Langley 1992.