stringtranslate.com

Tocón de decisión

Un ejemplo de un tocón de decisión que discrimina entre dos de las tres clases del conjunto de datos de flores de iris : iris versicolor e iris virginica . El ancho del pétalo está en centímetros. Este tocón en particular logra una precisión del 94 % en el conjunto de datos de iris para estas dos clases.

Un tocón de decisión es un modelo de aprendizaje automático que consiste en un árbol de decisión de un nivel . [1] Es decir, es un árbol de decisión con un nodo interno (la raíz) que está conectado inmediatamente a los nodos terminales (sus hojas). Un tocón de decisión hace una predicción basada en el valor de una sola característica de entrada. A veces también se les llama 1-reglas . [2]

Dependiendo del tipo de característica de entrada , son posibles varias variaciones. Para las características nominales, se puede construir un tocón que contenga una hoja para cada valor de característica posible [3] [4] o un tocón con las dos hojas, una de las cuales corresponde a alguna categoría elegida y la otra hoja a todas las demás categorías. [5] Para las características binarias, estos dos esquemas son idénticos. Un valor faltante puede ser tratado como una categoría más. [5]

En el caso de las características continuas , normalmente se selecciona un valor de característica umbral y el tocón contiene dos hojas, para los valores por debajo y por encima del umbral. Sin embargo, en raras ocasiones se pueden elegir varios umbrales y, por lo tanto, el tocón contiene tres o más hojas.

Los tocones de decisión se utilizan a menudo [6] como componentes (llamados "aprendices débiles" o "aprendices de base") en técnicas de aprendizaje automático de conjuntos como bagging y boosting . Por ejemplo, un algoritmo de detección de rostros de Viola-Jones emplea AdaBoost con tocones de decisión como aprendices débiles. [7]

El término "decisión stump" fue acuñado en un documento de ICML de 1992 por Wayne Iba y Pat Langley. [1] [8]

Véase también

Referencias

  1. ^ ab Iba, Wayne; Langley, Pat (1992). "Inducción de árboles de decisión de un nivel" (PDF) . ML92: Actas de la Novena Conferencia Internacional sobre Aprendizaje Automático, Aberdeen, Escocia, 1-3 de julio de 1992. Morgan Kaufmann. págs. 233-240. doi :10.1016/B978-1-55860-247-2.50035-8. ISBN . 978-1-55860-247-2.
  2. ^ Holte, Robert C. (1993). "Las reglas de clasificación muy simples funcionan bien en los conjuntos de datos más utilizados" (PDF) . Aprendizaje automático . 11 (1): 63–90. doi :10.1023/A:1022631118932. S2CID  6596.
  3. ^ Loper, Edward L.; Bird, Steven; Klein, Ewan (2009). Procesamiento de lenguaje natural con Python. Sebastopol, CA: O'Reilly . ISBN 978-0-596-51649-9Archivado desde el original el 18 de junio de 2010. Consultado el 10 de junio de 2010 .
  4. ^ Este clasificador se implementa en Weka con el nombre OneR(para "1-regla").
  5. ^ ab Esto es lo que se ha implementado en el clasificador de WekaDecisionStump .
  6. ^ Reyzin, Lev; Schapire, Robert E. (2006). "Cómo aumentar el margen también puede aumentar la complejidad del clasificador" (PDF) . ICML′06: Actas de la 23.ª conferencia internacional sobre aprendizaje automático . págs. 753–760. doi :10.1145/1143844.1143939. ISBN . 978-1-59593-383-6. Número de identificación del sujeto  2483269.
  7. ^ Viola, Paul; Jones, Michael J. (2004). "Detección robusta de rostros en tiempo real" (PDF) . Revista internacional de visión artificial . 57 (2): 137–154. doi :10.1023/B:VISI.0000013087.49260.fb. S2CID  2796017.
  8. ^ Oliver, Jonathan J.; Hand, David (1994). "Promedio sobre los tocones de decisión". Aprendizaje automático: ECML-94, Conferencia europea sobre aprendizaje automático, Catania, Italia, 6-8 de abril de 1994, Actas . Notas de clase en informática. Vol. 784. Springer. págs. 231-241. doi :10.1007/3-540-57868-4_61. ISBN . 3-540-57868-4Estas reglas simples son, en efecto, árboles de decisión severamente podados y se los ha denominado "tocones de decisión" ( Iba & Langley 1992) .