stringtranslate.com

Ingeniería de características

La ingeniería de características es un paso de preprocesamiento en el aprendizaje automático supervisado y el modelado estadístico [1] que transforma los datos sin procesar en un conjunto de entradas más eficaz. Cada entrada consta de varios atributos, conocidos como características. Al proporcionar a los modelos información relevante, la ingeniería de características mejora significativamente su precisión predictiva y su capacidad de toma de decisiones. [2] [3] [4]

Más allá del aprendizaje automático, los principios de la ingeniería de características se aplican en varios campos científicos, incluida la física. Por ejemplo, los físicos construyen números adimensionales como el número de Reynolds en dinámica de fluidos , el número de Nusselt en transferencia de calor y el número de Arquímedes en sedimentación . También desarrollan primeras aproximaciones de soluciones, como soluciones analíticas para la resistencia de los materiales en mecánica. [5]

Agrupamiento

Una de las aplicaciones de la ingeniería de características ha sido la agrupación de objetos de características o de objetos de muestra en un conjunto de datos. En particular, la ingeniería de características basada en la descomposición matricial se ha utilizado ampliamente para la agrupación de datos bajo restricciones de no negatividad en los coeficientes de las características. Estas incluyen la factorización matricial no negativa (NMF), [6] la factorización matricial tri no negativa (NMTF), [7] la descomposición/factorización tensorial no negativa (NTF/NTD), [8] etc. Las restricciones de no negatividad en los coeficientes de los vectores de características extraídos por los algoritmos indicados anteriormente producen una representación basada en partes, y diferentes matrices de factores exhiben propiedades de agrupamiento natural. Se han informado en la literatura varias extensiones de los métodos de ingeniería de características indicados anteriormente, incluida la factorización con restricciones de ortogonalidad para la agrupación rígida y el aprendizaje de variedades para superar los problemas inherentes a estos algoritmos.

Otras clases de algoritmos de ingeniería de características incluyen el aprovechamiento de una estructura oculta común en múltiples conjuntos de datos interrelacionados para obtener un esquema de agrupamiento de consenso (común). Un ejemplo es la clasificación de múltiples vistas basada en la descomposición de la matriz de consenso (MCMD), [2] que extrae un esquema de agrupamiento común en múltiples conjuntos de datos. MCMD está diseñado para generar dos tipos de etiquetas de clase (agrupamiento de escala variable y de escala invariante) y:

Las descomposiciones de matrices y tensores acoplados son populares en la ingeniería de características de múltiples vistas. [9]

Modelado predictivo

La ingeniería de características en el aprendizaje automático y el modelado estadístico implica seleccionar, crear, transformar y extraer características de datos. Los componentes clave incluyen la creación de características a partir de datos existentes, la transformación e imputación de características faltantes o no válidas, la reducción de la dimensionalidad de los datos mediante métodos como el análisis de componentes principales (PCA), el análisis de componentes independientes (ICA) y el análisis discriminante lineal (LDA), y la selección de las características más relevantes para el entrenamiento del modelo en función de puntuaciones de importancia y matrices de correlación . [10]

Las características varían en importancia. [11] Incluso características relativamente insignificantes pueden contribuir a un modelo. La selección de características puede reducir la cantidad de características para evitar que un modelo se vuelva demasiado específico para el conjunto de datos de entrenamiento (sobreajuste). [12]

La explosión de características ocurre cuando la cantidad de características identificadas es demasiado grande para una estimación o optimización eficaz del modelo. Las causas comunes incluyen:

La explosión de características se puede limitar mediante técnicas como: regularización , métodos kernel y selección de características . [13]

Automatización

La automatización de la ingeniería de características es un tema de investigación que se remonta a la década de 1990. [14] El software de aprendizaje automático que incorpora ingeniería de características automatizada está disponible comercialmente desde 2016. [15] La literatura académica relacionada se puede dividir aproximadamente en dos tipos:

Aprendizaje de árboles de decisión multirrelacionales (MRDTL)

El aprendizaje de árboles de decisión multirrelacionales (MRDTL) extiende los métodos tradicionales de árboles de decisión a las bases de datos relacionales , manejando relaciones de datos complejas entre tablas. Utiliza de manera innovadora gráficos de selección como nodos de decisión , refinados sistemáticamente hasta que se alcanza un criterio de terminación específico. [14]

La mayoría de los estudios de MRDTL basan sus implementaciones en bases de datos relacionales, lo que genera muchas operaciones redundantes. Estas redundancias se pueden reducir mediante el uso de técnicas como la propagación de identificadores de tuplas. [16] [17]

Implementaciones de código abierto

Hay una serie de bibliotecas y herramientas de código abierto que automatizan la ingeniería de características en datos relacionales y series de tiempo:

Síntesis de características profundas

El algoritmo de síntesis de características profundas (DFS) venció a 615 de 906 equipos humanos en una competencia. [32] [33]

Tiendas de características

El almacén de características es donde se almacenan y organizan las características con el propósito explícito de ser utilizadas para entrenar modelos (por científicos de datos) o hacer predicciones (por aplicaciones que tienen un modelo entrenado). Es una ubicación central donde se pueden crear o actualizar grupos de características creadas a partir de múltiples fuentes de datos diferentes, o crear y actualizar nuevos conjuntos de datos a partir de esos grupos de características para entrenar modelos o para usar en aplicaciones que no desean calcular las características sino simplemente recuperarlas cuando las necesitan para hacer predicciones. [34]

Un almacén de características incluye la capacidad de almacenar código utilizado para generar características, aplicar el código a datos sin procesar y proporcionar esas características a los modelos cuando se lo soliciten. Algunas capacidades útiles incluyen el control de versiones de las características y las políticas que rigen las circunstancias en las que se pueden utilizar las características. [35]

Los almacenes de características pueden ser herramientas de software independientes o estar integrados en plataformas de aprendizaje automático.

Alternativas

La ingeniería de características puede ser un proceso que consume mucho tiempo y es propenso a errores, ya que requiere experiencia en el dominio y, a menudo, implica prueba y error. [36] [37] Los algoritmos de aprendizaje profundo se pueden utilizar para procesar un gran conjunto de datos sin procesar sin tener que recurrir a la ingeniería de características. [38] Sin embargo, los algoritmos de aprendizaje profundo aún requieren un preprocesamiento y una limpieza cuidadosos de los datos de entrada. [39] Además, elegir la arquitectura, los hiperparámetros y el algoritmo de optimización adecuados para una red neuronal profunda puede ser un proceso desafiante e iterativo. [40]

Véase también

Referencias

  1. ^ Hastie, Trevor; Tibshirani, Robert; Friedman, Jerome H. (2009). Los elementos del aprendizaje estadístico: minería de datos, inferencia y predicción. Springer. ISBN 978-0-387-84884-6.
  2. ^ abc Sharma, Shubham; Nayak, Richi; Bhaskar, Ashish (1 de mayo de 2024). "Ingeniería de características de múltiples vistas para la agrupación conjunta diaria de múltiples conjuntos de datos de tráfico". Transportation Research Part C: Emerging Technologies . 162 : 104607. Bibcode :2024TRPC..16204607S. doi : 10.1016/j.trc.2024.104607 . ISSN  0968-090X.
  3. ^ Shalev-Shwartz, Shai; Ben-David, Shai (2014). Entender el aprendizaje automático: de la teoría a los algoritmos . Cambridge: Cambridge University Press. ISBN 9781107057135.
  4. ^ Murphy, Kevin P. (2022). Aprendizaje automático probabilístico . Cambridge, Massachusetts: The MIT Press (Copyright 2022 Massachusetts Institute of Technology, esta obra está sujeta a una licencia Creative Commons CC-BY-NC-ND). ISBN 9780262046824.
  5. ^ MacQueron C (2021). MEZCLA SÓLIDO-LÍQUIDO EN TANQUES AGITADOS: Modelado, validación, optimización del diseño y predicción de la calidad de la suspensión (informe). doi :10.13140/RG.2.2.11074.84164/1.
  6. ^ Lee, Daniel D.; Seung, H. Sebastian (1999). "Aprendizaje de las partes de los objetos mediante factorización de matrices no negativas". Nature . 401 (6755): 788–791. Bibcode :1999Natur.401..788L. doi :10.1038/44565. ISSN  1476-4687. PMID  10548103.
  7. ^ Wang, Hua; Nie, Feiping; Huang, Heng; Ding, Chris (2011). "Coagrupamiento de alto orden basado en trifactorización de matrices no negativas y su rápida implementación". 2011 IEEE 11th International Conference on Data Mining . IEEE. págs. 774–783. doi :10.1109/icdm.2011.109. ISBN 978-1-4577-2075-8.
  8. ^ Lim, Lek-Heng; Comon, Pierre (12 de abril de 2009). "Aproximaciones no negativas de tensores no negativos". arXiv : 0903.4530 [cs.NA].
  9. ^ Nayak, Richi; Luong, Khanh (2023). "Aprendizaje multiaspecto". Biblioteca de referencia de sistemas inteligentes . 242 . doi :10.1007/978-3-031-33560-0. ISBN 978-3-031-33559-4. ISSN  1868-4394.
  10. ^ "Ingeniería de características: lente de aprendizaje automático". docs.aws.amazon.com . Consultado el 1 de marzo de 2024 .
  11. ^ "Ingeniería de características" (PDF) . 22 de abril de 2010. Consultado el 12 de noviembre de 2015 .
  12. ^ "Ingeniería y selección de características" (PDF) . Alexandre Bouchard-Côté. 1 de octubre de 2009 . Consultado el 12 de noviembre de 2015 .
  13. ^ "Ingeniería de características en el aprendizaje automático" (PDF) . Zdenek Zabokrtsky. Archivado desde el original (PDF) el 4 de marzo de 2016. Consultado el 12 de noviembre de 2015 .
  14. ^ ab Knobbe AJ, Siebes A, Van Der Wallen D (1999). "Inducción de árboles de decisión multirrelacionales" (PDF) . Principios de minería de datos y descubrimiento de conocimiento . Apuntes de clase en informática. Vol. 1704. págs. 378–383. doi :10.1007/978-3-540-48247-5_46. ISBN . 978-3-540-66490-1.
  15. ^ "Todo es cuestión de características". Blog de Reality AI . Septiembre de 2017.
  16. ^ Yin X, Han J, Yang J, Yu PS (2004). "CrossMine: Clasificación eficiente en múltiples relaciones de bases de datos". Actas. 20.ª Conferencia internacional sobre ingeniería de datos . págs. 399–410. doi :10.1109/ICDE.2004.1320014. ISBN . 0-7695-2065-0. Número de identificación del sujeto  1183403.
  17. ^ Frank R, Moser F, Ester M (2007). "Un método para la clasificación multirrelacional utilizando funciones de agregación de características únicas y múltiples". Descubrimiento de conocimiento en bases de datos: PKDD 2007. Apuntes de clase en informática. Vol. 4702. págs. 430–437. doi :10.1007/978-3-540-74976-9_43. ISBN 978-3-540-74975-2.
  18. ^ "¿Qué es Featuretools?" . Consultado el 7 de septiembre de 2022 .
  19. ^ "Featuretools: un marco de Python de código abierto para la ingeniería de características automatizada" . Consultado el 7 de septiembre de 2022 .
  20. ^ "github: alteryx/featuretools". GitHub . Consultado el 7 de septiembre de 2022 .
  21. ^ Sharma, Shubham, mcmd: Marco de clasificación de múltiples vistas basado en la descomposición de la matriz de consenso desarrollado por Shubham Sharma en QUT , consultado el 14 de abril de 2024
  22. ^ ab Thanh Lam, Hoang; Thiebaut, Johann-Michael; Sinn, Mathieu; Chen, Bei; Mai, Tiep; Alkan, Oznur (1 de junio de 2017). "Máquina de un botón para automatizar la ingeniería de características en bases de datos relacionales". arXiv : 1706.00327 [cs.DB].
  23. ^ "documentación de getML" . Consultado el 7 de septiembre de 2022 .
  24. ^ abc "github: getml/getml-community". GitHub . Consultado el 7 de septiembre de 2022 .
  25. ^ "Documentación de tsfresh" . Consultado el 7 de septiembre de 2022 .
  26. ^ "Extracción de características de series temporales en base a pruebas de hipótesis escalables (tsfresh, un paquete de Python)" . Consultado el 7 de septiembre de 2022 .
  27. ^ "predict-idlab/tsflex". GitHub . Consultado el 7 de septiembre de 2022 .
  28. ^ Van Der Donckt, Jonás; Van Der Donckt, Jeroen; Deprost, Emiel; Van Hoecke, Sofie (2022). "tsflex: procesamiento flexible de series temporales y extracción de características". SoftwareX . 17 : 100971. arXiv : 2111.12429 . Código Bib : 2022SoftX..1700971V. doi : 10.1016/j.softx.2021.100971. S2CID  244527198 . Consultado el 7 de septiembre de 2022 .
  29. ^ "Guía del usuario de Seglearn" . Consultado el 7 de septiembre de 2022 .
  30. ^ "¡Bienvenido a la documentación de TSFEL!" . Consultado el 7 de septiembre de 2022 .
  31. ^ "github: facebookresearch/Kats". GitHub . Consultado el 7 de septiembre de 2022 .
  32. ^ "Automatización del análisis de big data". 16 de octubre de 2015.
  33. ^ Kanter, James Max; Veeramachaneni, Kalyan (2015). "Síntesis de características profundas: hacia la automatización de los esfuerzos en materia de ciencia de datos". Conferencia internacional IEEE sobre ciencia de datos y análisis avanzados (DSAA) de 2015. págs. 1–10. doi :10.1109/DSAA.2015.7344858. ISBN 978-1-4673-8272-4.S2CID206610380  .​
  34. ^ "¿Qué es una tienda de características?" . Consultado el 19 de abril de 2022 .
  35. ^ "Introducción a las tiendas de características" . Consultado el 15 de abril de 2021 .
  36. ^ "Ingeniería de características en el aprendizaje automático". Programa de Educación en Ingeniería (EngEd) | Sección . Consultado el 21 de marzo de 2023 .
  37. ^ explorium_admin (25 de octubre de 2021). "5 razones por las que la ingeniería de características es un desafío". Explorium . Consultado el 21 de marzo de 2023 .
  38. ^ Spiegelhalter, DJ (2019). El arte de la estadística: aprender de los datos. [Londres] Reino Unido. ISBN 978-0-241-39863-0.OCLC 1064776283  .{{cite book}}: CS1 maint: location missing publisher (link)
  39. ^ Sarker IH (noviembre de 2021). "Aprendizaje profundo: una descripción general completa de las técnicas, la taxonomía, las aplicaciones y las direcciones de investigación". SN Computer Science . 2 (6): 420. doi :10.1007/s42979-021-00815-1. PMC 8372231 . PMID  34426802. 
  40. ^ Bengio, Yoshua (2012), "Recomendaciones prácticas para el entrenamiento basado en gradientes de arquitecturas profundas", Neural Networks: Tricks of the Trade , Lecture Notes in Computer Science, vol. 7700, Berlín, Heidelberg: Springer Berlin Heidelberg, págs. 437–478, arXiv : 1206.5533 , doi :10.1007/978-3-642-35289-8_26, ISBN 978-3-642-35288-1, S2CID  10808461 , consultado el 21 de marzo de 2023

Lectura adicional