stringtranslate.com

Optimización de hiperparámetros

En aprendizaje automático , la optimización de hiperparámetros [1] o ajuste es el problema de elegir un conjunto de hiperparámetros óptimos para un algoritmo de aprendizaje. Un hiperparámetro es un parámetro cuyo valor se utiliza para controlar el proceso de aprendizaje.

La optimización de hiperparámetros encuentra una tupla de hiperparámetros que produce un modelo óptimo que minimiza una función de pérdida predefinida en datos independientes dados. [2] La función objetivo toma una tupla de hiperparámetros y devuelve la pérdida asociada. [2] La validación cruzada se utiliza a menudo para estimar este rendimiento de generalización y, por lo tanto, elegir el conjunto de valores para los hiperparámetros que lo maximizan. [3]

Enfoques

Búsqueda de cuadrícula en diferentes valores de dos hiperparámetros. Para cada hiperparámetro se consideran 10 valores diferentes, por lo que se evalúan y comparan un total de 100 combinaciones diferentes. Los contornos azules indican regiones con buenos resultados, mientras que los rojos muestran regiones con malos resultados.

Búsqueda de cuadrícula

La forma tradicional de realizar la optimización de hiperparámetros ha sido la búsqueda en cuadrícula , o barrido de parámetros , que es simplemente una búsqueda exhaustiva a través de un subconjunto especificado manualmente del espacio de hiperparámetros de un algoritmo de aprendizaje. Un algoritmo de búsqueda de cuadrícula debe guiarse por alguna métrica de rendimiento, generalmente medida mediante validación cruzada en el conjunto de entrenamiento [4] o evaluación en un conjunto de validación reservado. [5]

Dado que el espacio de parámetros de un estudiante automático puede incluir espacios de valores reales o ilimitados para ciertos parámetros, puede ser necesario establecer límites y discretización manualmente antes de aplicar la búsqueda de cuadrícula.

Por ejemplo, un clasificador SVM de margen suave típico equipado con un kernel RBF tiene al menos dos hiperparámetros que deben ajustarse para lograr un buen rendimiento en datos invisibles: una constante de regularización C y un hiperparámetro del kernel γ. Ambos parámetros son continuos, por lo que para realizar una búsqueda en la cuadrícula, se selecciona un conjunto finito de valores "razonables" para cada uno, digamos

Luego, la búsqueda de cuadrícula entrena una SVM con cada par ( C , γ) en el producto cartesiano de estos dos conjuntos y evalúa su desempeño en un conjunto de validación retenido (o mediante validación cruzada interna en el conjunto de entrenamiento, en cuyo caso múltiples SVM son entrenados por pareja). Finalmente, el algoritmo de búsqueda de cuadrícula genera las configuraciones que lograron la puntuación más alta en el procedimiento de validación.

La búsqueda de cuadrícula sufre la maldición de la dimensionalidad , pero a menudo es vergonzosamente paralela porque las configuraciones de hiperparámetros que evalúa suelen ser independientes entre sí. [3]

Búsqueda aleatoria en diferentes combinaciones de valores para dos hiperparámetros. En este ejemplo, se evalúan 100 elecciones aleatorias diferentes. Las barras verdes muestran que se consideran más valores individuales para cada hiperparámetro en comparación con una búsqueda de cuadrícula.

búsqueda aleatoria

La búsqueda aleatoria reemplaza la enumeración exhaustiva de todas las combinaciones seleccionándolas aleatoriamente. Esto se puede aplicar simplemente al entorno discreto descrito anteriormente, pero también se generaliza a espacios continuos y mixtos. Una ventaja sobre la búsqueda en cuadrícula es que la búsqueda aleatoria puede explorar muchos más valores que la búsqueda en cuadrícula para hiperparámetros continuos. Puede superar la búsqueda de Grid, especialmente cuando solo una pequeña cantidad de hiperparámetros afecta el rendimiento final del algoritmo de aprendizaje automático. [3] En este caso, se dice que el problema de optimización tiene una dimensionalidad intrínseca baja. [6] La búsqueda aleatoria también es vergonzosamente paralela y, además, permite la inclusión de conocimientos previos al especificar la distribución de la cual tomar muestras. A pesar de su simplicidad, la búsqueda aleatoria sigue siendo una de las bases importantes con las que comparar el rendimiento de los nuevos métodos de optimización de hiperparámetros.

Los métodos como la optimización bayesiana exploran inteligentemente el espacio de opciones potenciales de hiperparámetros al decidir qué combinación explorar a continuación en función de observaciones previas.

optimización bayesiana

La optimización bayesiana es un método de optimización global para funciones de caja negra ruidosas. Aplicada a la optimización de hiperparámetros, la optimización bayesiana construye un modelo probabilístico del mapeo de funciones desde los valores de los hiperparámetros hasta el objetivo evaluado en un conjunto de validación. Al evaluar iterativamente una configuración de hiperparámetros prometedora basada en el modelo actual y luego actualizarla, la optimización bayesiana tiene como objetivo recopilar observaciones que revelen la mayor cantidad de información posible sobre esta función y, en particular, la ubicación del óptimo. Intenta equilibrar la exploración (hiperparámetros cuyo resultado es más incierto) y la explotación (hiperparámetros esperados cercanos al óptimo). En la práctica, se ha demostrado que la optimización bayesiana [7] [8] [9] [10] obtiene mejores resultados en menos evaluaciones en comparación con la búsqueda en cuadrícula y la búsqueda aleatoria, debido a la capacidad de razonar sobre la calidad de los experimentos antes de ejecutarlos. .

Optimización basada en gradientes

Para algoritmos de aprendizaje específicos, es posible calcular el gradiente con respecto a los hiperparámetros y luego optimizar los hiperparámetros mediante el descenso de gradiente . El primer uso de estas técnicas se centró en las redes neuronales. [11] Desde entonces, estos métodos se han extendido a otros modelos como las máquinas de vectores de soporte [12] o la regresión logística. [13]

Un enfoque diferente para obtener un gradiente con respecto a los hiperparámetros consiste en diferenciar los pasos de un algoritmo de optimización iterativo mediante diferenciación automática . [14] [15] [16] [17] Un trabajo más reciente en esta dirección utiliza el teorema de la función implícita para calcular hipergradientes y propone una aproximación estable del hessiano inverso. El método escala a millones de hiperparámetros y requiere memoria constante. [18]

En un enfoque diferente, [19] se entrena una hiperred para aproximarse a la mejor función de respuesta. Una de las ventajas de este método es que también puede manejar hiperparámetros discretos. Las redes autoajustables [20] ofrecen una versión eficiente de la memoria de este enfoque al elegir una representación compacta para la hiperred. Más recientemente, Δ-STN [21] ha mejorado aún más este método mediante una ligera reparametrización de la hiperred que acelera el entrenamiento. Δ-STN también produce una mejor aproximación del jacobiano de mejor respuesta al linealizar la red en los pesos, eliminando así efectos no lineales innecesarios de grandes cambios en los pesos.

Además de los enfoques de hiperred, se pueden utilizar métodos basados ​​en gradientes para optimizar hiperparámetros discretos también adoptando una relajación continua de los parámetros. [22] Estos métodos se han utilizado ampliamente para la optimización de los hiperparámetros de arquitectura en la búsqueda de arquitectura neuronal .

Optimización evolutiva

La optimización evolutiva es una metodología para la optimización global de funciones de caja negra ruidosas. En la optimización de hiperparámetros, la optimización evolutiva utiliza algoritmos evolutivos para buscar en el espacio de hiperparámetros un algoritmo determinado. [8] La optimización de hiperparámetros evolutivos sigue un proceso inspirado en el concepto biológico de evolución :

  1. Crear una población inicial de soluciones aleatorias (es decir, generar aleatoriamente tuplas de hiperparámetros, normalmente más de 100)
  2. Evaluar las tuplas de hiperparámetros y adquirir su función de aptitud (por ejemplo, precisión de validación cruzada 10 veces mayor del algoritmo de aprendizaje automático con esos hiperparámetros)
  3. Clasifique las tuplas de hiperparámetros según su aptitud relativa
  4. Reemplace las tuplas de hiperparámetros de peor rendimiento con nuevas tuplas de hiperparámetros generadas mediante cruce y mutación.
  5. Repita los pasos 2 a 4 hasta alcanzar un rendimiento satisfactorio del algoritmo o hasta que el rendimiento del algoritmo ya no mejore.

La optimización evolutiva se ha utilizado en la optimización de hiperparámetros para algoritmos estadísticos de aprendizaje automático, [8] aprendizaje automático automatizado , redes neuronales típicas [23] y búsqueda de arquitectura de redes neuronales profundas , [24] [25] , así como en el entrenamiento de los pesos en redes neuronales profundas. redes. [26]

Basado en la población

El entrenamiento basado en la población (PBT) aprende tanto los valores de los hiperparámetros como los pesos de la red. Múltiples procesos de aprendizaje operan de forma independiente, utilizando diferentes hiperparámetros. Al igual que con los métodos evolutivos, los modelos de bajo rendimiento se reemplazan iterativamente con modelos que adoptan valores y ponderaciones de hiperparámetros modificados en función de los de mejor rendimiento. Este modelo de reemplazo de arranque en caliente es el principal diferenciador entre PBT y otros métodos evolutivos. Por lo tanto, PBT permite que los hiperparámetros evolucionen y elimina la necesidad de un hiperajuste manual. El proceso no hace suposiciones sobre la arquitectura del modelo, funciones de pérdida o procedimientos de entrenamiento.

PBT y sus variantes son métodos adaptativos: actualizan hiperparámetros durante el entrenamiento de los modelos. Por el contrario, los métodos no adaptativos tienen la estrategia subóptima de asignar un conjunto constante de hiperparámetros para todo el entrenamiento. [27]

Basado en parada anticipada

Reducción a la mitad sucesiva para ocho configuraciones de hiperparámetros arbitrarios. El enfoque comienza con ocho modelos con diferentes configuraciones y aplica consecutivamente divisiones sucesivas hasta que solo queda un modelo.

Una clase de algoritmos de optimización de hiperparámetros basados ​​en detención temprana está diseñada específicamente para grandes espacios de búsqueda de hiperparámetros continuos y discretos, particularmente cuando el costo computacional para evaluar el rendimiento de un conjunto de hiperparámetros es alto. Irace implementa el algoritmo de carreras iterado, que centra la búsqueda en las configuraciones más prometedoras, utilizando pruebas estadísticas para descartar las que funcionan mal. [28] [29] Otro algoritmo de optimización de hiperparámetros de parada temprana es la reducción a la mitad sucesiva (SHA), [30] que comienza como una búsqueda aleatoria pero poda periódicamente los modelos de bajo rendimiento, centrando así los recursos computacionales en modelos más prometedores. La reducción a la mitad sucesiva asincrónica (ASHA) [31] mejora aún más el perfil de utilización de recursos de SHA al eliminar la necesidad de evaluar y podar sincrónicamente los modelos de bajo rendimiento. Hyperband [32] es un algoritmo basado en detención temprana de nivel superior que invoca SHA o ASHA varias veces con diferentes niveles de agresividad de poda, para que sea más ampliamente aplicable y con menos entradas requeridas.

Otros

También se han desarrollado enfoques RBF [33] y espectral [34] .

Problemas con la optimización de hiperparámetros

Cuando se realiza la optimización de hiperparámetros, el conjunto de hiperparámetros a menudo se ajusta a un conjunto de entrenamiento y se selecciona en función del rendimiento de generalización, o puntuación, de un conjunto de validación. Sin embargo, este procedimiento corre el riesgo de sobreajustar los hiperparámetros del conjunto de validación. Por lo tanto, la puntuación del rendimiento de generalización del conjunto de validación (que puede ser de varios conjuntos en el caso de un procedimiento de validación cruzada) no se puede utilizar para estimar simultáneamente el rendimiento de generalización del modelo final. Para hacerlo, el rendimiento de la generalización debe evaluarse en un conjunto independiente (que no tiene intersección) del conjunto (o conjuntos) utilizados para la optimización de los hiperparámetros; de lo contrario, el rendimiento podría dar un valor demasiado optimista ( demasiado grande). Esto se puede hacer en un segundo conjunto de pruebas, o mediante un procedimiento de validación cruzada externo llamado validación cruzada anidada, que permite una estimación insesgada del rendimiento de generalización del modelo, teniendo en cuenta el sesgo debido a la optimización del hiperparámetro.

Ver también

Referencias

  1. ^ Matthias Feurer y Frank Hutter. Optimización de hiperparámetros. En: AutoML: métodos, sistemas, desafíos , páginas 3–38.
  2. ^ ab Claesen, Marc; Bart De Moor (2015). "Búsqueda de hiperparámetros en aprendizaje automático". arXiv : 1502.02127 [cs.LG].
  3. ^ a b C Bergstra, James; Bengio, Yoshua (2012). "Búsqueda aleatoria para optimización de hiperparámetros" (PDF) . Revista de investigación sobre aprendizaje automático . 13 : 281–305.
  4. ^ Chin-Wei Hsu, Chih-Chung Chang y Chih-Jen Lin (2010). Una guía práctica para apoyar la clasificación de vectores. Informe técnico, Universidad Nacional de Taiwán .
  5. ^ Chicco D (diciembre de 2017). "Diez consejos rápidos para el aprendizaje automático en biología computacional". Minería de biodatos . 10 (35): 35. doi : 10.1186/s13040-017-0155-3 . PMC 5721660 . PMID  29234465. 
  6. ^ Ziyu, Wang; Frank, Hutter; Masrour, Zoghi; David, Matheson; Nando, de Feitas (2016). "Optimización bayesiana en mil millones de dimensiones mediante incrustaciones aleatorias". Revista de investigación en inteligencia artificial . 55 : 361–387. arXiv : 1301.1942 . doi :10.1613/jair.4806. S2CID  279236.
  7. ^ Hutter, Frank; Hoos, Holger; Leyton-Brown, Kevin (2011), "Optimización basada en modelos secuenciales para la configuración de algoritmos generales", Aprendizaje y optimización inteligente (PDF) , Lecture Notes in Computer Science, vol. 6683, págs. 507–523, CiteSeerX 10.1.1.307.8813 , doi :10.1007/978-3-642-25566-3_40, ISBN  978-3-642-25565-6, S2CID  6944647
  8. ^ a b C Bergstra, James; Bardenet, Rémi; Bengio, Yoshua; Kegl, Balazs (2011), "Algoritmos para la optimización de hiperparámetros" (PDF) , Avances en los sistemas de procesamiento de información neuronal
  9. ^ Snoek, Jasper; Larochelle, Hugo; Adams, Ryan (2012). "Optimización bayesiana práctica de algoritmos de aprendizaje automático" (PDF) . Avances en los sistemas de procesamiento de información neuronal . arXiv : 1206.2944 . Código Bib : 2012arXiv1206.2944S.
  10. ^ Thornton, Chris; Hutter, Frank; Hoos, Holger; Leyton-Brown, Kevin (2013). "Auto-WEKA: selección combinada y optimización de hiperparámetros de algoritmos de clasificación" (PDF) . Descubrimiento de conocimiento y minería de datos . arXiv : 1208.3719 . Código Bib : 2012arXiv1208.3719T.
  11. ^ Larsen, enero; Hansen, Lars Kai; Svarer, Claus; Ohlsson, M (1996). "Diseño y regularización de redes neuronales: El uso óptimo de un conjunto de validación" (PDF) . Redes Neuronales para Procesamiento de Señales VI. Actas del taller de la sociedad de procesamiento de señales IEEE de 1996 . págs. 62–71. CiteSeerX 10.1.1.415.3266 . doi :10.1109/NNSP.1996.548336. ISBN  0-7803-3550-3. S2CID  238874.
  12. ^ Olivier Chapelle; Vladímir Vápnik; Olivier Bousquet; Sayan Mukherjee (2002). "Elección de múltiples parámetros para máquinas de vectores de soporte" (PDF) . Aprendizaje automático . 46 : 131-159. doi : 10.1023/a:1012450327387 .
  13. ^ Chuong B; Chuan-Sheng Foo; Andrew Y Ng (2008). "Aprendizaje eficiente de múltiples hiperparámetros para modelos log-lineales" (PDF) . Avances en los sistemas de procesamiento de información neuronal . 20 .
  14. ^ Domke, Justin (2012). "Métodos genéricos para el modelado basado en optimización" (PDF) . Aistatas . 22 . Archivado desde el original (PDF) el 24 de enero de 2014 . Consultado el 9 de diciembre de 2017 .
  15. ^ Maclaurin, Dougal; Duvenaud, David; Adams, Ryan P. (2015). "Optimización de hiperparámetros basada en gradientes mediante aprendizaje reversible". arXiv : 1502.03492 [estad.ML].
  16. ^ Franceschi, Luca; Donini, Michele; Frasconi, Paolo; Pontil, Massimiliano (2017). "Optimización de hiperparámetros basada en gradientes directos e inversos" (PDF) . Actas de la 34ª Conferencia Internacional sobre Aprendizaje Automático . arXiv : 1703.01785 . Código Bib : 2017arXiv170301785F.
  17. ^ Shaban, A., Cheng, CA, Hatch, N. y Boots, B. (abril de 2019). Propagación hacia atrás truncada para optimización de dos niveles. En La 22ª Conferencia Internacional sobre Inteligencia Artificial y Estadística (págs. 1723-1732). PMLR.
  18. ^ Lorena, J., Vicol, P. y Duvenaud, D. (2018). Optimización de millones de hiperparámetros mediante diferenciación implícita. Preimpresión de arXiv arXiv:1911.02590 .
  19. ^ Lorena, J. y Duvenaud, D. (2018). Optimización de hiperparámetros estocásticos a través de hiperredes. arXiv preimpresión arXiv:1802.09419 .
  20. ^ MacKay, M., Vicol, P., Lorraine, J., Duvenaud, D. y Grosse, R. (2019). Redes de autoajuste: optimización binivel de hiperparámetros utilizando funciones estructuradas de mejor respuesta. Preimpresión de arXiv arXiv:1903.03088 .
  21. ^ Bae, J. y Grosse, RB (2020). Delta-stn: optimización eficiente de dos niveles para redes neuronales utilizando jacobianos de respuesta estructurada. Avances en sistemas de procesamiento de información neuronal , 33 , 21725-21737.
  22. ^ Liu, H., Simonyan, K. y Yang, Y. (2018). Dardos: Búsqueda de arquitectura diferenciable. arXiv preimpresión arXiv:1806.09055 .
  23. ^ Kousiouris G, Cuccinotta T, Varvarigou T (2011). "Los efectos de la programación, el tipo de carga de trabajo y los escenarios de consolidación sobre el rendimiento de las máquinas virtuales y su predicción a través de redes neuronales artificiales optimizadas". Revista de Sistemas y Software . 84 (8): 1270-1291. doi :10.1016/j.jss.2011.04.013. hdl : 11382/361472 .
  24. ^ Miikkulainen R, Liang J, Meyerson E, Rawal A, Fink D, Francon O, Raju B, Shahrzad H, Navruzyan A, Duffy N, Hodjat B (2017). "Evolución de las redes neuronales profundas". arXiv : 1703.00548 [cs.NE].
  25. ^ Jaderberg M, Dalibard V, Osindero S, Czarnecki WM, Donahue J, Razavi A, Vinyals O, Green T, Dunning I, Simonyan K, Fernando C, Kavukcuoglu K (2017). "Entrenamiento poblacional de redes neuronales". arXiv : 1711.09846 [cs.LG].
  26. ^ Tal FP, Madhavan V, Conti E, Lehman J, Stanley KO, Clune J (2017). "Neuroevolución profunda: los algoritmos genéticos son una alternativa competitiva para entrenar redes neuronales profundas para el aprendizaje por refuerzo". arXiv : 1712.06567 [cs.NE].
  27. ^ Li, Ang; Spyra, Ola; Perel, Sagi; Dalibard, Valentín; Jaderberg, Max; Gu, Chenjie; Budden, David; Harley, Tim; Gupta, Pramod (5 de febrero de 2019). "Un marco generalizado para la formación basada en la población". arXiv : 1902.01894 [cs.AI].
  28. ^ López-Ibáñez, Manuel; Dubois-Lacoste, Jérémie; Pérez Cáceres, Leslie; Stützle, Thomas; Birattari, Mauro (2016). "El paquete irace: carreras iteradas para la configuración automática de algoritmos". Perspectiva de la investigación de operaciones . 3 (3): 43–58. doi : 10.1016/j.orp.2016.09.002 . hdl : 10419/178265 .
  29. ^ Birattari, Mauro; Stützle, Thomas; Paquete, Luis; Varrentrapp, Klaus (2002). "Un algoritmo de carrera para configurar metaheurísticas". Gecco 2002 : 11-18.
  30. ^ Jamieson, Kevin; Talwalkar, Ameet (27 de febrero de 2015). "Identificación no estocástica del mejor brazo y optimización de hiperparámetros". arXiv : 1502.07943 [cs.LG].
  31. ^ Li, Liam; Jamieson, Kevin; Rostamizadeh, Afshin; Gonina, Ekaterina; Hardt, Moritz; Recht, Benjamín; Talwalkar, Ameet (16 de marzo de 2020). "Un sistema para el ajuste de hiperparámetros masivamente paralelo". arXiv : 1810.05934v5 [cs.LG].
  32. ^ Li, Lisha; Jamieson, Kevin; DeSalvo, Giulia; Rostamizadeh, Afshin; Talwalkar, Ameet (16 de marzo de 2020). "Hyperband: un nuevo enfoque basado en bandidos para la optimización de hiperparámetros". Revista de investigación sobre aprendizaje automático . 18 : 1–52. arXiv : 1603.06560 .
  33. ^ Díaz, Gonzalo; Fokoue, Aquiles; Nannicini, Giacomo; Samulowitz, Horst (2017). "Un algoritmo eficaz para la optimización de hiperparámetros de redes neuronales". arXiv : 1705.08520 [cs.AI].
  34. ^ Hazán, Elad; Klivans, Adam; Yuan, Yang (2017). "Optimización de hiperparámetros: un enfoque espectral". arXiv : 1706.00764 [cs.LG].