Científico informático israelí-estadounidense
Elad Hazan es un científico informático, académico, autor e investigador israelí-estadounidense. Es profesor de Ciencias de la Computación en la Universidad de Princeton y cofundador y director de Google AI Princeton. [1] [2]
Hazan co-inventó los métodos de gradiente adaptativo y el algoritmo AdaGrad . Ha publicado más de 150 artículos y tiene varias patentes otorgadas. Ha trabajado en aprendizaje automático y optimización matemática, y más recientemente en teoría de control y aprendizaje de refuerzo. [3] Es autor de un libro titulado Introducción a la optimización convexa en línea . Hazan es el cofundador de In8 Inc., que fue adquirida por Google en 2018. [4]
Educación
Hazan estudió en la Universidad de Tel Aviv y recibió su licenciatura y maestría en Ciencias de la Computación en 2001 y 2002, respectivamente. Luego se mudó a los Estados Unidos , donde obtuvo su Doctorado en Ciencias de la Computación en la Universidad de Princeton en 2006 bajo la tutela de Sanjeev Arora . [1]
Carrera
Al recibir su doctorado, Hazan ocupó un puesto como miembro del personal de investigación en el Grupo de teoría en el Centro de investigación IBM Almaden en 2006. Después de este nombramiento, se unió a Technion - Instituto Tecnológico de Israel como profesor asistente en 2010 y fue nombrado titular y ascendido a profesor asociado en 2013. [1] En 2015, se unió a la Universidad de Princeton como profesor asistente de Ciencias de la Computación y luego se convirtió en profesor de Ciencias de la Computación en 2016. Desde 2018, se desempeña como director de Google AI Princeton. [5]
Investigación
La investigación de Hazan se centra principalmente en el aprendizaje automático, la optimización matemática, la teoría del control y el aprendizaje por refuerzo. Es coinventor de cinco patentes estadounidenses.
Aprendizaje automático y optimización matemática
Hazan co-introdujo métodos de subgradiente adaptativos para incorporar dinámicamente el conocimiento de la geometría de los datos observados en iteraciones anteriores y para realizar un aprendizaje basado en gradientes más informativo. El algoritmo AdaGrad cambió la optimización para el aprendizaje profundo y sirve como base para los algoritmos más rápidos de la actualidad. En su estudio, también hizo contribuciones sustanciales a la teoría de la optimización convexa en línea, incluido el algoritmo de Newton Step en línea y el algoritmo de Frank Wolfe en línea, los métodos de proyección libre y los algoritmos de arrepentimiento adaptativo. [6]
En el área de optimización matemática, Hazan propuso los primeros algoritmos de tiempo sublineal para clasificación lineal, así como programación semidefinida. También presentó el primer algoritmo de convergencia lineal de tipo Frank-Wolfe. [7]
Más recientemente, Hazan y su grupo propusieron un nuevo paradigma para el aprendizaje de refuerzo diferenciable llamado control no estocástico, que aplica optimización convexa en línea al control. [8]
Premios y honores
- 2002–2006 – Beca Gordon Wu, Universidad de Princeton
- 2008 – Premio al mejor artículo estudiantil de la revista Machine Learning Journal, COLT
- 2009, 2012 – Premio IBM Pat Goldberg Memorial al mejor artículo [9]
- 2011–2015 – Becaria Marie Curie del Consejo Europeo de Investigación
- 2011, 2015 – Premio de investigación de Google [10] [11]
- 2012 – Finalista del premio ICML al mejor artículo estudiantil
- 2013 – Beneficiario de la subvención inicial del Consejo Europeo de Investigación (CEI) [12]
- 2017 – Premio Bell Labs [13]
- 2018 – Premio de Investigación de Amazon [14]
Bibliografía
Libros
Artículos seleccionados
- Hazan, E., Agarwal, A. y Kale, S. (2007). Algoritmos de arrepentimiento logarítmico para optimización convexa en línea. Machine Learning, 69(2-3), 169–192.
- Duchi, J., Hazan, E., y Singer, Y. (2011). Métodos de subgradiente adaptativos para el aprendizaje en línea y la optimización estocástica. Revista de investigación en aprendizaje automático, 12(7).
- Arora, S., Hazan, E. y Kale, S. (2012). El método de actualización de pesos multiplicativos: un metaalgoritmo y aplicaciones. Theory of Computing, 8(1), 121–164.
- Hazan, E. (2019). Introducción a la optimización convexa en línea. Preimpresión arXiv arXiv:1909.05207.
- Clarkson, KL, Hazan, E., y Woodruff, DP (2012). Optimización sublineal para aprendizaje automático. Journal of the ACM (JACM), 59(5), 1-49.
- Garber, D., y Hazan, E. (2013). Un algoritmo de gradiente condicional convergente lineal con aplicaciones a la optimización en línea y estocástica. Preimpresión de arXiv arXiv:1301.4666.
- Agarwal, N., Bullins, B., Hazan, E., Kakade, S. y Singh, K. (mayo de 2019). Control en línea con perturbaciones adversarias. En la Conferencia internacional sobre aprendizaje automático (págs. 111-119). PMLR.
Referencias
- ^ abc "Elad Hazan".
- ^ NJ.com, Rob Jennings | NJ Advance Media for (19 de diciembre de 2018). "Automóviles autónomos, reconocimiento de voz. Vea el nuevo laboratorio de inteligencia artificial de Google en Princeton". nj . Consultado el 31 de julio de 2021 .
- ^ "Elad Hazan - Google Académico".
- ^ "Enseñar a las máquinas a aprender por sí mismas".
- ^ "El laboratorio de inteligencia artificial de Google se inaugura oficialmente en el centro de Princeton, impulsando la innovación y la invención".
- ^ "Métodos de subgradiente adaptativos para el aprendizaje en línea y la optimización estocástica" (PDF) .
- ^ Allen-Zhu, Zeyuan; Hazan, Elad; Hu, Wei; Li, Yuanzhi (2017). "Convergencia lineal de un algoritmo de tipo Frank-Wolfe sobre bolas de norma de traza". arXiv : 1708.02105 [cs.LG].
- ^ Hazan, Elad (2019). "Introducción a la optimización convexa en línea". arXiv : 1909.05207 [cs.LG].
- ^ "Premios al mejor artículo en memoria de Pat Goldberg". 25 de julio de 2016.
- ^ "Premios de investigación de Google – diciembre de 2011" (PDF) .
- ^ "Premios de investigación de la facultad de Google ¬ febrero de 2015" (PDF) .
- ^ "Resultados de las subvenciones iniciales del ERC 2013" (PDF) .
- ^ "Nokia anuncia los ganadores del Premio Bell Labs 2016".
- ^ "Premio de Investigación de Amazon - Destinatarios".