stringtranslate.com

Elad Hazan

Elad Hazan es un científico informático, académico, autor e investigador israelí-estadounidense. Es profesor de Ciencias de la Computación en la Universidad de Princeton y cofundador y director de Google AI Princeton. [1] [2]

Hazan co-inventó los métodos de gradiente adaptativo y el algoritmo AdaGrad . Ha publicado más de 150 artículos y tiene varias patentes otorgadas. Ha trabajado en aprendizaje automático y optimización matemática, y más recientemente en teoría de control y aprendizaje de refuerzo. [3] Es autor de un libro titulado Introducción a la optimización convexa en línea . Hazan es el cofundador de In8 Inc., que fue adquirida por Google en 2018. [4]

Educación

Hazan estudió en la Universidad de Tel Aviv y recibió su licenciatura y maestría en Ciencias de la Computación en 2001 y 2002, respectivamente. Luego se mudó a los Estados Unidos , donde obtuvo su Doctorado en Ciencias de la Computación en la Universidad de Princeton en 2006 bajo la tutela de Sanjeev Arora . [1]

Carrera

Al recibir su doctorado, Hazan ocupó un puesto como miembro del personal de investigación en el Grupo de teoría en el Centro de investigación IBM Almaden en 2006. Después de este nombramiento, se unió a Technion - Instituto Tecnológico de Israel como profesor asistente en 2010 y fue nombrado titular y ascendido a profesor asociado en 2013. [1] En 2015, se unió a la Universidad de Princeton como profesor asistente de Ciencias de la Computación y luego se convirtió en profesor de Ciencias de la Computación en 2016. Desde 2018, se desempeña como director de Google AI Princeton. [5]

Investigación

La investigación de Hazan se centra principalmente en el aprendizaje automático, la optimización matemática, la teoría del control y el aprendizaje por refuerzo. Es coinventor de cinco patentes estadounidenses.

Aprendizaje automático y optimización matemática

Hazan co-introdujo métodos de subgradiente adaptativos para incorporar dinámicamente el conocimiento de la geometría de los datos observados en iteraciones anteriores y para realizar un aprendizaje basado en gradientes más informativo. El algoritmo AdaGrad cambió la optimización para el aprendizaje profundo y sirve como base para los algoritmos más rápidos de la actualidad. En su estudio, también hizo contribuciones sustanciales a la teoría de la optimización convexa en línea, incluido el algoritmo de Newton Step en línea y el algoritmo de Frank Wolfe en línea, los métodos de proyección libre y los algoritmos de arrepentimiento adaptativo. [6]

En el área de optimización matemática, Hazan propuso los primeros algoritmos de tiempo sublineal para clasificación lineal, así como programación semidefinida. También presentó el primer algoritmo de convergencia lineal de tipo Frank-Wolfe. [7]

Más recientemente, Hazan y su grupo propusieron un nuevo paradigma para el aprendizaje de refuerzo diferenciable llamado control no estocástico, que aplica optimización convexa en línea al control. [8]

Premios y honores

Bibliografía

Libros

Artículos seleccionados

Referencias

  1. ^ abc "Elad Hazan".
  2. ^ NJ.com, Rob Jennings | NJ Advance Media for (19 de diciembre de 2018). "Automóviles autónomos, reconocimiento de voz. Vea el nuevo laboratorio de inteligencia artificial de Google en Princeton". nj . Consultado el 31 de julio de 2021 .
  3. ^ "Elad Hazan - Google Académico".
  4. ^ "Enseñar a las máquinas a aprender por sí mismas".
  5. ^ "El laboratorio de inteligencia artificial de Google se inaugura oficialmente en el centro de Princeton, impulsando la innovación y la invención".
  6. ^ "Métodos de subgradiente adaptativos para el aprendizaje en línea y la optimización estocástica" (PDF) .
  7. ^ Allen-Zhu, Zeyuan; Hazan, Elad; Hu, Wei; Li, Yuanzhi (2017). "Convergencia lineal de un algoritmo de tipo Frank-Wolfe sobre bolas de norma de traza". arXiv : 1708.02105 [cs.LG].
  8. ^ Hazan, Elad (2019). "Introducción a la optimización convexa en línea". arXiv : 1909.05207 [cs.LG].
  9. ^ "Premios al mejor artículo en memoria de Pat Goldberg". 25 de julio de 2016.
  10. ^ "Premios de investigación de Google – diciembre de 2011" (PDF) .
  11. ^ "Premios de investigación de la facultad de Google ¬ febrero de 2015" (PDF) .
  12. ^ "Resultados de las subvenciones iniciales del ERC 2013" (PDF) .
  13. ^ "Nokia anuncia los ganadores del Premio Bell Labs 2016".
  14. ^ "Premio de Investigación de Amazon - Destinatarios".