stringtranslate.com

Quoc V. Le

Lê Viết Quốc (nacido en 1982), [1] o en forma romanizada Quoc Viet Le , es un científico informático vietnamita-estadounidense y pionero del aprendizaje automático en Google Brain , que estableció con otros de Google. Fue coinventor de los modelos doc2vec [2] y seq2seq [3] en el procesamiento del lenguaje natural . Le también inició y dirigió la iniciativa AutoML en Google Brain, incluida la propuesta de búsqueda de arquitectura neuronal . [4] [5] [6] [7]

Educación y carrera

Le nació en Hương Thủy en la provincia de Thừa Thiên Huế de Vietnam. [5] Estudió en la escuela secundaria Quốc Học Huế . [8] En 2004, Le se mudó a Australia y asistió a la Universidad Nacional Australiana para el programa de licenciatura, durante el cual trabajó con Alex Smola en el método Kernel en aprendizaje automático. [9] En 2007, Le se mudó a la Universidad de Stanford para realizar estudios de posgrado en informática, donde su asesor de doctorado fue Andrew Ng .

En 2011, Le se convirtió en miembro fundador de Google Brain junto con su entonces asesor de doctorado Andrew Ng , Google Fellow Jeff Dean y el investigador de Google Greg Corrado. [5] Le lideró el primer gran descubrimiento de Google Brain , un algoritmo de aprendizaje profundo entrenado en 16.000 núcleos de CPU , que aprendió a reconocer gatos después de ver solo videos de YouTube , y sin que nunca le hubieran dicho qué es un "gato". [10] [11]

En 2014, Ilya Sutskever , Oriol Vinyals y Le propusieron el modelo seq2seq para la traducción automática . Ese mismo año, Tomáš Mikolov y Le propusieron el modelo doc2vec para el aprendizaje de la representación de documentos. Le fue uno de los principales colaboradores de Google Neural Machine Translation . [12]

En 2017, Le inició y dirigió el proyecto AutoML en Google Brain , incluida la propuesta de búsqueda de arquitectura neuronal . [13]

En 2020, Le inició y contribuyó a Meena, posteriormente rebautizado como LaMDA , un modelo de lenguaje conversacional de gran tamaño construido sobre la arquitectura seq2seq . [14] En 2022, Le y sus coautores publicaron chain-of-thought prompting , un método para mejorar la capacidad de razonamiento de los modelos de lenguaje de gran tamaño. [15]

Honores y premios

Le fue nombrado innovador menor de 35 años por MIT Technology Review en 2014. [16] Ha sido entrevistado y su investigación ha sido reportada en los principales medios de comunicación, incluidos Wired , [6] New York Times , [17] Atlantic , [18] y MIT Technology Review . [19] Le fue nombrado Alumni Laureate de la Escuela de Computación de la Universidad Nacional de Australia en 2022. [20]

Véase también

Referencias

  1. ^ "'Quái kiệt' AI Lê Viết Quốc - người đứng sau thuật toán Transformers của ChatGPT ". Viettimes - tin tức và phân tích chuyên sâu kinh tế, quốc tế, y tế (en vietnamita). 2023-02-09 . Consultado el 3 de julio de 2023 .
  2. ^ Le, Quoc V.; Mikolov, Tomas (22 de mayo de 2014). "Representaciones distribuidas de oraciones y documentos". arXiv : 1405.4053 [cs.CL].
  3. ^ Sutskever, Ilya; Vinyals, Oriol; Le, Quoc V. (14 de diciembre de 2014). "Aprendizaje secuencia a secuencia con redes neuronales". arXiv : 1409.3215 [cs.CL].
  4. ^ Zoph, Barret; Le, Quoc V. (15 de febrero de 2017). "Búsqueda de arquitectura neuronal con aprendizaje por refuerzo". arXiv : 1611.01578 [cs.LG].
  5. ^ abc "Le Viet Quoc, el joven ingeniero vietnamita que posee el cerebro de Google". tipsmake.com . 24 de mayo de 2019 . Consultado el 24 de noviembre de 2022 .
  6. ^ ab Hernandez, Daniela. "La búsqueda de un Googler para enseñar a las máquinas a comprender las emociones". Wired . ISSN  1059-1028 . Consultado el 25 de noviembre de 2022 .
  7. ^ Chow, Rony (7 de junio de 2021). "Quoc V. Le: Rápido, Furioso y Automático". Historia de la Ciencia de Datos . Consultado el 26 de noviembre de 2022 .
  8. ^ "Becarios Fulbright Vietnam - Le Viet Quoc".
  9. ^ "Conoce a Le Viet Quoc, un talento vietnamita en Google". Tuoi Tre News . 2019-02-15 . Consultado el 2022-11-25 .
  10. ^ Markoff, John (25 de junio de 2012). "¿Cuántos ordenadores se necesitan para identificar un gato? 16.000". The New York Times .
  11. ^ Ng, Andrew; Dean, Jeff (2012). "Construcción de características de alto nivel mediante aprendizaje no supervisado a gran escala". arXiv : 1112.6209 [cs.LG].
  12. ^ "Una red neuronal para la traducción automática a escala de producción". Blog de investigación de Google . 2016-09-27 . Consultado el 2023-07-02 .
  13. ^ Zoph, Barret; Le, Quoc V. (15 de febrero de 2017). "Búsqueda de arquitectura neuronal con aprendizaje por refuerzo". arXiv : 1611.01578 [cs.LG].
  14. ^ Adiwardana, Daniel; Luong, Minh-Thang; So, David R.; Hall, Jamie; Fiedel, Noah; Thoppilan, Romal; Yang, Zi; Kulshreshtha, Apoorv; Nemade, Gaurav; Lu, Yifeng; Le, Quoc V. (31 de enero de 2020). "Hacia un chatbot de dominio abierto similar al humano". arXiv : 2001.09977 [cs.CL].
  15. ^ "Los modelos de lenguaje realizan razonamientos a través de la cadena de pensamiento". Blog de investigación de Google . 2022-05-22 . Consultado el 2023-07-02 .
  16. ^ "Quoc Le". MIT Technology Review . Consultado el 24 de noviembre de 2022 .
  17. ^ Lewis-Kraus, Gideon (14 de diciembre de 2016). "El gran despertar de la IA". The New York Times . ISSN  0362-4331 . Consultado el 26 de noviembre de 2022 .
  18. ^ Madrigal, Alexis C. (26 de junio de 2012). «¡El triunfo de la inteligencia artificial! 16.000 procesadores pueden identificar a un gato en un vídeo de YouTube a veces». The Atlantic . Consultado el 26 de noviembre de 2022 .
  19. ^ "El problema del lenguaje de la IA". MIT Technology Review . Consultado el 26 de noviembre de 2022 .
  20. ^ "Celebración de 50 años de enseñanza de informática en la ANU". Facultad de Ingeniería, Computación y Cibernética de la ANU . Consultado el 2 de julio de 2023 .