stringtranslate.com

Cerebro de Google

Google Brain fue un equipo de investigación de inteligencia artificial de aprendizaje profundo que sirvió como la única rama de IA de Google antes de ser incorporada bajo el paraguas más nuevo de Google AI , una división de investigación de Google dedicada a la inteligencia artificial. Formada en 2011, combinó la investigación de aprendizaje automático de final abierto con sistemas de información y recursos informáticos a gran escala. [1] Creó herramientas como TensorFlow , que permiten que el público utilice redes neuronales, y múltiples proyectos internos de investigación en IA, [2] y tenía como objetivo crear oportunidades de investigación en aprendizaje automático y procesamiento del lenguaje natural . [2] Se fusionó con la antigua empresa hermana de Google, DeepMind, para formar Google DeepMind en abril de 2023.

Historia

El proyecto Google Brain comenzó en 2011 como una colaboración de investigación a tiempo parcial entre Jeff Dean, miembro de Google , y Greg Corrado, investigador de Google. [3] Google Brain comenzó como un proyecto de Google X y tuvo tanto éxito que volvió a Google: Astro Teller ha dicho que Google Brain pagó el costo total de Google X. [ 4]

En junio de 2012, el New York Times informó que un grupo de 16.000 procesadores en 1.000 computadoras dedicadas a imitar algunos aspectos de la actividad cerebral humana se había entrenado con éxito para reconocer un gato basándose en 10 millones de imágenes digitales tomadas de videos de YouTube . [3] La historia también fue cubierta por la Radio Pública Nacional . [5]

En marzo de 2013, Google contrató a Geoffrey Hinton , un destacado investigador en el campo del aprendizaje profundo , y adquirió la empresa DNNResearch Inc. dirigida por Hinton. Hinton dijo que dividiría su tiempo futuro entre su investigación universitaria y su trabajo en Google. [6]

En abril de 2023, Google Brain se fusionó con la empresa hermana de Google, DeepMind, para formar Google DeepMind , como parte de los esfuerzos continuos de la empresa para acelerar el trabajo en IA. [7]

Equipo y ubicación

Google Brain fue creado inicialmente por Jeff Dean , miembro de Google , y Andrew Ng, profesor visitante de Stanford . En 2014, el equipo incluía a Jeff Dean , Quoc Le , Ilya Sutskever , Alex Krizhevsky , Samy Bengio y Vincent Vanhoucke. En 2017, los miembros del equipo incluían a Anelia Angelova, Samy Bengio , Greg Corrado, George Dahl, Michael Isard, Anjuli Kannan, Hugo Larochelle, Chris Olah, Salih Edneer, Benoit Steiner, Vincent Vanhoucke, Vijay Vasudevan y Fernanda Viegas . [8] Chris Lattner , quien creó el lenguaje de programación Swift de Apple y luego dirigió el equipo de autonomía de Tesla durante seis meses, se unió al equipo de Google Brain en agosto de 2017. [9] Lattner dejó el equipo en enero de 2020 y se unió a SiFive . [10]

En 2021 , Google Brain estaba dirigido por Jeff Dean , Geoffrey Hinton y Zoubin Ghahramani . Otros miembros incluyen a Katherine Heller, Pi-Chuan Chang, Ian Simon, Jean-Philippe Vert, Nevena Lazic, Anelia Angelova, Lukasz Kaiser, Carrie Jun Cai, Eric Breck, Ruoming Pang, Carlos Riquelme, Hugo Larochelle y David Ha. [8] Samy Bengio dejó el equipo en abril de 2021, [11] y Zoubin Ghahramani asumió sus responsabilidades.

Google Research incluye Google Brain y tiene su sede en Mountain View, California . También tiene grupos satélite en Accra , Ámsterdam , Atlanta , Pekín , Berlín , Cambridge (Massachusetts) , Israel , Los Ángeles , Londres , Montreal , Múnich , Nueva York , París , Pittsburgh , Princeton , San Francisco , Seattle , Tokio , Toronto y Zúrich . [12]

Proyectos

Sistema de cifrado ideado por inteligencia artificial

En octubre de 2016, Google Brain diseñó un experimento para determinar que las redes neuronales son capaces de aprender cifrado simétrico seguro . [13] En este experimento, se crearon tres redes neuronales : Alice, Bob y Eve. [14] Siguiendo la idea de una red generativa antagónica (GAN), el objetivo del experimento era que Alice enviara un mensaje cifrado a Bob que Bob pudiera descifrar, pero el adversario, Eve, no. [14] Alice y Bob mantuvieron una ventaja sobre Eve, ya que compartían una clave utilizada para el cifrado y descifrado . [13] Al hacerlo, Google Brain demostró la capacidad de las redes neuronales para aprender cifrado seguro . [13]

Mejora de imagen

En febrero de 2017, Google Brain determinó un método probabilístico para convertir imágenes con una resolución de 8x8 a una resolución de 32x32. [15] [16] El método se basó en un modelo probabilístico ya existente llamado pixelCNN para generar traducciones de píxeles. [17] [18]

El software propuesto utiliza dos redes neuronales para realizar aproximaciones de la composición de píxeles de las imágenes traducidas. [16] [19] La primera red, conocida como la "red de acondicionamiento", reduce el tamaño de las imágenes de alta resolución a 8x8 e intenta crear asignaciones de la imagen original de 8x8 a estas imágenes de mayor resolución. [16] La otra red, conocida como la "red anterior", utiliza las asignaciones de la red anterior para agregar más detalles a la imagen original. [16] La imagen traducida resultante no es la misma imagen en mayor resolución, sino más bien una estimación de resolución de 32x32 basada en otras imágenes de alta resolución existentes. [16] Los resultados de Google Brain indican la posibilidad de que las redes neuronales mejoren las imágenes. [20]

Google Translate

El equipo de Google Brain contribuyó al proyecto Google Translate empleando un nuevo sistema de aprendizaje profundo que combina redes neuronales artificiales con vastas bases de datos de textos multilingües . [21] En septiembre de 2016, se lanzó Google Neural Machine Translation (GNMT), un marco de aprendizaje de extremo a extremo, capaz de aprender de una gran cantidad de ejemplos. [21] Anteriormente, el enfoque de traducción automática basada en frases (PBMT) de Google Translate analizaría estadísticamente palabra por palabra e intentaría hacer coincidir las palabras correspondientes en otros idiomas sin considerar las frases circundantes en la oración. [22] Pero en lugar de elegir un reemplazo para cada palabra individual en el idioma deseado, GNMT evalúa segmentos de palabras en el contexto del resto de la oración para elegir reemplazos más precisos. [2] En comparación con los modelos PBMT más antiguos, el modelo GNMT obtuvo una mejora del 24% en la similitud con la traducción humana, con una reducción del 60% en los errores. [2] [21] El GNMT también ha mostrado una mejora significativa para traducciones notoriamente difíciles, como del chino al inglés . [21]

Si bien la introducción del GNMT ha aumentado la calidad de las traducciones de Google Translate para los idiomas piloto, fue muy difícil crear tales mejoras para todos sus 103 idiomas. Para abordar este problema, el equipo de Google Brain pudo desarrollar un sistema GNMT multilingüe , que amplió el anterior al permitir traducciones entre múltiples idiomas. Además, permite traducciones Zero-Shot, que son traducciones entre dos idiomas que el sistema nunca había visto explícitamente antes. [23] Google anunció que Google Translate ahora también puede traducir sin transcribir, utilizando redes neuronales. Esto significa que es posible traducir el habla en un idioma directamente a texto en otro idioma, sin transcribirlo primero a texto.

Según los investigadores de Google Brain, este paso intermedio se puede evitar utilizando redes neuronales. Para que el sistema aprendiera esto, lo expusieron a muchas horas de audio en español junto con el texto correspondiente en inglés. Las diferentes capas de redes neuronales, replicando el cerebro humano, fueron capaces de unir las partes correspondientes y posteriormente manipular la forma de onda del audio hasta transformarla en texto en inglés. [24] Otro inconveniente del modelo GNMT es que hace que el tiempo de traducción aumente exponencialmente con el número de palabras de la oración. [2] Esto hizo que el equipo de Google Brain añadiera 2000 procesadores más para garantizar que el nuevo proceso de traducción siguiera siendo rápido y fiable. [22]

Robótica

Con el objetivo de mejorar los algoritmos de control robótico tradicionales donde las nuevas habilidades de un robot necesitan ser programadas manualmente , los investigadores de robótica de Google Brain están desarrollando técnicas de aprendizaje automático para permitir que los robots aprendan nuevas habilidades por sí mismos. [25] También intentan desarrollar formas de compartir información entre robots para que los robots puedan aprender unos de otros durante su proceso de aprendizaje, también conocido como robótica en la nube . [26] Como resultado, Google lanzó la Plataforma de Robótica en la Nube de Google para desarrolladores en 2019, un esfuerzo por combinar la robótica , la IA y la nube para permitir una automatización robótica eficiente a través de robots colaborativos conectados a la nube. [26]

La investigación en robótica en Google Brain se ha centrado principalmente en mejorar y aplicar algoritmos de aprendizaje profundo para permitir que los robots completen tareas aprendiendo de la experiencia, la simulación, las demostraciones humanas y/o las representaciones visuales. [27] [28] [29] [30] Por ejemplo, los investigadores de Google Brain demostraron que los robots pueden aprender a recoger y lanzar objetos rígidos en cajas seleccionadas experimentando en un entorno sin estar preprogramados para hacerlo. [27] En otra investigación, los investigadores entrenaron a los robots para que aprendieran comportamientos como verter líquido de una taza; los robots aprendieron de videos de demostraciones humanas grabadas desde múltiples puntos de vista. [29]

Los investigadores de Google Brain han colaborado con otras empresas e instituciones académicas en la investigación sobre robótica. En 2016, el equipo de Google Brain colaboró ​​con investigadores de X en una investigación sobre el aprendizaje de la coordinación mano-ojo para el agarre robótico. [31] Su método permitió el control del robot en tiempo real para agarrar objetos nuevos con autocorrección. [31] En 2020, investigadores de Google Brain, Intel AI Lab y UC Berkeley crearon un modelo de IA para que los robots aprendieran tareas relacionadas con la cirugía, como suturar, a partir del entrenamiento con videos de cirugía. [30]

Reconocimiento interactivo de hablantes con aprendizaje de refuerzo

En 2020, el equipo de Google Brain y la Universidad de Lille presentaron un modelo de reconocimiento automático de hablantes al que llamaron Interactive Speaker Recognition. El módulo ISR reconoce a un hablante de una lista determinada de hablantes solo solicitando unas pocas palabras específicas del usuario. [32] El modelo se puede modificar para elegir segmentos de voz en el contexto del entrenamiento de texto a voz . [32] También puede evitar que los generadores de voz maliciosos accedan a los datos. [32]

Flujo tensorial

TensorFlow es una biblioteca de software de código abierto impulsada por Google Brain que permite a cualquier persona utilizar el aprendizaje automático al proporcionar las herramientas para entrenar su propia red neuronal. [2] La herramienta se ha utilizado para desarrollar software que utiliza modelos de aprendizaje profundo que los agricultores utilizan para reducir la cantidad de trabajo manual necesario para clasificar su producción, entrenándolo con un conjunto de datos de imágenes clasificadas por humanos. [2]

Magenta

Magenta es un proyecto que utiliza Google Brain para crear nueva información en forma de arte y música en lugar de clasificar y ordenar datos existentes. [2] TensorFlow se actualizó con un conjunto de herramientas para que los usuarios guíen a la red neuronal para crear imágenes y música. [2] Sin embargo, el equipo de la Universidad Estatal de Valdosta descubrió que la IA tiene dificultades para replicar perfectamente la intención humana en el arte , de forma similar a los problemas que se enfrentan en la traducción . [2]

Aplicaciones médicas

Las capacidades de clasificación de imágenes de Google Brain se han utilizado para ayudar a detectar ciertas afecciones médicas mediante la búsqueda de patrones que los médicos humanos pueden no notar para proporcionar un diagnóstico más temprano. [2] Durante la detección del cáncer de mama, se descubrió que este método tenía una cuarta parte de la tasa de falsos positivos de los patólogos humanos, que necesitan más tiempo para revisar cada foto y no pueden concentrarse por completo en esta única tarea. [2] Debido al entrenamiento muy específico de la red neuronal para una sola tarea, no puede identificar otras afecciones presentes en una foto que un humano podría detectar fácilmente. [2]

Transformador

La arquitectura de aprendizaje profundo del transformador fue inventada por los investigadores de Google Brain en 2017 y explicada en el artículo científico Attention Is All You Need . [33] Google posee una patente sobre esta arquitectura ampliamente utilizada, pero no la ha aplicado. [34] [35]

Modelo de texto a imagen

Google Brain anunció en 2022 que creó dos tipos diferentes de modelos de texto a imagen llamados Imagen y Parti que compiten con DALL-E de OpenAI . [36] [37]

Más tarde, en 2022, el proyecto se amplió a texto a vídeo. [38]

Otros productos de Google

La tecnología de los proyectos Google Brain se utiliza actualmente en varios otros productos de Google, como el sistema de reconocimiento de voz del sistema operativo Android , la búsqueda de fotografías de Google Photos , la respuesta inteligente en Gmail y las recomendaciones de vídeos en YouTube . [39] [40] [41]

Recepción

Google Brain ha recibido cobertura en Wired , [42] [43] [44] NPR , [5] y Big Think . [45] Estos artículos han contenido entrevistas con miembros clave del equipo Ray Kurzweil y Andrew Ng, y se centran en explicaciones de los objetivos y aplicaciones del proyecto. [42] [5] [45]

Controversias

En diciembre de 2020, la especialista en ética de la IA Timnit Gebru dejó Google. [46] Si bien se discute la naturaleza exacta de su renuncia o su despido, la causa de su salida fue su negativa a retractarse de un artículo titulado " Sobre los peligros de los loros estocásticos: ¿pueden los modelos lingüísticos ser demasiado grandes? " y un ultimátum relacionado que hizo, estableciendo condiciones que se cumplirían de lo contrario se iría. [46] Este artículo exploró los riesgos potenciales del crecimiento de la IA como Google Brain, incluido el impacto ambiental, los sesgos en los datos de entrenamiento y la capacidad de engañar al público. [46] [47] La ​​solicitud de retractarse del artículo fue realizada por Megan Kacholia, vicepresidenta de Google Brain. [48] En abril de 2021, casi 7000 empleados actuales o anteriores de Google y partidarios de la industria han firmado una carta abierta acusando a Google de "censura de la investigación" y condenando el trato a Gebru en la empresa. [49 ]

En febrero de 2021, Google despidió a una de las líderes del equipo de ética de IA de la empresa, Margaret Mitchell . [48] La declaración de la empresa alegó que Mitchell había infringido la política de la empresa al utilizar herramientas automatizadas para encontrar apoyo para Gebru. [48] En el mismo mes, los ingenieros ajenos al equipo de ética empezaron a dimitir, citando el despido de Gebru como motivo de su marcha. [50] En abril de 2021, el cofundador de Google Brain, Samy Bengio, anunció su dimisión de la empresa. [11] A pesar de ser el manager de Gebru, Bengio no fue notificado antes de su despido, y publicó en línea su apoyo tanto a ella como a Mitchell. [11] Aunque el anuncio de Bengio se centró en el crecimiento personal como motivo de su marcha, fuentes anónimas indicaron a Reuters que la agitación dentro del equipo de ética de la IA influyó en sus consideraciones. [11]

En marzo de 2022, Google despidió al investigador de IA Satrajit Chatterjee después de que cuestionara los hallazgos de un artículo publicado en Nature , por los miembros del equipo de IA de Google, Anna Goldie y Azalia Mirhoseini. [51] [52] Este artículo informó buenos resultados del uso de técnicas de IA (en particular, aprendizaje de refuerzo) para el problema de colocación de circuitos integrados . [53] Sin embargo, este resultado es bastante controvertido, [54] [55] [56] ya que el artículo no contiene comparaciones directas con colocadores existentes y es difícil de replicar debido al contenido propietario. Al menos un comentario inicialmente favorable ha sido retractado tras una revisión adicional, [57] y el artículo está siendo investigado por Nature. [58]

Véase también

Referencias

  1. ^ "¿Qué es Google Brain?". GeeksforGeeks . 2020-02-06 . Consultado el 2021-04-09 .
  2. ^ abcdefghijklm Helms, Mallory; Ault, Shaun V.; Mao, Guifen; Wang, Jin (9 de marzo de 2018). "Una descripción general de Google Brain y sus aplicaciones". Actas de la Conferencia internacional de 2018 sobre Big Data y educación . ICBDE '18. Honolulu, HI, EE. UU.: Association for Computing Machinery. págs. 72–75. doi :10.1145/3206157.3206175. ISBN 978-1-4503-6358-7. Número de identificación del sujeto  44107806.
  3. ^ ab Markoff, John (25 de junio de 2012). "¿Cuántas computadoras se necesitan para identificar un gato? 16.000". The New York Times . Consultado el 11 de febrero de 2014 .
  4. ^ Conor Dougherty (16 de febrero de 2015). "Astro Teller, el 'capitán de los proyectos a la luna' de Google, habla sobre cómo obtener beneficios en Google X" . Consultado el 25 de octubre de 2015 .
  5. ^ abc «Una red masiva de Google aprende a identificar gatos». National Public Radio . 26 de junio de 2012 . Consultado el 11 de febrero de 2014 .
  6. ^ "Google adquiere la start-up de redes neuronales de la Universidad de Toronto" (Comunicado de prensa). Toronto, Ontario. 12 de marzo de 2013. Consultado el 13 de marzo de 2013 .
  7. ^ Roth, Emma; Peters, Jay (20 de abril de 2023). «El gran impulso de Google en materia de inteligencia artificial combinará a Brain y DeepMind en un solo equipo». The Verge . Archivado desde el original el 20 de abril de 2023. Consultado el 21 de abril de 2023 .
  8. ^ ab "Brain Team – Investigación de Google". Investigación de Google . Consultado el 8 de abril de 2021 .
  9. ^ Etherington, Darrell (14 de agosto de 2017). «Chris Lattner, creador de Swift, se une a Google Brain después de su paso por Tesla Autopilot». TechCrunch . Consultado el 11 de octubre de 2017 .
  10. ^ "Chris Lattner, ex ingeniero de Google y Tesla, liderará el equipo de ingeniería de la plataforma SiFive". www.businesswire.com . 2020-01-27 . Consultado el 2021-04-09 .
  11. ^ abcd Dave, Jeffrey Dastin, Paresh (7 de abril de 2021). "El científico de inteligencia artificial de Google, Bengio, dimite tras el despido de sus colegas: correo electrónico". Reuters . Consultado el 8 de abril de 2021 .{{cite news}}: CS1 maint: varios nombres: lista de autores ( enlace )
  12. ^ "Build for Everyone – Google Careers". careers.google.com . Consultado el 8 de abril de 2021 .
  13. ^ abc Zhu, Y.; Vargas, DV; Sakurai, K. (noviembre de 2018). "Criptografía neuronal basada en la topología de redes neuronales en evolución". Sexto Simposio Internacional sobre Talleres de Computación y Redes (CANDARW) de 2018. págs. 472–478. doi :10.1109/CANDARW.2018.00091. ISBN 978-1-5386-9184-7.S2CID57192497  .​
  14. ^ ab Abadi, Martín; Andersen, David G. (2016). "Aprendiendo a proteger las comunicaciones con criptografía neuronal adversarial". ICLR . arXiv : 1610.06918 . Código Bibliográfico :2016arXiv161006918A.
  15. ^ Dahl, Ryan; Norouzi, Mohammad; Shlens, Jonathon (2017). "Superresolución recursiva de píxeles". ICCV . arXiv : 1702.00783 . Código Bibliográfico :2017arXiv170200783D.
  16. ^ abcde "La tecnología de imágenes de súper resolución de Google Brain hace que el "¡zoom y mejora!" sea real". arstechnica.co.uk . 2017-02-07 . Consultado el 2017-05-15 .
  17. ^ Bulat, Adrian; Yang, Jing; Tzimiropoulos, Georgios (2018), "Para aprender la súper resolución de imágenes, use una GAN para aprender a hacer la degradación de imágenes primero", Computer Vision – ECCV 2018 , Lecture Notes in Computer Science, vol. 11210, Cham: Springer International Publishing, págs. 187–202, arXiv : 1807.11458 , doi :10.1007/978-3-030-01231-1_12, ISBN 978-3-030-01230-4, S2CID  51882734 , consultado el 9 de abril de 2021
  18. ^ Oord, Aaron Van; Kalchbrenner, Nal; Kavukcuoglu, Koray (11 de junio de 2016). "Redes neuronales recurrentes de píxeles". Conferencia internacional sobre aprendizaje automático . PMLR: 1747–1756. arXiv : 1601.06759 .
  19. ^ "Google usa IA para mejorar la nitidez de las imágenes de baja resolución". engadget.com . 7 de febrero de 2017 . Consultado el 15 de mayo de 2017 .
  20. ^ "Google acaba de hacer realidad la función 'zoom y mejora', más o menos". cnet.com . Consultado el 15 de mayo de 2017 .
  21. ^ abcd Castelvecchi, Davide (2016). "El aprendizaje profundo potencia la herramienta Google Translate". Nature News . doi :10.1038/nature.2016.20696. S2CID  64308242.
  22. ^ ab Lewis-Kraus, Gideon (14 de diciembre de 2016). "El gran despertar de la IA". The New York Times . ISSN  0362-4331 . Consultado el 8 de abril de 2021 .
  23. ^ Johnson, Melvin; Schuster, Mike; Le, Quoc V.; Krikun, Maxim; Wu, Yonghui; Chen, Zhifeng; Thorat, Nikhil; Viégas, Fernanda; Wattenberg, Martin; Corrado, Greg; Hughes, Macduff (1 de octubre de 2017). "Sistema de traducción automática neuronal multilingüe de Google: habilitación de la traducción sin interrupciones". Transacciones de la Asociación de Lingüística Computacional . 5 : 339–351. arXiv : 1611.04558 . doi : 10.1162/tacl_a_00065 . ISSN  2307-387X.
  24. ^ Reynolds, Matt. «Google utiliza redes neuronales para traducir sin transcribir». New Scientist . Consultado el 15 de mayo de 2017 .
  25. ^ Metz, Cade; Dawson, Brian; Felling, Meg (26 de marzo de 2019). "Dentro del programa de robótica reiniciado de Google". The New York Times . ISSN  0362-4331 . Consultado el 8 de abril de 2021 .
  26. ^ ab "Google Cloud Robotics Platform llegará a los desarrolladores en 2019". The Robot Report . 2018-10-24 . Consultado el 2021-04-08 .
  27. ^ ab Zeng, A.; Song, S.; Lee, J.; Rodríguez, A.; Funkhouser, T. (agosto de 2020). "TossingBot: Aprendiendo a lanzar objetos arbitrarios con física residual". IEEE Transactions on Robotics . 36 (4): 1307–1319. arXiv : 1903.11239 . doi : 10.1109/TRO.2020.2988642 . ISSN  1941-0468.
  28. ^ Gu, S.; Holly, E.; Lillicrap, T.; Levine, S. (mayo de 2017). "Aprendizaje de refuerzo profundo para manipulación robótica con actualizaciones asincrónicas fuera de política". Conferencia internacional IEEE sobre robótica y automatización (ICRA) de 2017. págs. 3389–3396. arXiv : 1610.00633 . doi :10.1109/ICRA.2017.7989385. ISBN 978-1-5090-4633-1.S2CID 18389147  .
  29. ^ ab Sermanet, P.; Lynch, C.; Chebotar, Y.; Hsu, J.; Jang, E.; Schaal, S.; Levine, S.; Brain, G. (mayo de 2018). "Redes contrastivas en el tiempo: aprendizaje autosupervisado a partir de video". Conferencia internacional IEEE sobre robótica y automatización (ICRA) de 2018. págs. 1134–1141. arXiv : 1704.06888 . doi :10.1109/ICRA.2018.8462891. ISBN 978-1-5386-3081-5.S2CID 3997350  .
  30. ^ ab Tanwani, AK; Sermanet, P.; Yan, A.; Anand, R.; Phielipp, M.; Goldberg, K. (mayo de 2020). "Motion2Vec: aprendizaje de representación semisupervisado a partir de videos quirúrgicos". Conferencia internacional IEEE sobre robótica y automatización (ICRA) de 2020. págs. 2174–2181. arXiv : 2006.00545 . doi :10.1109/ICRA40945.2020.9197324. ISBN 978-1-7281-7395-5.S2CID219176734  .​
  31. ^ ab Levine, Sergey; Pastor, Peter; Krizhevsky, Alex; Ibarz, Julian; Quillen, Deirdre (1 de abril de 2018). "Aprendizaje de la coordinación mano-ojo para el agarre robótico con aprendizaje profundo y recopilación de datos a gran escala". The International Journal of Robotics Research . 37 (4–5): 421–436. arXiv : 1603.02199 . doi : 10.1177/0278364917710318 . ISSN  0278-3649.
  32. ^ abc Seurin, Mathieu; Strub, Florian; Preux, Philippe; Pietquin, Olivier (25 de octubre de 2020). "Una máquina de pocas palabras: reconocimiento interactivo de hablantes con aprendizaje por refuerzo". Interspeech 2020. ISCA: ISCA: 4323–4327. arXiv : 2008.03127 . doi :10.21437/interspeech.2020-2892. S2CID  221083446.
  33. ^ Goldman, Sharon (20 de marzo de 2024). "Los creadores de 'Attention is All You Need' buscan inteligencia artificial más allá de Transformers en Nvidia GTC: 'El mundo necesita algo mejor'". VentureBeat .
  34. ^ Maxwell, Thomas. "Las patentes de Google cubren la tecnología de ChatGPT, pero los expertos legales afirman que no vale la pena luchar contra los rivales en los tribunales". Business Insider . Consultado el 14 de abril de 2024 .
  35. ^ Zhavoronkov, Alex (23 de enero de 2023). "¿Puede Google desafiar a OpenAI con patentes de autoatención?". Forbes . Consultado el 14 de abril de 2024 .
  36. ^ Vincent, James (24 de mayo de 2022). «Todas estas imágenes fueron generadas por la última inteligencia artificial de conversión de texto a imagen de Google». The Verge . Vox Media . Consultado el 28 de mayo de 2022 .
  37. ^ Khan, Imad. "El generador Parti de Google se basa en 20 mil millones de entradas para crear imágenes fotorrealistas". CNET . Consultado el 23 de junio de 2022 .
  38. ^ Edwards, Benj (5 de octubre de 2022). "El nuevo generador de inteligencia artificial de Google crea videos en HD a partir de indicaciones de texto". Ars Technica . Consultado el 28 de diciembre de 2022 .
  39. ^ "Cómo Google reorganizó Android con la ayuda de tu cerebro". Wired . ISSN  1059-1028 . Consultado el 8 de abril de 2021 .
  40. ^ "Google publica en código abierto la tecnología de aprendizaje automático detrás de la búsqueda de Google Fotos, la respuesta inteligente y más". TechCrunch . 9 de noviembre de 2015. Archivado desde el original el 2021-05-12 . Consultado el 2021-04-08 .
  41. ^ "Este es el plan de Google para salvar YouTube". Time . 18 de mayo de 2015.
  42. ^ ab Levy, Steven (25 de abril de 2013). "Cómo Ray Kurzweil ayudará a Google a crear el cerebro de inteligencia artificial definitivo". Wired . Consultado el 11 de febrero de 2014 .
  43. ^ Wohlsen, Marcus (27 de enero de 2014). "El gran plan de Google para que tu cerebro sea irrelevante". Wired . Consultado el 11 de febrero de 2014 .
  44. ^ Hernandez, Daniela (7 de mayo de 2013). "El hombre detrás del cerebro de Google: Andrew Ng y la búsqueda de la nueva IA". Wired . Consultado el 11 de febrero de 2014 .
  45. ^ ab "Ray Kurzweil y los cerebros detrás del cerebro de Google". Big Think . 8 de diciembre de 2013 . Consultado el 11 de febrero de 2014 .
  46. ^ abc "Hemos leído el artículo que obligó a Timnit Gebru a abandonar Google. Esto es lo que dice". MIT Technology Review . Consultado el 8 de abril de 2021 .
  47. ^ Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (3 de marzo de 2021). "Sobre los peligros de los loros estocásticos". Actas de la Conferencia de la ACM de 2021 sobre equidad, rendición de cuentas y transparencia . Evento virtual Canadá: ACM. págs. 610–623. doi : 10.1145/3442188.3445922 . ISBN . 978-1-4503-8309-7.
  48. ^ abc Schiffer, Zoe (19 de febrero de 2021). «Google despide a un segundo investigador de ética de la inteligencia artificial tras una investigación interna». The Verge . Consultado el 8 de abril de 2021 .
  49. ^ Cambio, Google abandona de verdad (15 de diciembre de 2020). "Apoyando a la Dra. Timnit Gebru — #ISupportTimnit #BelieveBlackWomen". Medium . Consultado el 8 de abril de 2021 . {{cite web}}: |first=tiene nombre genérico ( ayuda )
  50. ^ Dave, Jeffrey Dastin, Paresh (4 de febrero de 2021). "Dos ingenieros de Google dimiten tras el despido de la investigadora de ética de la inteligencia artificial Timnit Gebru". Reuters . Consultado el 8 de abril de 2021 .{{cite news}}: CS1 maint: varios nombres: lista de autores ( enlace )
  51. ^ Wakabayashi, Daisuke; Metz, Cade (2 de mayo de 2022). "Otro despido en el equipo de expertos en inteligencia artificial de Google y más discordia". The New York Times . ISSN  0362-4331 . Consultado el 12 de junio de 2022 .
  52. ^ Simonite, Tom. "Tensión dentro de Google por la conducta de un investigador de inteligencia artificial despedido". Wired . ISSN  1059-1028 . Consultado el 12 de junio de 2022 .
  53. ^ Azalia Mirhoseini, Anna Goldie, Mustafa Yazgan (2021). "Una metodología de colocación de grafos para el diseño rápido de chips". Nature . 594 (7862): 207–212. arXiv : 2004.10746 . Código Bibliográfico :2021Natur.594..207M. doi :10.1038/s41586-021-03544-w. PMID  34108699.{{cite journal}}: CS1 maint: varios nombres: lista de autores ( enlace )
  54. ^ Cheng, Chung-Kuan, Andrew B. Kahng, Sayak Kundu, Yucheng Wang y Zhiang Wang (marzo de 2023). "Evaluación del aprendizaje por refuerzo para la colocación macro". Actas del Simposio internacional sobre diseño físico de 2023 : 158-166. arXiv : 2302.11014 . doi :10.1145/3569052.3578926. ISBN 978-1-4503-9978-4.{{cite journal}}: CS1 maint: varios nombres: lista de autores ( enlace )
  55. ^ Igor L. Markov. "El falso amanecer: reevaluación del aprendizaje por refuerzo de Google para la colocación de macrochips". arXiv : 2306.09633 .
  56. ^ Agam Shah (3 de octubre de 2023). "El controvertido artículo sobre el chip de inteligencia artificial de Google vuelve a estar bajo escrutinio".
  57. ^ Kahng, Andrew B. (2021). "ARTÍCULO RETRACTIVO: Un sistema de IA supera a los humanos en el diseño de planos de planta para microchips". Nature . 594 (7862): 183–185. Bibcode :2021Natur.594..183K. doi :10.1038/d41586-021-01515-9. PMID  34108693.
  58. ^ "Nature expresa dudas sobre el estudio de inteligencia artificial de Google y retira comentarios". Retraction Watch. 26 de septiembre de 2023.