Google Brain era un equipo de investigación de inteligencia artificial de aprendizaje profundo bajo el paraguas de Google AI , una división de investigación de Google dedicada a la inteligencia artificial. Fundada en 2011, Google Brain combinó la investigación abierta sobre aprendizaje automático con sistemas de información y recursos informáticos a gran escala. [1] El equipo ha creado herramientas como TensorFlow , que permiten que el público utilice redes neuronales, con múltiples proyectos internos de investigación de IA. [2] El equipo tiene como objetivo crear oportunidades de investigación en aprendizaje automático y procesamiento del lenguaje natural . [2] El equipo se fusionó con la antigua empresa hermana de Google, DeepMind, para formar Google DeepMind en abril de 2023.
El proyecto Google Brain comenzó en 2011 como una colaboración de investigación a tiempo parcial entre el compañero de Google Jeff Dean , el investigador de Google Greg Corrado y el profesor de la Universidad de Stanford Andrew Ng . [3] Ng había estado interesado en utilizar técnicas de aprendizaje profundo para resolver el problema de la inteligencia artificial desde 2006, y en 2011 comenzó a colaborar con Dean y Corrado para construir un sistema de software de aprendizaje profundo a gran escala, DistBelief , [4] además de La infraestructura de computación en la nube de Google. Google Brain comenzó como un proyecto de Google X y tuvo tanto éxito que volvió a formar parte de Google: Astro Teller ha dicho que Google Brain pagó el coste total de Google X. [5]
En junio de 2012, el New York Times informó que un grupo de 16.000 procesadores en 1.000 computadoras dedicadas a imitar algunos aspectos de la actividad cerebral humana se había entrenado con éxito para reconocer un gato basándose en 10 millones de imágenes digitales tomadas de videos de YouTube . [3] La historia también fue cubierta por la Radio Pública Nacional . [6]
En marzo de 2013, Google contrató a Geoffrey Hinton , un investigador líder en el campo del aprendizaje profundo , y adquirió la empresa DNNResearch Inc. dirigida por Hinton. Hinton dijo que dividiría su tiempo futuro entre su investigación universitaria y su trabajo en Google. [7]
En abril de 2023, Google Brain se fusionó con la empresa hermana de Google, DeepMind, para formar Google DeepMind , como parte de los continuos esfuerzos de la empresa para acelerar el trabajo en IA. [8]
Google Brain fue creado inicialmente por Jeff Dean , miembro de Google, y Andrew Ng, profesor visitante de Stanford . En 2014, el equipo incluía a Jeff Dean , Quoc Le , Ilya Sutskever , Alex Krizhevsky , Samy Bengio y Vincent Vanhoucke. En 2017, los miembros del equipo incluyeron a Anelia Angelova, Samy Bengio , Greg Corrado, George Dahl, Michael Isard, Anjuli Kannan, Hugo Larochelle, Chris Olah, Salih Edneer, Benoit Steiner, Vincent Vanhoucke, Vijay Vasudevan y Fernanda Viegas . [9] Chris Lattner , quien creó el lenguaje de programación Swift de Apple y luego dirigió el equipo de autonomía de Tesla durante seis meses, se unió al equipo de Google Brain en agosto de 2017. [10] Lattner dejó el equipo en enero de 2020 y se unió a SiFive . [11]
En 2021 [actualizar], Google Brain estaba dirigido por Jeff Dean , Geoffrey Hinton y Zoubin Ghahramani . Otros miembros incluyen a Katherine Heller, Pi-Chuan Chang, Ian Simon, Jean-Philippe Vert, Nevena Lazic, Anelia Angelova, Lukasz Kaiser, Carrie Jun Cai, Eric Breck, Ruoming Pang, Carlos Riquelme, Hugo Larochelle y David Ha. [9] Samy Bengio dejó el equipo en abril de 2021, [12] y Zoubin Ghahramani asumió sus responsabilidades.
Google Research incluye Google Brain y tiene su sede en Mountain View, California . También cuenta con grupos satélite en Accra , Amsterdam , Atlanta , Beijing , Berlín , Cambridge ( Massachusetts) , Israel , Los Ángeles , Londres , Montreal , Munich , Nueva York , París , Pittsburgh , Princeton , San Francisco , Seattle , Tokio , Toronto . y Zúrich . [13]
En octubre de 2016, Google Brain diseñó un experimento para determinar que las redes neuronales son capaces de aprender un cifrado simétrico seguro . [14] En este experimento, se crearon tres redes neuronales : Alice, Bob y Eve. [15] Siguiendo la idea de una red generativa adversarial (GAN), el objetivo del experimento era que Alice enviara un mensaje cifrado a Bob que Bob podía descifrar, pero el adversario, Eve, no. [15] Alice y Bob mantuvieron una ventaja sobre Eve, ya que compartían una clave utilizada para el cifrado y descifrado . [14] Al hacerlo, Google Brain demostró la capacidad de las redes neuronales para aprender cifrado seguro . [14]
En febrero de 2017, Google Brain determinó un método probabilístico para convertir imágenes con una resolución de 8x8 a una resolución de 32x32. [16] [17] El método se basó en un modelo probabilístico ya existente llamado pixelCNN para generar traducciones de píxeles. [18] [19]
El software propuesto utiliza dos redes neuronales para realizar aproximaciones a la composición de píxeles de las imágenes traducidas. [17] [20] La primera red, conocida como "red de acondicionamiento", reduce el tamaño de las imágenes de alta resolución a 8x8 e intenta crear asignaciones de la imagen original de 8x8 a estas de mayor resolución. [17] La otra red, conocida como "red anterior", utiliza las asignaciones de la red anterior para agregar más detalles a la imagen original. [17] La imagen traducida resultante no es la misma imagen en mayor resolución, sino más bien una estimación de resolución de 32x32 basada en otras imágenes de alta resolución existentes. [17] Los resultados de Google Brain indican la posibilidad de que las redes neuronales mejoren las imágenes. [21]
El equipo de Google Brain contribuyó al proyecto Google Translate empleando un nuevo sistema de aprendizaje profundo que combina redes neuronales artificiales con vastas bases de datos de textos multilingües . [22] En septiembre de 2016, se lanzó Google Neural Machine Translation ( GNMT ), un marco de aprendizaje de un extremo a otro, capaz de aprender de una gran cantidad de ejemplos. [22] Anteriormente, el enfoque de traducción automática basada en frases (PBMT) de Google Translate analizaba estadísticamente palabra por palabra e intentaba hacer coincidir las palabras correspondientes en otros idiomas sin considerar las frases circundantes en la oración. [23] Pero en lugar de elegir un reemplazo para cada palabra individual en el idioma deseado, GNMT evalúa segmentos de palabras en el contexto del resto de la oración para elegir reemplazos más precisos. [2] En comparación con los modelos PBMT más antiguos, el modelo GNMT obtuvo una mejora del 24 % en similitud con la traducción humana, con una reducción del 60 % en errores. [2] [22] La GNMT también ha mostrado una mejora significativa en traducciones notoriamente difíciles, como del chino al inglés . [22]
Si bien la introducción del GNMT ha aumentado la calidad de las traducciones de Google Translate para los idiomas piloto, fue muy difícil crear tales mejoras para los 103 idiomas. Para abordar este problema, el equipo de Google Brain pudo desarrollar un sistema GNMT multilingüe , que amplió el anterior al permitir traducciones entre varios idiomas. Además, permite traducciones Zero-Shot, que son traducciones entre dos idiomas que el sistema nunca antes había visto explícitamente. [24] Google anunció que Google Translate ahora también puede traducir sin transcribir, utilizando redes neuronales. Esto significa que es posible traducir el habla en un idioma directamente a texto en otro idioma, sin necesidad de transcribirlo primero a texto.
Según los investigadores de Google Brain, este paso intermedio se puede evitar utilizando redes neuronales. Para que el sistema aprendiera esto, lo expusieron a muchas horas de audio en español junto con el correspondiente texto en inglés. Las diferentes capas de redes neuronales, replicando el cerebro humano, pudieron vincular las partes correspondientes y posteriormente manipular la forma de onda de audio hasta transformarla en texto en inglés. [25] Otro inconveniente del modelo GNMT es que hace que el tiempo de traducción aumente exponencialmente con el número de palabras en la oración. [2] Esto provocó que el equipo de Google Brain agregara 2000 procesadores más para garantizar que el nuevo proceso de traducción siguiera siendo rápido y confiable. [23]
Con el objetivo de mejorar los algoritmos de control de la robótica tradicional, en los que las nuevas habilidades de un robot deben programarse manualmente , los investigadores de robótica de Google Brain están desarrollando técnicas de aprendizaje automático para permitir que los robots aprendan nuevas habilidades por sí solos. [26] También intentan desarrollar formas de compartir información entre robots para que puedan aprender unos de otros durante su proceso de aprendizaje, también conocido como robótica en la nube . [27] Como resultado, Google lanzó la plataforma Google Cloud Robotics para desarrolladores en 2019, un esfuerzo por combinar la robótica , la inteligencia artificial y la nube para permitir una automatización robótica eficiente a través de robots colaborativos conectados a la nube. [27]
La investigación en robótica en Google Brain se ha centrado principalmente en mejorar y aplicar algoritmos de aprendizaje profundo para permitir que los robots completen tareas aprendiendo de la experiencia, la simulación, las demostraciones humanas y/o las representaciones visuales. [28] [29] [30] [31] Por ejemplo, los investigadores de Google Brain demostraron que los robots pueden aprender a recoger y lanzar objetos rígidos en cajas seleccionadas experimentando en un entorno sin estar preprogramados para hacerlo. [28] En otra investigación, los investigadores entrenaron robots para aprender comportamientos como verter líquido de una taza; Los robots aprendieron de videos de demostraciones humanas grabadas desde múltiples puntos de vista. [30]
Los investigadores de Google Brain han colaborado con otras empresas e instituciones académicas en la investigación de robótica. En 2016, el equipo de Google Brain colaboró con investigadores de X en una investigación sobre el aprendizaje de la coordinación mano-ojo para el agarre robótico. [32] Su método permitió el control del robot en tiempo real para agarrar objetos novedosos con autocorrección. [32] En 2020, investigadores de Google Brain, Intel AI Lab y UC Berkeley crearon un modelo de inteligencia artificial para que los robots aprendan tareas relacionadas con la cirugía, como la sutura, a partir del entrenamiento con videos de cirugía. [31]
En 2020, Google Brain Team y la Universidad de Lille presentaron un modelo de reconocimiento automático de hablantes al que denominaron Reconocimiento interactivo de hablantes. El módulo ISR reconoce a un orador de una lista determinada de oradores solo solicitando algunas palabras específicas del usuario. [33] El modelo se puede modificar para elegir segmentos de voz en el contexto del entrenamiento de texto a voz . [33] También puede evitar que generadores de voz maliciosos accedan a los datos. [33]
TensorFlow es una biblioteca de software de código abierto impulsada por Google Brain que permite a cualquiera utilizar el aprendizaje automático al proporcionar las herramientas para entrenar su propia red neuronal. [2] La herramienta se ha utilizado para desarrollar software utilizando modelos de aprendizaje profundo que los agricultores utilizan para reducir la cantidad de trabajo manual necesario para clasificar su rendimiento, entrenándolo con un conjunto de datos de imágenes clasificadas por humanos. [2]
Magenta es un proyecto que utiliza Google Brain para crear nueva información en forma de arte y música en lugar de clasificar y ordenar datos existentes. [2] TensorFlow se actualizó con un conjunto de herramientas para que los usuarios guíen la red neuronal para crear imágenes y música. [2] Sin embargo, el equipo de la Universidad Estatal de Valdosta descubrió que la IA tiene dificultades para replicar perfectamente la intención humana en el arte , de manera similar a los problemas que enfrenta en la traducción . [2]
Las capacidades de clasificación de imágenes de Google Brain se han utilizado para ayudar a detectar ciertas afecciones médicas mediante la búsqueda de patrones que los médicos humanos pueden no notar para proporcionar un diagnóstico más temprano. [2] Durante la detección del cáncer de mama, se descubrió que este método tiene una cuarta parte de la tasa de falsos positivos de los patólogos humanos, quienes requieren más tiempo para revisar cada fotografía y no pueden dedicar toda su atención a esta única tarea. [2] Debido al entrenamiento muy específico de la red neuronal para una sola tarea, no puede identificar otras aflicciones presentes en una fotografía que un humano podría detectar fácilmente. [2]
Google Brain anunció en 2022 que creó dos tipos diferentes de modelos de conversión de texto a imagen llamados Imagen y Parti que compiten con DALL-E de OpenAI . [34] [35]
Posteriormente, en 2022, el proyecto se amplió a la conversión de texto a vídeo. [36]
La tecnología de los proyectos Google Brain se utiliza actualmente en varios otros productos de Google, como el sistema de reconocimiento de voz del sistema operativo Android , la búsqueda de fotografías en Google Photos , la respuesta inteligente en Gmail y las recomendaciones de vídeos en YouTube . [37] [38] [39]
Google Brain ha recibido cobertura en Wired , [40] [41] [42] NPR , [6] y Big Think . [43] Estos artículos contienen entrevistas con miembros clave del equipo, Ray Kurzweil y Andrew Ng, y se centran en explicaciones de los objetivos y aplicaciones del proyecto. [40] [6] [43]
En diciembre de 2020, el especialista en ética de la inteligencia artificial Timnit Gebru dejó Google. [44] Si bien se discute la naturaleza exacta de su renuncia o de su despido, la causa de su partida fue su negativa a retractarse de un artículo titulado " Sobre los peligros de los loros estocásticos: ¿pueden los modelos lingüísticos ser demasiado grandes? " [44] Este artículo exploró los riesgos potenciales del crecimiento de la IA como Google Brain, incluido el impacto ambiental, los sesgos en los datos de entrenamiento y la capacidad de engañar al público. [44] [45] La solicitud de retractación del artículo fue realizada por Megan Kacholia, vicepresidenta de Google Brain. [46] En abril de 2021, casi 7000 empleados actuales o anteriores de Google y partidarios de la industria firmaron una carta abierta acusando a Google de "censura de la investigación" y condenando el trato dado a Gebru en la empresa. [47]
En febrero de 2021, Google despidió a una de las líderes del equipo de ética de IA de la empresa, Margaret Mitchell . [46] La declaración de la compañía alegaba que Mitchell había violado la política de la compañía al utilizar herramientas automatizadas para encontrar apoyo para Gebru. [46] En el mismo mes, ingenieros fuera del equipo de ética comenzaron a renunciar, citando el despido de Gebru como su razón para irse. [48] En abril de 2021, el cofundador de Google Brain, Samy Bengio , anunció su renuncia a la empresa. [12] A pesar de ser el gerente de Gebru, Bengio no fue notificado antes de su despido, y publicó en línea en apoyo tanto a ella como a Mitchell. [12] Si bien el anuncio de Bengio se centró en el crecimiento personal como razón para irse, fuentes anónimas indicaron a Reuters que la agitación dentro del equipo de ética de la IA jugó un papel en sus consideraciones. [12]
En marzo de 2022, Google despidió al investigador de IA Satrajit Chatterjee después de que cuestionara los hallazgos de un artículo publicado en Nature por los miembros del equipo de IA de Google, Anna Goldie y Azalia Mirhoseini. [49] [50] Este artículo informó buenos resultados del uso de técnicas de IA (en particular, aprendizaje por refuerzo) para el problema de ubicación de circuitos integrados . [51] Sin embargo, este resultado es bastante controvertido, [52] [53] [54] ya que el artículo no contiene comparaciones directas con los colocadores existentes y es difícil de replicar debido al contenido patentado. Al menos un comentario inicialmente favorable ha sido retractado tras una revisión adicional, [55] y el artículo está siendo investigado por Nature. [56]
{{cite news}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace ){{cite journal}}
: Citar diario requiere |journal=
( ayuda ){{cite journal}}
: Citar diario requiere |journal=
( ayuda ){{cite web}}
: |first=
tiene nombre genérico ( ayuda ){{cite news}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace ){{cite journal}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace ){{cite journal}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace )