DeepMind Technologies Limited , también conocida por su nombre comercial Google DeepMind , es un laboratorio de investigación de inteligencia artificial británico-estadounidense que funciona como subsidiaria de Google . Fundada en el Reino Unido en 2010, fue adquirida por Google en 2014 [8] y se fusionó con la división Google Brain de Google AI para convertirse en Google DeepMind en abril de 2023. La empresa tiene su sede en Londres , con centros de investigación en Canadá, [9] Francia, [10] Alemania y Estados Unidos.
DeepMind introdujo las máquinas de Turing neuronales (redes neuronales que pueden acceder a la memoria externa como una máquina de Turing convencional ), [11] dando como resultado una computadora que se asemeja vagamente a la memoria de corto plazo del cerebro humano. [12] [13]
DeepMind ha creado modelos de redes neuronales para jugar a videojuegos y juegos de mesa . Fue noticia en 2016 después de que su programa AlphaGo venciera a un jugador profesional de Go humano, Lee Sedol , campeón mundial, en una partida de cinco juegos , que fue el tema de un documental. [14] Un programa más general, AlphaZero , venció a los programas más potentes que juegan al go , al ajedrez y al shogi (ajedrez japonés) después de unos días de juego contra sí mismo utilizando el aprendizaje de refuerzo . [15]
En 2020, DeepMind logró avances significativos en el problema del plegamiento de proteínas con AlphaFold . [16] En julio de 2022, se anunció que más de 200 millones de estructuras de proteínas predichas, que representan prácticamente todas las proteínas conocidas, se publicarían en la base de datos AlphaFold. [17] [18] La base de datos de predicciones de AlphaFold logró récords de vanguardia en pruebas de referencia para algoritmos de plegamiento de proteínas, aunque cada predicción individual aún requiere confirmación mediante pruebas experimentales. AlphaFold3 se lanzó en mayo de 2024, haciendo predicciones estructurales para la interacción de proteínas con varias moléculas. Logró nuevos estándares en varios puntos de referencia, elevando las precisiones de vanguardia del 28 y 52 por ciento al 65 y 76 por ciento.
La start-up fue fundada por Demis Hassabis , Shane Legg y Mustafa Suleyman en noviembre de 2010. [2] Hassabis y Legg se conocieron por primera vez en la Unidad de Neurociencia Computacional Gatsby del University College London (UCL). [19]
Demis Hassabis ha dicho que la start-up comenzó a trabajar en tecnología de inteligencia artificial enseñándole a jugar a viejos juegos de los años setenta y ochenta, que son relativamente primitivos en comparación con los que están disponibles hoy en día. Algunos de esos juegos incluían Breakout , Pong y Space Invaders . La IA se familiarizaba con un juego a la vez, sin ningún conocimiento previo de sus reglas. Después de pasar algún tiempo aprendiendo el juego, la IA eventualmente se convertiría en una experta en él. "Se dice que los procesos cognitivos por los que pasa la IA son muy similares a los que usaría un humano que nunca hubiera visto el juego para comprenderlo e intentar dominarlo". [20] El objetivo de los fundadores es crear una IA de propósito general que pueda ser útil y eficaz para casi cualquier cosa.
Las principales firmas de capital de riesgo Horizons Ventures y Founders Fund invirtieron en la empresa, [21] así como los empresarios Scott Banister , [22] Peter Thiel , [23] y Elon Musk . [24] Jaan Tallinn fue uno de los primeros inversores y asesor de la empresa. [25] El 26 de enero de 2014, Google confirmó su adquisición de DeepMind por un precio que supuestamente oscilaba entre 400 y 650 millones de dólares. [26] [27] [28] y que había acordado hacerse cargo de DeepMind Technologies. La venta a Google se produjo después de que Facebook , según se informa, terminara las negociaciones con DeepMind Technologies en 2013. [29] La empresa pasó a llamarse posteriormente Google DeepMind y mantuvo ese nombre durante unos dos años. [30]
En 2014, DeepMind recibió el premio "Empresa del año" del Laboratorio de Computación de Cambridge . [31]
En septiembre de 2015, DeepMind y el Royal Free NHS Trust firmaron su acuerdo inicial de intercambio de información para desarrollar conjuntamente una aplicación de gestión de tareas clínicas, Streams. [32]
Después de la adquisición de Google, la compañía estableció un comité de ética de inteligencia artificial . [33] El comité de ética para la investigación de IA sigue siendo un misterio, y tanto Google como DeepMind se niegan a revelar quién lo integra. [34] DeepMind ha abierto una nueva unidad llamada DeepMind Ethics and Society y se centra en las cuestiones éticas y sociales planteadas por la inteligencia artificial, con el destacado filósofo Nick Bostrom como asesor. [35] En octubre de 2017, DeepMind lanzó un nuevo equipo de investigación para investigar la ética de la IA. [36] [37]
En diciembre de 2019, el cofundador Suleyman anunció que dejaría DeepMind para unirse a Google, donde trabajaría en un puesto relacionado con las políticas. [38] En marzo de 2024, Microsoft lo nombró vicepresidente ejecutivo y director ejecutivo de su recién creada unidad de inteligencia artificial para el consumidor, Microsoft AI. [39]
En abril de 2023, DeepMind se fusionó con la división Google Brain de Google AI para formar Google DeepMind, como parte de los esfuerzos continuos de la compañía para acelerar el trabajo en IA en respuesta a ChatGPT de OpenAI . [40] Esto marcó el final de una lucha de años de los ejecutivos de DeepMind para asegurar una mayor autonomía de Google. [41]
En 2016, Google Research publicó un artículo sobre la seguridad de la IA y cómo evitar comportamientos indeseables durante el proceso de aprendizaje de la IA. [42] En 2017, DeepMind lanzó GridWorld, un banco de pruebas de código abierto para evaluar si un algoritmo aprende a desactivar su interruptor de seguridad o exhibe ciertos comportamientos indeseables. [43] [44]
En julio de 2018, investigadores de DeepMind entrenaron uno de sus sistemas para jugar al juego de computadora Quake III Arena . [45]
En 2020, DeepMind publicó más de mil artículos, incluidos trece artículos que fueron aceptados por Nature o Science . [ cita requerida ] DeepMind recibió atención de los medios durante el período AlphaGo; según una búsqueda en LexisNexis , 1842 noticias publicadas mencionaron a DeepMind en 2016, cifra que disminuyó a 1363 en 2019. [ 46 ]
A diferencia de las IA anteriores, como Deep Blue o Watson de IBM , que se desarrollaron para un propósito predefinido y solo funcionan dentro de ese alcance, los algoritmos iniciales de DeepMind estaban destinados a ser generales. Utilizaron aprendizaje de refuerzo , un algoritmo que aprende de la experiencia utilizando solo píxeles sin procesar como entrada de datos. Su enfoque inicial utilizó aprendizaje Q profundo con una red neuronal convolucional . [30] [47] Probaron el sistema en videojuegos, en particular los primeros juegos de arcade , como Space Invaders o Breakout . [47] [48] Sin alterar el código, la misma IA pudo jugar ciertos juegos de manera más eficiente que cualquier humano. [48]
En 2013, DeepMind publicó una investigación sobre un sistema de IA que superó las habilidades humanas en juegos como Pong , Breakout y Enduro , al tiempo que superó el rendimiento de vanguardia en Seaquest , Beamrider y Q*bert . [49] [50] Según se informa, este trabajo condujo a la adquisición de la empresa por parte de Google. [51] La IA de DeepMind se había aplicado a los videojuegos creados en las décadas de 1970 y 1980 ; se estaba trabajando en juegos 3D más complejos como Quake , que apareció por primera vez en la década de 1990. [48]
En 2020, DeepMind publicó Agent57, [52] [53] un agente de IA que supera el rendimiento del nivel humano en los 57 juegos de la suite Atari 2600. [54] En julio de 2022, DeepMind anunció el desarrollo de DeepNash, un sistema de aprendizaje de refuerzo multiagente sin modelo capaz de jugar al juego de mesa Stratego al nivel de un experto humano. [55]
En octubre de 2015, un programa informático de Go llamado AlphaGo, desarrollado por DeepMind, venció al campeón europeo de Go Fan Hui , un profesional de 2 dan (de 9 dan posibles), cinco a cero. [56] Esta fue la primera vez que una inteligencia artificial (IA) derrotó a un jugador profesional de Go. [57] Anteriormente, solo se sabía que las computadoras habían jugado Go a nivel "amateur". [56] [58] Se considera que el Go es mucho más difícil de ganar para las computadoras en comparación con otros juegos como el ajedrez , debido al número mucho mayor de posibilidades, lo que lo hace prohibitivamente difícil para los métodos de IA tradicionales como la fuerza bruta . [56] [58]
En marzo de 2016 venció a Lee Sedol , uno de los jugadores mejor clasificados del mundo, con una puntuación de 4 a 1 en una partida de cinco juegos . En la Future of Go Summit de 2017 , AlphaGo ganó una partida de tres juegos con Ke Jie , que había sido el jugador mejor clasificado del mundo durante dos años. [59] [60] En 2017, una versión mejorada, AlphaGo Zero , derrotó a AlphaGo en cien de cien juegos. Más tarde ese año, AlphaZero , una versión modificada de AlphaGo Zero, obtuvo habilidades sobrehumanas en ajedrez y shogi. En 2019, DeepMind lanzó un nuevo modelo llamado MuZero que dominaba los dominios de Go , ajedrez , shogi y juegos de Atari 2600 sin datos humanos, conocimiento del dominio o reglas conocidas. [61] [62]
La tecnología AlphaGo se desarrolló con base en el aprendizaje de refuerzo profundo , lo que la diferencia de las tecnologías de IA que había en el mercado en ese momento. Los datos que se introdujeron en el algoritmo AlphaGo consistían en varios movimientos basados en datos históricos de torneos. El número de movimientos se incrementó gradualmente hasta que se procesaron más de 30 millones de ellos. El objetivo era que el sistema imitara al jugador humano, tal como lo representan los datos de entrada, y eventualmente mejorara. Jugaba contra sí mismo y aprendía de los resultados; por lo tanto, aprendió a mejorarse a sí mismo con el tiempo y, como resultado, aumentó su tasa de victorias. [63]
AlphaGo utilizó dos redes neuronales profundas: una red de políticas para evaluar las probabilidades de los movimientos y una red de valores para evaluar las posiciones. La red de políticas se entrenó mediante aprendizaje supervisado y, posteriormente, se perfeccionó mediante aprendizaje de refuerzo de gradiente de políticas . La red de valores aprendió a predecir los ganadores de los juegos jugados por la red de políticas contra sí misma. Después del entrenamiento, estas redes emplearon una búsqueda de árbol de Monte Carlo de anticipación , utilizando la red de políticas para identificar movimientos candidatos de alta probabilidad, mientras que la red de valores (junto con los lanzamientos de Monte Carlo utilizando una política de lanzamiento rápido) evaluó las posiciones del árbol. [64]
Por el contrario, AlphaGo Zero se entrenó sin recibir datos de juegos jugados por humanos. En su lugar, generó sus propios datos, jugando millones de juegos contra sí mismo. Utilizó una única red neuronal, en lugar de redes de políticas y valores separadas. Su búsqueda de árbol simplificada se basó en esta red neuronal para evaluar posiciones y movimientos de muestra. Un nuevo algoritmo de aprendizaje de refuerzo incorporó la búsqueda anticipada dentro del ciclo de entrenamiento. [64] AlphaGo Zero empleó a unas 15 personas y millones en recursos informáticos. [65] En última instancia, necesitaba mucha menos potencia informática que AlphaGo, ya que se ejecutaba en cuatro procesadores de IA especializados (Google TPU ), en lugar de los 48 de AlphaGo. [66] También requirió menos tiempo de entrenamiento, pudiendo vencer a su predecesor después de solo tres días, en comparación con los meses necesarios para el AlphaGo original. [67] De manera similar, AlphaZero también aprendió a través del juego propio .
Los investigadores aplicaron MuZero para resolver el desafío del mundo real de la compresión de video con una cantidad determinada de bits con respecto al tráfico de Internet en sitios como YouTube , Twitch y Google Meet . El objetivo de MuZero es comprimir de manera óptima el video para que la calidad del video se mantenga con una reducción en los datos. El resultado final con MuZero fue una reducción promedio del 6,28 % en la tasa de bits. [68] [69]
En 2016, Hassabis analizó el juego StarCraft como un desafío futuro, ya que requiere pensamiento estratégico y manejo de información imperfecta. [70]
En enero de 2019, DeepMind presentó AlphaStar, un programa que jugaba al juego de estrategia en tiempo real StarCraft II . AlphaStar utilizó el aprendizaje de refuerzo basado en repeticiones de jugadores humanos, y luego jugó contra sí mismo para mejorar sus habilidades. En el momento de la presentación, AlphaStar tenía conocimientos equivalentes a 200 años de tiempo de juego. Ganó 10 partidos consecutivos contra dos jugadores profesionales, aunque tenía la ventaja injusta de poder ver todo el campo, a diferencia de un jugador humano que tiene que mover la cámara manualmente. Una versión preliminar en la que esa ventaja estaba fijada perdió un partido posterior. [71]
En julio de 2019, AlphaStar comenzó a jugar contra humanos al azar en la clasificación pública europea de multijugador 1v1. A diferencia de la primera versión de AlphaStar, que solo jugaba contra protoss , esta jugaba con todas las razas del juego y se habían corregido las ventajas injustas anteriores. [72] [73] En octubre de 2019, AlphaStar había alcanzado el nivel de Gran Maestro en la clasificación de StarCraft II en las tres razas de StarCraft , convirtiéndose en la primera IA en llegar a la liga superior de un deporte electrónico muy popular sin ninguna restricción de juego. [74]
En 2016, DeepMind aplicó su inteligencia artificial al plegamiento de proteínas , un problema de larga data en la biología molecular . En diciembre de 2018, AlphaFold de DeepMind ganó la 13.ª Evaluación crítica de técnicas para la predicción de la estructura de proteínas (CASP) al predecir con éxito la estructura más precisa para 25 de 43 proteínas. "Este es un proyecto faro, nuestra primera inversión importante en términos de personas y recursos en un problema científico fundamental, muy importante y del mundo real", dijo Hassabis a The Guardian . [75] En 2020, en la 14.ª CASP, las predicciones de AlphaFold lograron una puntuación de precisión considerada comparable a las técnicas de laboratorio. El Dr. Andriy Kryshtafovych, uno de los miembros del panel de jueces científicos, describió el logro como "verdaderamente notable" y dijo que el problema de predecir cómo se pliegan las proteínas se había "resuelto en gran medida". [76] [77] [78]
En julio de 2021, se lanzaron las herramientas de código abierto RoseTTAFold y AlphaFold2 para permitir que los científicos ejecuten sus propias versiones de las herramientas. Una semana después, DeepMind anunció que AlphaFold había completado su predicción de casi todas las proteínas humanas, así como de los proteomas completos de otros 20 organismos ampliamente estudiados. [79] Las estructuras se publicaron en la base de datos de estructuras de proteínas AlphaFold. En julio de 2022, se anunció que las predicciones de más de 200 millones de proteínas, que representan prácticamente todas las proteínas conocidas, se publicarían en la base de datos AlphaFold. [17] [18]
La actualización más reciente, AlphaFold3, se lanzó en mayo de 2024 y predice las interacciones de las proteínas con el ADN, el ARN y otras moléculas. En una prueba comparativa específica sobre el problema de las interacciones del ADN, AlphaFold3 alcanzó una precisión del 65 %, lo que mejora significativamente el estado actual de la técnica, que era del 28 %. [80]
En octubre de 2024, Hassabis y John Jumper recibieron conjuntamente la mitad del Premio Nobel de Química de 2024 por la predicción de la estructura de las proteínas, citando el logro de AlphaFold2. [81]
En 2016, DeepMind presentó WaveNet , un sistema de conversión de texto a voz . Originalmente era demasiado intensivo en términos computacionales para su uso en productos de consumo, pero a fines de 2017 estuvo listo para su uso en aplicaciones de consumo como Google Assistant . [82] [83] En 2018, Google lanzó un producto comercial de conversión de texto a voz, Cloud Text-to-Speech, basado en WaveNet. [84] [85] En 2018, DeepMind presentó un modelo más eficiente llamado WaveRNN desarrollado conjuntamente con Google AI . [86] [87] En 2020, se presentó WaveNetEQ, un método de ocultación de pérdida de paquetes basado en una arquitectura WaveRNN. [88] En 2019, Google comenzó a implementar WaveRNN con WavenetEQ para los usuarios de Google Duo . [89]
Gato es un modelo multimodal polivalente , lanzado en mayo de 2022. Se entrenó en 604 tareas, como subtítulos de imágenes, diálogos o apilamiento de bloques. En 450 de estas tareas, Gato superó a los expertos humanos al menos la mitad de las veces, según DeepMind. [90] A diferencia de modelos como MuZero, no es necesario volver a entrenar a Gato para cambiar de una tarea a otra.
Sparrow es un chatbot impulsado por inteligencia artificial desarrollado por DeepMind para construir sistemas de aprendizaje automático más seguros mediante una combinación de comentarios humanos y sugerencias de búsqueda de Google. [91]
Chinchilla es un modelo de lenguaje desarrollado por DeepMind. [92]
El 28 de abril de 2022, DeepMind publicó una entrada de blog sobre un modelo de lenguaje visual (VLM) único llamado Flamingo que puede describir con precisión una imagen de algo con solo unas pocas imágenes de entrenamiento. [93] [94]
En 2022, DeepMind presentó AlphaCode, un motor de codificación impulsado por IA que crea programas informáticos a una velocidad comparable a la de un programador promedio. La empresa probó el sistema frente a desafíos de codificación creados por Codeforces utilizados en competencias de programación humana . [95] AlphaCode obtuvo una clasificación equivalente al 54 % de la puntuación media en Codeforces después de recibir capacitación sobre datos de GitHub y problemas y soluciones de Codeforce. El programa debía presentar una solución única y dejar de duplicar respuestas.
Gemini es un modelo de lenguaje multimodal de gran tamaño que se lanzó el 6 de diciembre de 2023. [96] Es el sucesor de los modelos de lenguaje LaMDA y PaLM 2 de Google y buscó desafiar al GPT-4 de OpenAI . [97] Gemini viene en 3 tamaños: Nano, Pro y Ultra. [98] Gemini es también el nombre del chatbot que integra Gemini (y que anteriormente se llamaba Bard ). [99]
Gemma es una familia de modelos de lenguaje grandes, livianos y de código abierto que se lanzó el 21 de febrero de 2024. Está disponible en dos tamaños distintos: un modelo de 7 mil millones de parámetros optimizado para uso en GPU y TPU, y un modelo de 2 mil millones de parámetros diseñado para CPU y aplicaciones en dispositivos. Los modelos Gemma se entrenaron en hasta 6 billones de tokens de texto, empleando arquitecturas, conjuntos de datos y metodologías de entrenamiento similares a los de la familia de modelos Gemini. [100]
En marzo de 2024, DeepMind presentó Scalable Instructable Multiword Agent, o SIMA, un agente de IA capaz de comprender y seguir instrucciones en lenguaje natural para completar tareas en varios entornos virtuales 3D. Entrenado en nueve videojuegos de ocho estudios y cuatro entornos de investigación, SIMA demostró adaptabilidad a nuevas tareas y configuraciones sin requerir acceso al código fuente del juego o API. El agente consta de modelos de visión artificial y lenguaje previamente entrenados y ajustados a los datos del juego, siendo el lenguaje crucial para comprender y completar las tareas dadas según las instrucciones. La investigación de DeepMind tuvo como objetivo desarrollar agentes de IA más útiles al traducir capacidades avanzadas de IA en acciones del mundo real a través de una interfaz de lenguaje. [101] [102]
En mayo de 2024, se anunció un modelo de generación de video multimodal llamado Veo en Google I/O 2024. Google afirmó que podría generar videos de 1080p de más de un minuto de duración. [8] A junio de 2024 , el modelo se encuentra en pruebas limitadas. [9][actualizar]
Lanzado en junio de 2023, RoboCat es un modelo de IA que puede controlar brazos robóticos. El modelo puede adaptarse a nuevos modelos de brazos robóticos y a nuevos tipos de tareas. [103] [104]
Los investigadores de DeepMind han aplicado modelos de aprendizaje automático al fútbol , deporte al que se suele denominar soccer en Norteamérica, para modelar el comportamiento de los jugadores, incluidos el portero, los defensores y los delanteros, durante diferentes escenarios, como los tiros penales. Los investigadores utilizaron mapas de calor y análisis de grupos para organizar a los jugadores en función de su tendencia a comportarse de una determinada manera durante el juego cuando se enfrentan a una decisión sobre cómo marcar o evitar que el otro equipo marque.
Los investigadores mencionan que los modelos de aprendizaje automático podrían utilizarse para democratizar la industria del fútbol mediante la selección automática de videoclips interesantes del partido que sirvan como momentos destacados. Esto se puede hacer mediante la búsqueda de videos de determinados eventos, lo que es posible porque el análisis de video es un campo establecido del aprendizaje automático. Esto también es posible gracias a los amplios análisis deportivos basados en datos que incluyen pases o tiros anotados, sensores que capturan datos sobre los movimientos de los jugadores muchas veces a lo largo de un partido y modelos de teoría de juegos. [105] [106]
Google ha presentado un nuevo programa de documentos arqueológicos, llamado Ítaca en honor a la isla griega de la Odisea de Homero . [107] Esta red neuronal profunda ayuda a los investigadores a restaurar el texto vacío de documentos griegos dañados y a identificar su fecha y origen geográfico. [108] El trabajo se basa en otra red de análisis de texto que DeepMind lanzó en 2019, llamada Pythia. [108] Ítaca logra una precisión del 62% en la restauración de textos dañados y una precisión de ubicación del 71%, y tiene una precisión de datación de 30 años. [108] Los autores afirmaron que el uso de Ítaca por parte de "historiadores expertos" aumentó la precisión de su trabajo del 25 al 72 por ciento. [107] Sin embargo, Eleanor Dickey señaló que esta prueba en realidad solo estaba hecha de estudiantes, diciendo que no estaba claro cuán útil sería Ítaca para los "editores genuinamente calificados". [108]
El equipo está trabajando para ampliar el modelo a otros idiomas antiguos, incluidos el demótico , el acadio , el hebreo y el maya . [107]
En noviembre de 2023, Google DeepMind anunció una Red de grafos de código abierto para la exploración de materiales (GNoME). La herramienta propone millones de materiales previamente desconocidos para la química, incluidos varios cientos de miles de estructuras cristalinas estables, de las cuales 736 habían sido producidas experimentalmente por el Instituto Tecnológico de Massachusetts, en el momento del lanzamiento. [109] [110] Sin embargo, según Anthony Cheetham , GNoME no hizo "una contribución útil y práctica a los científicos de materiales experimentales". [111] Un artículo de revisión de Cheetham y Ram Seshadri no pudo identificar ningún material "sorprendentemente novedoso" encontrado por GNoME, y la mayoría eran variantes menores de materiales ya conocidos. [111] [112]
En octubre de 2022, DeepMind lanzó AlphaTensor , que utilizaba técnicas de aprendizaje por refuerzo similares a las de AlphaGo, para encontrar nuevos algoritmos para la multiplicación de matrices . [113] [114] En el caso especial de multiplicar dos matrices de 4×4 con entradas enteras , donde solo se registra la paridad o imparidad de las entradas, AlphaTensor encontró un algoritmo que requiere solo 47 multiplicaciones distintas; el óptimo anterior, conocido desde 1969, era el algoritmo Strassen más general , que utiliza 49 multiplicaciones. [115] El científico informático Josh Alman describió a AlphaTensor como "una prueba de concepto para algo que podría convertirse en un gran avance", mientras que Vassilevska Williams lo calificó de "un poco sobrevalorado" [115] a pesar de reconocer también su base en el aprendizaje por refuerzo como "algo completamente diferente" de los enfoques anteriores. [114]
AlphaGeometry es una IA neurosimbólica que fue capaz de resolver 25 de los 30 problemas de geometría de la Olimpiada Internacional de Matemáticas , un desempeño comparable al de un medallista de oro. [116]
Los programas de geometría tradicionales son motores simbólicos que dependen exclusivamente de reglas codificadas por humanos para generar pruebas rigurosas, lo que los hace carentes de flexibilidad en situaciones inusuales. AlphaGeometry combina un motor simbólico de este tipo con un modelo de lenguaje grande especializado entrenado con datos sintéticos de pruebas geométricas. Cuando el motor simbólico no logra encontrar una prueba formal y rigurosa por sí solo, solicita el modelo de lenguaje grande, que sugiere una construcción geométrica para avanzar. Sin embargo, no está claro cuán aplicable es este método a otros dominios de las matemáticas o el razonamiento, porque los motores simbólicos dependen de reglas específicas del dominio y debido a la necesidad de datos sintéticos. [116]
AlphaProof es un modelo de IA que combina un modelo de lenguaje entrenado previamente con el algoritmo de aprendizaje por refuerzo AlphaZero. AlphaZero ya se había enseñado a sí mismo a dominar los juegos. El modelo de lenguaje entrenado previamente que se utiliza en esta combinación es el ajuste fino de un modelo Gemini para traducir automáticamente los enunciados de problemas en lenguaje natural en enunciados formales, creando una gran biblioteca de problemas formales de diversa dificultad. Para ello, los enunciados matemáticos se definen en el lenguaje formal Lean . En la Olimpiada Internacional de Matemáticas de 2024, AlphaProof junto con una versión adaptada de AlphaGeometry han alcanzado el mismo nivel de resolución de problemas en las categorías combinadas como medallista de plata en esa competición por primera vez. [117] [118]
En junio de 2023, Deepmind anunció que AlphaDev , que busca algoritmos informáticos mejorados mediante aprendizaje por refuerzo , descubrió una forma más eficiente de codificar un algoritmo de ordenación y un algoritmo hash. El nuevo algoritmo de ordenación era un 70 % más rápido para secuencias más cortas y un 1,7 % más rápido para secuencias que superaban los 250 000 elementos, y el nuevo algoritmo hash era un 30 % más rápido en algunos casos. El algoritmo de ordenación fue aceptado en la biblioteca estándar de algoritmos de ordenación de C++ , y fue el primer cambio de esos algoritmos en más de una década y la primera actualización que involucró un algoritmo descubierto mediante IA. [119] El algoritmo hash se publicó en una biblioteca de código abierto. [120] Google estima que estos dos algoritmos se utilizan billones de veces al día. [121]
Google ha declarado que los algoritmos de DeepMind han aumentado enormemente la eficiencia de refrigeración de sus centros de datos al equilibrar automáticamente el coste de las fallas de hardware frente al coste de refrigeración. [122] Además, DeepMind (junto con otros investigadores de Alphabet AI) ayuda a las recomendaciones de aplicaciones personalizadas de Google Play . [84] DeepMind también ha colaborado con el equipo de Android de Google para la creación de dos nuevas funciones que se pusieron a disposición de las personas con dispositivos que ejecutan Android Pie, la novena entrega del sistema operativo móvil de Google. Estas funciones, Batería adaptable y Brillo adaptable, utilizan el aprendizaje automático para conservar energía y hacer que los dispositivos que ejecutan el sistema operativo sean más fáciles de usar. Es la primera vez que DeepMind ha utilizado estas técnicas a una escala tan pequeña, ya que las aplicaciones típicas de aprendizaje automático requieren órdenes de magnitud más de potencia informática. [123]
En julio de 2016, se anunció una colaboración entre DeepMind y Moorfields Eye Hospital para desarrollar aplicaciones de IA para la atención médica . [124] DeepMind se aplicaría al análisis de exploraciones oculares anónimas , en busca de signos tempranos de enfermedades que conducen a la ceguera .
En agosto de 2016, se anunció un programa de investigación con el University College London Hospital con el objetivo de desarrollar un algoritmo que pueda diferenciar automáticamente entre tejidos sanos y cancerosos en las áreas de la cabeza y el cuello. [125]
También hay proyectos con la Royal Free London NHS Foundation Trust y el Imperial College Healthcare NHS Trust para desarrollar nuevas aplicaciones móviles clínicas vinculadas a los registros electrónicos de pacientes . [126] Se informó que el personal del Royal Free Hospital dijo en diciembre de 2017 que el acceso a los datos de los pacientes a través de la aplicación había ahorrado una "enorme cantidad de tiempo" y había hecho una diferencia "fenomenal" en el manejo de los pacientes con lesión renal aguda. Los datos de los resultados de las pruebas se envían a los teléfonos móviles del personal y los alertan de los cambios en la condición del paciente. También permite al personal ver si alguien más ha respondido y mostrar a los pacientes sus resultados en forma visual. [127] [ ¿ Fuente poco confiable? ]
En noviembre de 2017, DeepMind anunció una asociación de investigación con el Centro de Investigación del Cáncer del Reino Unido en el Imperial College de Londres con el objetivo de mejorar la detección del cáncer de mama mediante la aplicación del aprendizaje automático a la mamografía. [128] Además, en febrero de 2018, DeepMind anunció que estaba trabajando con el Departamento de Asuntos de Veteranos de los EE. UU. en un intento de utilizar el aprendizaje automático para predecir la aparición de una lesión renal aguda en los pacientes y, de manera más amplia, el deterioro general de los pacientes durante una estadía en el hospital para que los médicos y enfermeras puedan tratar más rápidamente a los pacientes que lo necesitan. [129]
DeepMind desarrolló una aplicación llamada Streams, que envía alertas a los médicos sobre pacientes en riesgo de lesión renal aguda. [130] El 13 de noviembre de 2018, DeepMind anunció que su división de salud y la aplicación Streams serían absorbidas por Google Health . [131] Los defensores de la privacidad dijeron que el anuncio traicionó la confianza del paciente y pareció contradecir declaraciones anteriores de DeepMind de que los datos del paciente no se conectarían a las cuentas o servicios de Google. [132] [133] Un portavoz de DeepMind dijo que los datos del paciente todavía se mantendrían separados de los servicios o proyectos de Google. [134]
En abril de 2016, New Scientist obtuvo una copia de un acuerdo de intercambio de datos entre DeepMind y la Royal Free London NHS Foundation Trust . Esta última gestiona tres hospitales de Londres en los que se estima que se tratan anualmente a 1,6 millones de pacientes. El acuerdo muestra que DeepMind Health tenía acceso a los datos de admisiones, altas y traslados, accidentes y urgencias, patología y radiología, y cuidados intensivos en estos hospitales. Esto incluía detalles personales como si a los pacientes se les había diagnosticado VIH , sufrían depresión o alguna vez se habían sometido a un aborto con el fin de realizar investigaciones para buscar mejores resultados en diversas condiciones de salud. [135] [136]
Se presentó una queja ante la Oficina del Comisionado de Información (ICO), argumentando que los datos deberían ser seudonimizados y encriptados. [137] En mayo de 2016, New Scientist publicó otro artículo en el que afirmaba que el proyecto no había logrado obtener la aprobación del Grupo Asesor de Confidencialidad de la Agencia Reguladora de Medicamentos y Productos Sanitarios . [138]
En 2017, la ICO concluyó una investigación de un año de duración centrada en cómo el Royal Free NHS Foundation Trust probó la aplicación Streams a finales de 2015 y 2016. [139] La ICO descubrió que el Royal Free no cumplía con la Ley de Protección de Datos cuando proporcionó detalles de los pacientes a DeepMind, y encontró varias deficiencias en la forma en que se manejaban los datos, incluido el hecho de que los pacientes no estaban adecuadamente informados de que sus datos se utilizarían como parte de la prueba. DeepMind publicó sus opiniones [140] sobre la investigación en julio de 2017, diciendo "necesitamos hacerlo mejor" y destacando varias actividades e iniciativas que habían iniciado para la transparencia, la supervisión y la participación. Esto incluía el desarrollo de una estrategia de participación de los pacientes y el público [141] y la transparencia en sus asociaciones.
En mayo de 2017, Sky News publicó una carta filtrada de la Guardiana Nacional de Datos, Dame Fiona Caldicott , revelando que en su "opinión considerada", el acuerdo de intercambio de datos entre DeepMind y el Royal Free se llevó a cabo sobre una "base legal inapropiada". [142] La Oficina del Comisionado de Información dictaminó en julio de 2017 que el hospital Royal Free no cumplió con la Ley de Protección de Datos cuando entregó datos personales de 1,6 millones de pacientes a DeepMind. [143]
En octubre de 2017, DeepMind anunció una nueva unidad de investigación, DeepMind Ethics & Society. [144] Su objetivo es financiar investigaciones externas sobre los siguientes temas: privacidad, transparencia y equidad; impactos económicos; gobernanza y rendición de cuentas; gestión de riesgos de la IA; moralidad y valores de la IA; y cómo la IA puede abordar los desafíos del mundo. Como resultado, el equipo espera comprender mejor las implicaciones éticas de la IA y ayudar a la sociedad a ver que la IA puede ser beneficiosa. [145]
Esta nueva subdivisión de DeepMind es una unidad completamente separada de la asociación de empresas líderes que utilizan IA, el mundo académico, organizaciones de la sociedad civil y organizaciones sin fines de lucro denominada Partnership on Artificial Intelligence to Benefit People and Society , de la que DeepMind también forma parte. [146] La junta de Ética y Sociedad de DeepMind también es distinta de la Junta de Ética de IA que Google acordó formar originalmente al adquirir DeepMind. [147]
En 2024, Google Deepmind publicó los resultados de un experimento en el que entrenaron dos grandes modelos de lenguaje para ayudar a identificar y presentar áreas de superposición entre unos pocos miles de miembros de un grupo que habían reclutado en línea utilizando técnicas como el sorteo para obtener una muestra representativa de participantes. El proyecto lleva el nombre de Jürgen Habermas . [148] [149] En un experimento, los participantes calificaron los resúmenes de la IA mejor que el moderador humano el 56% del tiempo. [149]
DeepMind patrocina tres cátedras de aprendizaje automático: