Google DeepMind Technologies Limited es un laboratorio de investigación de inteligencia artificial británico-estadounidense que actúa como subsidiaria de Google . Fundada en el Reino Unido en 2010, fue adquirida por Google en 2014 [6] y se fusionó con la división Google Brain de Google AI para convertirse en Google DeepMind en abril de 2023. La empresa tiene su sede en Londres y centros de investigación en Canadá, [7 ] Francia, [8] Alemania y Estados Unidos.
DeepMind introdujo las máquinas neuronales de Turing (redes neuronales que pueden acceder a la memoria externa como una máquina de Turing convencional ), [9] dando como resultado una computadora que se parece vagamente a la memoria a corto plazo del cerebro humano. [10] [11]
DeepMind ha creado modelos de redes neuronales para jugar a videojuegos y juegos de mesa . Llegó a los titulares en 2016 después de que su programa AlphaGo venciera a un jugador profesional de Go , Lee Sedol , campeón mundial, en un partido de cinco juegos , que fue objeto de un documental. [12] Un programa más general, AlphaZero , venció a los programas más potentes de go , ajedrez y shogi (ajedrez japonés) después de unos días de juego contra sí mismo utilizando el aprendizaje por refuerzo . [13]
En 2020, DeepMind logró avances significativos en el problema del plegamiento de proteínas con AlphaFold . [14] En julio de 2022, se anunció que más de 200 millones de estructuras proteicas predichas, que representan prácticamente todas las proteínas conocidas, se publicarían en la base de datos AlphaFold. [15] [16] La base de datos de predicciones de AlphaFold logró récords de vanguardia en pruebas de referencia para algoritmos de plegamiento de proteínas, aunque cada predicción individual aún requiere confirmación mediante pruebas experimentales. AlphaFold3 se lanzó en mayo de 2024 y hace predicciones estructurales para la interacción de proteínas con varias moléculas. Logró nuevos estándares en varios puntos de referencia, elevando las precisiones de última generación del 28 y 52 por ciento al 65 y 76 por ciento.
La startup fue fundada por Demis Hassabis , Shane Legg y Mustafa Suleyman en septiembre de 2010. [17] [18] Hassabis y Legg se conocieron por primera vez en la Unidad de Neurociencia Computacional Gatsby del University College London (UCL). [19]
Demis Hassabis ha dicho que la startup empezó a trabajar en tecnología de inteligencia artificial enseñándole a jugar juegos antiguos de los años setenta y ochenta, que son relativamente primitivos en comparación con los que están disponibles hoy en día. Algunos de esos juegos incluían Breakout , Pong y Space Invaders . La IA fue introducida en un juego a la vez, sin ningún conocimiento previo de sus reglas. Después de dedicar algún tiempo a aprender el juego, AI eventualmente se convertiría en un experto en él. "Se dice que los procesos cognitivos por los que pasa la IA son muy parecidos a los que usaría un humano que nunca hubiera visto el juego para comprenderlo e intentar dominarlo". [20] El objetivo de los fundadores es crear una IA de propósito general que pueda ser útil y eficaz para casi cualquier cosa.
Las principales empresas de capital riesgo Horizons Ventures y Founders Fund invirtieron en la empresa, [21] así como los empresarios Scott Banister , [22] Peter Thiel , [23] y Elon Musk . [24] Jaan Tallinn fue uno de los primeros inversores y asesor de la empresa. [25] El 26 de enero de 2014, Google confirmó la adquisición de DeepMind por un precio que, según se informa, oscilaba entre 400 y 650 millones de dólares. [26] [27] [28] y que había acordado hacerse cargo de DeepMind Technologies. La venta a Google tuvo lugar después de que Facebook supuestamente pusiera fin a las negociaciones con DeepMind Technologies en 2013. [29] Posteriormente, la empresa pasó a llamarse Google DeepMind y mantuvo ese nombre durante unos dos años. [30]
En 2014, DeepMind recibió el premio "Empresa del año" del Cambridge Computer Laboratory . [31]
En septiembre de 2015, DeepMind y Royal Free NHS Trust firmaron su acuerdo inicial de intercambio de información para desarrollar conjuntamente una aplicación de gestión de tareas clínicas, Streams. [32]
Después de la adquisición de Google, la empresa creó una junta de ética de inteligencia artificial . [33] La junta de ética para la investigación de la IA sigue siendo un misterio, y tanto Google como DeepMind se niegan a revelar quién forma parte de la junta. [34] DeepMind ha abierto una nueva unidad llamada DeepMind Ethics and Society y se centró en las cuestiones éticas y sociales planteadas por la inteligencia artificial con el destacado filósofo Nick Bostrom como asesor. [35] En octubre de 2017, DeepMind lanzó un nuevo equipo de investigación para investigar la ética de la IA. [36] [37]
En diciembre de 2019, el cofundador Suleyman anunció que dejaría DeepMind para unirse a Google, trabajando en un puesto político. [38]
En abril de 2023, DeepMind se fusionó con la división Google Brain de Google AI para formar Google DeepMind, como parte de los esfuerzos continuos de la compañía para acelerar el trabajo en IA en respuesta a ChatGPT de OpenAI . [39] Esto marcó el final de una lucha de años por parte de los ejecutivos de DeepMind para asegurar una mayor autonomía de Google. [40]
Google Research publicó un artículo en 2016 sobre la seguridad de la IA y cómo evitar comportamientos indeseables durante el proceso de aprendizaje de la IA. [41] En 2017, DeepMind lanzó GridWorld, un banco de pruebas de código abierto para evaluar si un algoritmo aprende a desactivar su interruptor de apagado o si muestra ciertos comportamientos indeseables. [42] [43]
En julio de 2018, investigadores de DeepMind entrenaron uno de sus sistemas para jugar al juego de ordenador Quake III Arena . [44]
Hasta 2020, DeepMind ha publicado más de mil artículos, incluidos trece artículos que fueron aceptados por Nature o Science . [ cita necesaria ] DeepMind recibió atención de los medios durante el período AlphaGo; Según una búsqueda de LexisNexis , 1842 noticias publicadas mencionaron a DeepMind en 2016, disminuyendo a 1363 en 2019. [45]
A diferencia de las IA anteriores, como Deep Blue o Watson de IBM , que se desarrollaron para un propósito predefinido y solo funcionan dentro de ese alcance, los algoritmos iniciales de DeepMind estaban destinados a ser generales. Utilizaron aprendizaje por refuerzo , un algoritmo que aprende de la experiencia utilizando solo píxeles sin procesar como entrada de datos. Su enfoque inicial utilizó Q-learning profundo con una red neuronal convolucional . [30] [46] Probaron el sistema en videojuegos, en particular en los primeros juegos arcade , como Space Invaders o Breakout . [46] [47] Sin alterar el código, la misma IA pudo jugar ciertos juegos de manera más eficiente que cualquier humano. [47]
En 2013, DeepMind publicó una investigación sobre un sistema de inteligencia artificial que superó las capacidades humanas en juegos como Pong , Breakout y Enduro , al tiempo que superó el rendimiento de última generación en Seaquest , Beamrider y Q*bert . [48] [49] Este trabajo supuestamente condujo a la adquisición de la empresa por parte de Google. [50] La IA de DeepMind se había aplicado a los videojuegos creados en las décadas de 1970 y 1980 ; Se estaba trabajando en juegos 3D más complejos como Quake , que apareció por primera vez en la década de 1990. [47]
En 2020, DeepMind publicó Agent57, [51] [52] un agente de inteligencia artificial que supera el rendimiento del nivel humano en los 57 juegos de la suite Atari 2600. [53] En julio de 2022, DeepMind anunció el desarrollo de DeepNash, un sistema de aprendizaje por refuerzo multiagente sin modelos capaz de jugar el juego de mesa Stratego al nivel de un experto humano. [54]
En octubre de 2015, un programa informático de Go llamado AlphaGo, desarrollado por DeepMind, venció al campeón europeo de Go Fan Hui , un profesional de 2 dan (de 9 dan posibles), cinco a cero. [55] Esta fue la primera vez que una inteligencia artificial (IA) derrotó a un jugador profesional de Go. [56] Anteriormente, se sabía que las computadoras sólo jugaban Go a nivel "aficionado". [55] [57] Se considera que Go es mucho más difícil de ganar para las computadoras en comparación con otros juegos como el ajedrez , debido a la cantidad mucho mayor de posibilidades, lo que lo hace prohibitivamente difícil para los métodos tradicionales de IA, como la fuerza bruta . [55] [57]
En marzo de 2016 venció a Lee Sedol , uno de los jugadores mejor clasificados del mundo, con un marcador de 4 a 1 en un partido de cinco partidos . En la Cumbre Future of Go de 2017 , AlphaGo ganó un partido de tres juegos con Ke Jie , quien había sido el jugador mejor clasificado del mundo durante dos años. [58] [59] En 2017, una versión mejorada, AlphaGo Zero , derrotó a AlphaGo en cien de cada cien juegos. Más tarde ese año, AlphaZero , una versión modificada de AlphaGo Zero, adquirió habilidades sobrehumanas en ajedrez y shogi. En 2019, DeepMind lanzó un nuevo modelo llamado MuZero que dominaba los dominios de los juegos Go , ajedrez , shogi y Atari 2600 sin datos humanos, conocimiento del dominio ni reglas conocidas. [60] [61]
La tecnología AlphaGo se desarrolló basándose en el aprendizaje por refuerzo profundo , lo que la diferencia de las tecnologías de IA que había en el mercado en ese momento. Los datos introducidos en el algoritmo AlphaGo consistían en varios movimientos basados en datos históricos del torneo. El número de movimientos fue aumentando gradualmente hasta que se procesaron más de 30 millones de ellos. El objetivo era que el sistema imitara al jugador humano, representado por los datos de entrada, y eventualmente mejorara. Jugó contra sí mismo y aprendió de los resultados; por lo tanto, aprendió a mejorar con el tiempo y, como resultado, aumentó su tasa de ganancias. [62]
AlphaGo utilizó dos redes neuronales profundas: una red de políticas para evaluar las probabilidades de movimiento y una red de valor para evaluar las posiciones. La red de políticas se capacitó mediante aprendizaje supervisado y posteriormente fue refinada mediante aprendizaje de refuerzo de gradiente de políticas . La red de valor aprendió a predecir los ganadores de los juegos jugados por la red de políticas contra sí misma. Después del entrenamiento, estas redes emplearon una búsqueda de árbol de Monte Carlo anticipada , utilizando la red de políticas para identificar movimientos candidatos de alta probabilidad, mientras que la red de valor (junto con implementaciones de Monte Carlo usando una política de implementación rápida) evaluó las posiciones de los árboles. [63]
Por el contrario, AlphaGo Zero fue entrenado sin recibir datos de juegos jugados por humanos. En lugar de eso, generó sus propios datos y jugó millones de juegos contra sí mismo. Utilizó una única red neuronal, en lugar de redes de valores y políticas separadas. Su búsqueda de árbol simplificada se basó en esta red neuronal para evaluar posiciones y muestrear movimientos. Un nuevo algoritmo de aprendizaje por refuerzo incorporó una búsqueda anticipada dentro del ciclo de entrenamiento. [63] AlphaGo Zero empleaba alrededor de 15 personas y millones en recursos informáticos. [64] En última instancia, necesitaba mucha menos potencia informática que AlphaGo, ejecutándose en cuatro procesadores de inteligencia artificial especializados ( TPU de Google ), en lugar de los 48 de AlphaGo. [65] También requirió menos tiempo de entrenamiento, pudiendo vencer a su predecesor después de solo tres días. , en comparación con los meses necesarios para el AlphaGo original. [66] De manera similar, AlphaZero también aprendió a través del autojuego .
Los investigadores aplicaron MuZero para resolver el desafío del mundo real de la compresión de video con una cantidad determinada de bits con respecto al tráfico de Internet en sitios como YouTube , Twitch y Google Meet . El objetivo de MuZero es comprimir el vídeo de forma óptima para mantener la calidad del vídeo con una reducción de datos. El resultado final con MuZero fue una reducción promedio del 6,28% en la tasa de bits. [67] [68]
En 2016, Hassabis habló del juego StarCraft como un desafío de futuro, ya que requiere pensamiento estratégico y manejo de información imperfecta. [69]
En enero de 2019, DeepMind presentó AlphaStar, un programa que juega al juego de estrategia en tiempo real StarCraft II . AlphaStar utilizó el aprendizaje por refuerzo basado en repeticiones de jugadores humanos y luego jugó contra sí mismo para mejorar sus habilidades. En el momento de la presentación, AlphaStar tenía conocimientos equivalentes a 200 años de tiempo de juego. Ganó 10 partidos consecutivos contra dos jugadores profesionales, aunque tenía la injusta ventaja de poder ver todo el campo, a diferencia de un jugador humano que tiene que mover la cámara manualmente. Una versión preliminar en la que se fijaba esa ventaja perdió un partido posterior. [70]
En julio de 2019, AlphaStar comenzó a jugar contra humanos aleatorios en la clasificación multijugador europea pública 1 contra 1. A diferencia de la primera versión de AlphaStar, que solo jugaba Protoss contra Protoss, esta jugaba como todas las razas del juego y anteriormente se habían solucionado ventajas injustas. [71] [72] En octubre de 2019, AlphaStar había alcanzado el nivel Gran Maestro en la clasificación de StarCraft II en las tres carreras de StarCraft , convirtiéndose en la primera IA en alcanzar la liga superior de un deporte electrónico muy popular sin restricciones de juego. [73]
En 2016, DeepMind dirigió su inteligencia artificial al plegamiento de proteínas , un problema de larga data en biología molecular . En diciembre de 2018, AlphaFold de DeepMind ganó la 13.ª Evaluación Crítica de Técnicas para la Predicción de la Estructura de Proteínas (CASP) al predecir con éxito la estructura más precisa para 25 de 43 proteínas. "Este es un proyecto faro, nuestra primera gran inversión en términos de personas y recursos en un problema científico fundamental y muy importante del mundo real", dijo Hassabis a The Guardian . [74] En 2020, en el 14º CASP, las predicciones de AlphaFold lograron una puntuación de precisión considerada comparable a las técnicas de laboratorio. El Dr. Andriy Kryshtafovych, uno de los miembros del panel de jueces científicos, describió el logro como "realmente notable" y dijo que el problema de predecir cómo se pliegan las proteínas se había "resuelto en gran medida". [75] [76] [77]
En julio de 2021, se lanzaron RoseTTAFold y AlphaFold2 de código abierto para permitir a los científicos ejecutar sus propias versiones de las herramientas. Una semana después, DeepMind anunció que AlphaFold había completado su predicción de casi todas las proteínas humanas, así como de los proteomas completos de otros 20 organismos ampliamente estudiados. [78] Las estructuras se publicaron en la base de datos de estructuras de proteínas AlphaFold. En julio de 2022, se anunció que las predicciones de más de 200 millones de proteínas, que representan prácticamente todas las proteínas conocidas, se publicarían en la base de datos AlphaFold. [15] [16]
La actualización más reciente, AlphaFold3, se publicó en mayo de 2024 y predice las interacciones de las proteínas con el ADN, el ARN y varias otras moléculas. En una prueba de referencia particular sobre el problema de las interacciones del ADN, AlphaFold3 alcanzó una precisión del 65%, mejorando significativamente el estado de la técnica anterior del 28%. [79]
En 2016, DeepMind presentó WaveNet , un sistema de conversión de texto a voz . Originalmente era demasiado computacional para su uso en productos de consumo, pero a finales de 2017 estuvo listo para su uso en aplicaciones de consumo como Google Assistant . [80] [81] En 2018, Google lanzó un producto comercial de conversión de texto a voz, Cloud Text-to-Speech, basado en WaveNet. [82] [83] En 2018, DeepMind introdujo un modelo más eficiente llamado WaveRNN desarrollado conjuntamente con Google AI . [84] [85] En 2020 se presentó WaveNetEQ, un método de ocultación de pérdida de paquetes basado en una arquitectura WaveRNN. [86] En 2019, Google comenzó a implementar WaveRNN con WavenetEQ para los usuarios de Google Duo . [87]
Lanzado en mayo de 2022, Gato es un modelo multimodal polivalente . Fue entrenado en 604 tareas, como subtítulos de imágenes, diálogos o apilamiento de bloques. En 450 de estas tareas, Gato superó a los expertos humanos al menos la mitad de las veces, según DeepMind. [88] A diferencia de modelos como MuZero, Gato no necesita ser reentrenado para cambiar de una tarea a otra.
Sparrow es un chatbot impulsado por inteligencia artificial desarrollado por DeepMind para crear sistemas de aprendizaje automático más seguros mediante el uso de una combinación de comentarios humanos y sugerencias de búsqueda de Google. [89]
Chinchilla es un modelo de lenguaje desarrollado por DeepMind. [90]
DeepMind publicó una publicación de blog el 28 de abril de 2022 sobre un único modelo de lenguaje visual (VLM) llamado Flamingo que puede describir con precisión una imagen de algo con solo unas pocas imágenes de entrenamiento. [91] [92]
En 2022, DeepMind presentó AlphaCode, un motor de codificación impulsado por inteligencia artificial que crea programas de computadora a un ritmo comparable al de un programador promedio, y la compañía probó el sistema frente a desafíos de codificación creados por Codeforces utilizados en competencias de programación competitivas humanas . [93] AlphaCode obtuvo una clasificación equivalente al 54% de la puntuación media en Codeforces después de recibir capacitación en datos de GitHub y problemas y soluciones de Codeforce. Se requirió que el programa encontrara una solución única y evitara duplicar respuestas.
Gemini es un modelo de lenguaje grande multimodal que se lanzó el 6 de diciembre de 2023. [94] Es el sucesor de los modelos de lenguaje LaMDA y PaLM 2 de Google y buscaba desafiar el GPT-4 de OpenAI . [95] Gemini viene en 3 tamaños: Nano, Pro y Ultra. [96] Gemini es también el nombre del chatbot que integra Gemini (y que anteriormente se llamaba Bard ). [97]
Gemma es una familia de modelos de lenguaje grande, livianos y de código abierto que se lanzó el 21 de febrero de 2024. Está disponible en dos tamaños distintos: un modelo de 7 mil millones de parámetros optimizado para el uso de GPU y TPU, y un modelo de 2 mil millones de parámetros diseñado para CPU y aplicaciones en el dispositivo. Los modelos Gemma se entrenaron en hasta 6 billones de tokens de texto, empleando arquitecturas, conjuntos de datos y metodologías de entrenamiento similares a los de la familia de modelos Gemini. [98]
En marzo de 2024, DeepMind presentó Scalable Instructable Multiword Agent, o SIMA, un agente de inteligencia artificial capaz de comprender y seguir instrucciones en lenguaje natural para completar tareas en varios entornos virtuales 3D. SIMA, que recibió formación en nueve videojuegos de ocho estudios y cuatro entornos de investigación, demostró adaptabilidad a nuevas tareas y configuraciones sin necesidad de acceder al código fuente del juego o a las API. El agente comprende modelos de lenguaje y visión por computadora previamente entrenados y ajustados a los datos del juego, siendo el lenguaje crucial para comprender y completar las tareas determinadas según las instrucciones. La investigación de DeepMind tenía como objetivo desarrollar agentes de IA más útiles traduciendo capacidades avanzadas de IA en acciones del mundo real a través de una interfaz de lenguaje. [99] [100]
En mayo de 2024, se anunció en Google I/O 2024 un modelo de generación de vídeo multimodal llamado Veo . Google afirmó que podía generar vídeos de 1080p de más de un minuto de duración. [6] A partir de junio de 2024 , el modelo se encuentra en pruebas limitadas. [7][actualizar]
Lanzado en junio de 2023, RoboCat es un modelo de inteligencia artificial que puede controlar brazos robóticos. El modelo puede adaptarse a nuevos modelos de brazos robóticos y a nuevos tipos de tareas. [101] [102]
Los investigadores de DeepMind han aplicado modelos de aprendizaje automático al deporte del fútbol , a menudo denominado fútbol en Norteamérica, modelando el comportamiento de los jugadores de fútbol, incluidos el portero, los defensores y los delanteros, durante diferentes escenarios, como los tiros penales. Los investigadores utilizaron mapas de calor y análisis de conglomerados para organizar a los jugadores en función de su tendencia a comportarse de cierta manera durante el juego cuando se enfrentan a una decisión sobre cómo anotar o evitar que el otro equipo anote.
Los investigadores mencionan que los modelos de aprendizaje automático podrían usarse para democratizar la industria del fútbol seleccionando automáticamente videoclips interesantes del juego que sirvan como momentos destacados. Esto se puede hacer buscando videos de ciertos eventos, lo cual es posible porque el análisis de video es un campo establecido del aprendizaje automático. Esto también es posible gracias a amplios análisis deportivos basados en datos que incluyen pases o tiros anotados, sensores que capturan datos sobre los movimientos de los jugadores muchas veces durante el transcurso de un juego y modelos de teoría de juegos. [103] [104]
Google ha presentado un nuevo programa de documentos arqueológicos, llamado Ítaca en honor a la isla griega de la Odisea de Homero . [105] Esta red neuronal profunda ayuda a los investigadores a restaurar el texto vacío de documentos griegos dañados y a identificar su fecha y origen geográfico. [106] El trabajo se basa en otra red de análisis de texto que DeepMind lanzó en 2019, llamada Pythia. [106] Ithaca logra una precisión del 62% en la restauración de textos dañados y una precisión de ubicación del 71%, y tiene una precisión de datación de 30 años. [106] Los autores afirmaron que el uso de Ítaca por "historiadores expertos" elevó la precisión de su trabajo del 25 al 72 por ciento. [105] Sin embargo, Eleanor Dickey señaló que esta prueba en realidad solo estaba hecha para estudiantes, y dijo que no estaba claro qué tan útil sería Ithaca para los "editores genuinamente calificados". [106]
El equipo está trabajando para ampliar el modelo a otros idiomas antiguos, incluidos el demótico , el acadio , el hebreo y el maya . [105]
En noviembre de 2023, Google DeepMind anunció una red de gráficos de código abierto para la exploración de materiales (GNoME). La herramienta propone millones de materiales hasta ahora desconocidos para la química, entre ellos varios cientos de miles de estructuras cristalinas estables, de las cuales 736 habían sido producidas experimentalmente por el Instituto Tecnológico de Massachusetts en el momento de su lanzamiento. [107] [108] Sin embargo, según Anthony Cheetham , GNoME no hizo "una contribución útil y práctica a los científicos de materiales experimentales". [109] Un artículo de revisión de Cheetham y Ram Seshadri no pudo identificar ningún material "sorprendentemente novedoso" encontrado por GNoME, siendo la mayoría variantes menores de materiales ya conocidos. [109] [110]
En octubre de 2022, DeepMind lanzó AlphaTensor , que utilizó técnicas de aprendizaje por refuerzo similares a las de AlphaGo, para encontrar algoritmos novedosos para la multiplicación de matrices . [111] [112] En el caso especial de multiplicar dos matrices de 4 × 4 con entradas enteras , donde solo se registra la paridad o imparidad de las entradas, AlphaTensor encontró un algoritmo que requiere solo 47 multiplicaciones distintas; el óptimo anterior, conocido desde 1969, era el algoritmo de Strassen más general , que utilizaba 49 multiplicaciones. [113] El científico informático Josh Alman describió AlphaTensor como "una prueba de concepto para algo que podría convertirse en un gran avance", mientras que Vassilevska Williams lo llamó "un poco sobrevalorado" [113] a pesar de reconocer también su base en el aprendizaje por refuerzo como "algo completamente diferente". " de enfoques anteriores. [112]
AlphaGeometry es una IA neurosimbólica que pudo resolver 25 de 30 problemas de geometría de la Olimpiada Internacional de Matemáticas , un desempeño comparable al de un medallista de oro. [114]
Los programas de geometría tradicionales son motores simbólicos que se basan exclusivamente en reglas codificadas por humanos para generar pruebas rigurosas, lo que les hace carecer de flexibilidad en situaciones inusuales. AlphaGeometry combina dicho motor simbólico con un modelo de lenguaje grande especializado entrenado en datos sintéticos de pruebas geométricas. Cuando el motor simbólico no logra encontrar por sí solo una prueba formal y rigurosa, solicita el modelo del lenguaje grande, que sugiere una construcción geométrica para avanzar. Sin embargo, no está claro qué tan aplicable es este método a otros dominios de las matemáticas o del razonamiento, porque los motores simbólicos se basan en reglas específicas del dominio y debido a la necesidad de datos sintéticos. [114]
AlphaProof es un modelo de IA que combina un modelo de lenguaje previamente entrenado con el algoritmo de aprendizaje por refuerzo AlphaZero. AlphaZero ha aprendido por sí solo a dominar los juegos. El modelo de lenguaje previamente entrenado utilizado en esta combinación es el ajuste fino de un modelo Gemini para traducir automáticamente enunciados de problemas en lenguaje natural en enunciados formales, creando una gran biblioteca de problemas formales de diferente dificultad. Para ello, se definen enunciados matemáticos en el lenguaje formal Lean . En la Olimpiada Internacional de Matemáticas de 2024, AlphaProof, junto con una versión adaptada de AlphaGeometry, alcanzó el mismo nivel de resolución de problemas en las categorías combinadas que el medallista de plata en esa competencia por primera vez. [115] [116]
En junio de 2023, Deepmind anunció que AlphaDev , que busca algoritmos informáticos mejorados utilizando el aprendizaje por refuerzo , descubrió una forma más eficiente de codificar un algoritmo de clasificación y un algoritmo hash. El nuevo algoritmo de clasificación fue un 70% más rápido para secuencias más cortas y un 1,7% más rápido para secuencias que superaban los 250.000 elementos, y el nuevo algoritmo hash fue un 30% más rápido en algunos casos. El algoritmo de clasificación fue aceptado en los algoritmos de clasificación de la Biblioteca estándar de C++ y fue el primer cambio en esos algoritmos en más de una década y la primera actualización que involucró un algoritmo descubierto utilizando IA. [117] El algoritmo hash se lanzó a una biblioteca de código abierto. [118] Google estima que estos dos algoritmos se utilizan billones de veces cada día. [119]
Google ha declarado que los algoritmos de DeepMind han aumentado considerablemente la eficiencia de la refrigeración de sus centros de datos al equilibrar automáticamente el costo de las fallas de hardware con el costo de la refrigeración. [120] Además, DeepMind (junto con otros investigadores de Alphabet AI) colabora con las recomendaciones de aplicaciones personalizadas de Google Play . [82] DeepMind también ha colaborado con el equipo de Android de Google para la creación de dos nuevas funciones que se pusieron a disposición de las personas con dispositivos que ejecutan Android Pie, la novena entrega del sistema operativo móvil de Google. Estas funciones, Batería adaptable y Brillo adaptable, utilizan el aprendizaje automático para conservar energía y hacer que los dispositivos que ejecutan el sistema operativo sean más fáciles de usar. Es la primera vez que DeepMind utiliza estas técnicas a una escala tan pequeña, y las aplicaciones típicas de aprendizaje automático requieren órdenes de magnitud más de potencia informática. [121]
En julio de 2016, se anunció una colaboración entre DeepMind y Moorfields Eye Hospital para desarrollar aplicaciones de IA para la atención sanitaria . [122] DeepMind se aplicaría al análisis de escaneos oculares anónimos , en busca de signos tempranos de enfermedades que conducen a la ceguera .
En agosto de 2016, se anunció un programa de investigación con el University College London Hospital con el objetivo de desarrollar un algoritmo que pueda diferenciar automáticamente entre tejidos sanos y cancerosos en las áreas de la cabeza y el cuello. [123]
También hay proyectos con Royal Free London NHS Foundation Trust y Imperial College Healthcare NHS Trust para desarrollar nuevas aplicaciones clínicas móviles vinculadas a registros electrónicos de pacientes . [124] Se informó que el personal del Royal Free Hospital dijo en diciembre de 2017 que el acceso a los datos de los pacientes a través de la aplicación había ahorrado una "gran cantidad de tiempo" y había marcado una diferencia "fenomenal" en el tratamiento de pacientes con lesión renal aguda. Los datos de los resultados de las pruebas se envían a los teléfonos móviles del personal y les alertan sobre cambios en la condición del paciente. También permite al personal ver si alguien más ha respondido y mostrar a los pacientes sus resultados de forma visual. [125] [ ¿ fuente poco confiable? ]
En noviembre de 2017, DeepMind anunció una asociación de investigación con el Centro de Investigación del Cáncer del Reino Unido en el Imperial College de Londres con el objetivo de mejorar la detección del cáncer de mama mediante la aplicación del aprendizaje automático a la mamografía. [126] Además, en febrero de 2018, DeepMind anunció que estaba trabajando con el Departamento de Asuntos de Veteranos de EE. UU. en un intento de utilizar el aprendizaje automático para predecir la aparición de lesión renal aguda en pacientes y también, de manera más amplia, el deterioro general de los pacientes durante un estancia hospitalaria para que los médicos y enfermeras puedan tratar más rápidamente a los pacientes que lo necesiten. [127]
DeepMind desarrolló una aplicación llamada Streams, que envía alertas a los médicos sobre pacientes en riesgo de sufrir una lesión renal aguda. [128] El 13 de noviembre de 2018, DeepMind anunció que su división de salud y la aplicación Streams serían absorbidas por Google Health . [129] Los defensores de la privacidad dijeron que el anuncio traicionaba la confianza del paciente y parecía contradecir declaraciones anteriores de DeepMind de que los datos de los pacientes no se conectarían a las cuentas o servicios de Google. [130] [131] Un portavoz de DeepMind dijo que los datos de los pacientes aún se mantendrían separados de los servicios o proyectos de Google. [132]
En abril de 2016, New Scientist obtuvo una copia de un acuerdo de intercambio de datos entre DeepMind y Royal Free London NHS Foundation Trust . Este último gestiona tres hospitales de Londres donde se estima que se trata a 1,6 millones de pacientes al año. El acuerdo muestra que DeepMind Health tuvo acceso a datos de admisiones, altas y transferencias, accidentes y emergencias, patología y radiología, y cuidados críticos en estos hospitales. Esto incluía detalles personales como si los pacientes habían sido diagnosticados con VIH , padecían depresión o alguna vez se habían sometido a un aborto con el fin de realizar investigaciones para buscar mejores resultados en diversas condiciones de salud. [133] [134]
Se presentó una denuncia ante la Oficina del Comisionado de Información (ICO), argumentando que los datos deberían ser seudonimizados y cifrados. [135] En mayo de 2016, New Scientist publicó otro artículo afirmando que el proyecto no había logrado obtener la aprobación del Grupo Asesor de Confidencialidad de la Agencia Reguladora de Medicamentos y Productos Sanitarios . [136]
En 2017, la ICO concluyó una investigación de un año de duración que se centró en cómo Royal Free NHS Foundation Trust probó la aplicación, Streams, a finales de 2015 y 2016. [137] La ICO descubrió que Royal Free no cumplió con las normas de protección de datos. Act cuando proporcionó detalles del paciente a DeepMind y encontró varias deficiencias en la forma en que se manejaban los datos, incluido el hecho de que los pacientes no fueron informados adecuadamente de que sus datos se utilizarían como parte de la prueba. DeepMind publicó sus pensamientos [138] sobre la investigación en julio de 2017, diciendo "tenemos que hacerlo mejor" y destacando varias actividades e iniciativas que habían iniciado para la transparencia, la supervisión y el compromiso. Esto incluyó el desarrollo de una estrategia de participación pública y de pacientes [139] y ser transparente en sus asociaciones.
En mayo de 2017, Sky News publicó una carta filtrada de la National Data Guardian, Dame Fiona Caldicott , revelando que en su "opinión meditada" el acuerdo de intercambio de datos entre DeepMind y Royal Free se llevó a cabo sobre una "base legal inapropiada". [140] La Oficina del Comisionado de Información dictaminó en julio de 2017 que el hospital Royal Free no cumplió con la Ley de Protección de Datos cuando entregó datos personales de 1,6 millones de pacientes a DeepMind. [141]
En octubre de 2017, DeepMind anunció una nueva unidad de investigación, DeepMind Ethics & Society. [142] Su objetivo es financiar investigaciones externas sobre los siguientes temas: privacidad, transparencia y equidad; impactos económicos; gobernanza y rendición de cuentas; gestionar el riesgo de la IA; Moralidad y valores de la IA; y cómo la IA puede abordar los desafíos del mundo. Como resultado, el equipo espera comprender mejor las implicaciones éticas de la IA y ayudar a la sociedad a ver que la IA puede ser beneficiosa. [143]
Esta nueva subdivisión de DeepMind es una unidad completamente separada de la asociación de empresas líderes que utilizan IA, el mundo académico, organizaciones de la sociedad civil y organizaciones sin fines de lucro denominada Partnership on Artificial Intelligence to Benefit People and Society, de la que DeepMind también forma parte. [144] La junta de Ética y Sociedad de DeepMind también es distinta de la debatida Junta de Ética de IA que Google acordó formar originalmente al adquirir DeepMind. [145]
DeepMind patrocina tres cátedras de aprendizaje automático: