stringtranslate.com

Unidad de procesamiento de tensores

La Unidad de Procesamiento Tensor ( TPU ) es un circuito integrado específico de la aplicación (ASIC) acelerador de IA desarrollado por Google para el aprendizaje automático de redes neuronales , utilizando el software TensorFlow de Google . [2] Google comenzó a utilizar TPU internamente en 2015, y en 2018 las puso a disposición de terceros , tanto como parte de su infraestructura en la nube como ofreciendo una versión más pequeña del chip para la venta.

Comparación con CPU y GPU

En comparación con una unidad de procesamiento de gráficos , las TPU están diseñadas para un gran volumen de computación de baja precisión (por ejemplo, tan solo 8 bits de precisión) [3] con más operaciones de entrada/salida por julio , sin hardware para rasterización/ mapeo de texturas . [4] Los ASIC de TPU están montados en un conjunto de disipador de calor, que puede caber en una ranura de disco duro dentro de un bastidor de centro de datos , según Norman Jouppi . [5]

Los distintos tipos de procesadores son adecuados para distintos tipos de modelos de aprendizaje automático. Las TPU son adecuadas para las CNN , mientras que las GPU tienen ventajas para algunas redes neuronales completamente conectadas y las CPU pueden tener ventajas para las RNN . [6]

Historia

La unidad de procesamiento tensorial se anunció en mayo de 2016 en Google I/O , cuando la compañía dijo que la TPU ya se había utilizado dentro de sus centros de datos durante más de un año. [5] [4] El chip ha sido diseñado específicamente para el marco TensorFlow de Google , una biblioteca matemática simbólica que se utiliza para aplicaciones de aprendizaje automático como redes neuronales . [7] Sin embargo, a partir de 2017 Google todavía usaba CPU y GPU para otros tipos de aprendizaje automático . [5] También están apareciendo otros diseños de aceleradores de IA de otros proveedores y están dirigidos a los mercados integrados y robóticos .

Las TPU de Google son propietarias. Algunos modelos están disponibles comercialmente y el 12 de febrero de 2018, The New York Times informó que Google "permitiría a otras empresas comprar acceso a esos chips a través de su servicio de computación en la nube". [8] Google ha dicho que se utilizaron en la serie AlphaGo versus Lee Sedol de juegos de Go de humano contra máquina , [4] así como en el sistema AlphaZero , que produjo programas para jugar ajedrez , shogi y Go a partir de las reglas del juego únicamente y pasó a vencer a los programas líderes en esos juegos. [9] Google también ha utilizado TPU para el procesamiento de texto de Google Street View y pudo encontrar todo el texto en la base de datos de Street View en menos de cinco días. En Google Photos , una TPU individual puede procesar más de 100 millones de fotos al día. [5] También se utiliza en RankBrain que Google utiliza para proporcionar resultados de búsqueda. [10]

Google proporciona a terceros acceso a TPU a través de su servicio Cloud TPU como parte de Google Cloud Platform [11] y a través de sus servicios basados ​​en notebooks Kaggle y Colaboratory . [12] [13]

Productos

TPU de primera generación

El TPU de primera generación es un motor de multiplicación de matrices de 8 bits , impulsado con instrucciones CISC por el procesador host a través de un bus PCIe 3.0 . Se fabrica en un proceso de 28 nm con un tamaño de matriz ≤ 331  mm 2 . La velocidad de reloj es de 700  MHz y tiene una potencia de diseño térmico de 28-40  W . Tiene 28  MiB de memoria en chip y 4  MiB de acumuladores de 32 bits que toman los resultados de una matriz sistólica de 256 × 256 de multiplicadores de 8 bits . [22] Dentro del paquete TPU hay 8  GiB de SDRAM DDR3 de 2133 MHz de doble canal que ofrece 34 GB/s de ancho de banda. [16] Las instrucciones transfieren datos hacia o desde el host, realizan multiplicaciones o convoluciones de matrices y aplican funciones de activación . [22]

TPU de segunda generación

La segunda generación de TPU se anunció en mayo de 2017. [23] Google declaró que el diseño de TPU de primera generación estaba limitado por el ancho de banda de la memoria y que el uso de 16 GB de memoria de alto ancho de banda en el diseño de segunda generación aumentó el ancho de banda a 600 GB/s y el rendimiento a 45 teraFLOPS . [ 16] Luego, las TPU se organizan en módulos de cuatro chips con un rendimiento de 180 teraFLOPS. [23] Luego, 64 de estos módulos se ensamblan en módulos de 256 chips con 11,5 petaFLOPS de rendimiento. [23] En particular, mientras que las TPU de primera generación estaban limitadas a números enteros, las TPU de segunda generación también pueden calcular en punto flotante , introduciendo el formato bfloat16 inventado por Google Brain . Esto hace que las TPU de segunda generación sean útiles tanto para el entrenamiento como para la inferencia de modelos de aprendizaje automático. Google ha declarado que estas TPU de segunda generación estarán disponibles en Google Compute Engine para su uso en aplicaciones TensorFlow. [24]

TPU de tercera generación

La TPU de tercera generación se anunció el 8 de mayo de 2018. [25] Google anunció que los procesadores en sí son dos veces más potentes que las TPU de segunda generación y se implementarían en módulos con cuatro veces más chips que la generación anterior. [26] [27] Esto da como resultado un aumento de 8 veces en el rendimiento por módulo (con hasta 1024 chips por módulo) en comparación con la implementación de la TPU de segunda generación.

TPU de cuarta generación

El 18 de mayo de 2021, el director ejecutivo de Google, Sundar Pichai, habló sobre las unidades de procesamiento tensor TPU v4 durante su discurso de apertura en la conferencia virtual Google I/O. La TPU v4 mejoró el rendimiento en más del doble con respecto a los chips TPU v3. Pichai dijo: "Un solo módulo v4 contiene 4096 chips v4, y cada módulo tiene 10 veces el ancho de banda de interconexión por chip a escala, en comparación con cualquier otra tecnología de red". [28] Un artículo de Google de abril de 2023 afirma que la TPU v4 es entre un 5 y un 87 % más rápida que una Nvidia A100 en los puntos de referencia de aprendizaje automático . [29]

También existe una versión de "inferencia", llamada v4i, [30] que no requiere refrigeración líquida . [31]

TPU de quinta generación

En 2021, Google reveló que el diseño físico del TPU v5 se está diseñando con la ayuda de una nueva aplicación de aprendizaje de refuerzo profundo . [32] Google afirma que el TPU v5 es casi el doble de rápido que el TPU v4, [33] y basándose en eso y en el rendimiento relativo del TPU v4 sobre el A100, algunos especulan que el TPU v5 es tan rápido o más rápido que un H100 . [34]

De manera similar a que el v4i es una versión más liviana del v4, la quinta generación tiene una versión "rentable" [35] llamada v5e. [18] En diciembre de 2023, Google anunció el TPU v5p, que se afirma que es competitivo con el H100. [36]

TPU de sexta generación

En mayo de 2024, en la conferencia Google I/O , Google anunció la TPU v6, que estará disponible a finales de 2024. Google afirmó que el rendimiento se ha multiplicado por 4,7 en comparación con la TPU v5e, [37] gracias a unidades de multiplicación de matrices más grandes y una mayor velocidad de reloj. La capacidad y el ancho de banda de la memoria de alto ancho de banda (HBM) también se han duplicado. Un módulo puede contener hasta 256 unidades Trillium. [38]

Borde de TPU

En julio de 2018, Google anunció el Edge TPU. El Edge TPU es el chip ASIC diseñado específicamente por Google para ejecutar modelos de aprendizaje automático (ML) para la informática de borde , lo que significa que es mucho más pequeño y consume mucha menos energía en comparación con los TPU alojados en los centros de datos de Google (también conocidos como Cloud TPU [39] ). En enero de 2019, Google puso el Edge TPU a disposición de los desarrolladores con una línea de productos bajo la marca Coral. El Edge TPU es capaz de realizar 4 billones de operaciones por segundo con 2 W de potencia eléctrica. [40]

La oferta de productos incluye una computadora de placa única (SBC), un sistema en módulo (SoM), un accesorio USB , una tarjeta mini PCI-e y una tarjeta M.2 . Tanto la SBC Coral Dev Board como la Coral SoM ejecutan el sistema operativo Mendel Linux, un derivado de Debian . [41] [42] Los productos USB, PCI-e y M.2 funcionan como complementos de los sistemas informáticos existentes y admiten sistemas Linux basados ​​en Debian en hosts x86-64 y ARM64 (incluido Raspberry Pi ).

El entorno de ejecución de aprendizaje automático utilizado para ejecutar modelos en Edge TPU se basa en TensorFlow Lite . [43] Edge TPU solo es capaz de acelerar operaciones de pase hacia adelante, lo que significa que es principalmente útil para realizar inferencias (aunque es posible realizar aprendizaje de transferencia ligero en Edge TPU [44] ). Edge TPU también solo admite matemáticas de 8 bits, lo que significa que para que una red sea compatible con Edge TPU, debe entrenarse utilizando la técnica de entrenamiento con reconocimiento de cuantificación de TensorFlow o, desde fines de 2019, también es posible usar cuantificación posterior al entrenamiento.

El 12 de noviembre de 2019, Asus anunció un par de computadoras de placa única (SBC) que incorporan Edge TPU. Las placas Asus Tinker Edge T y Tinker Edge R están diseñadas para IoT e inteligencia artificial de borde . Las SBC son oficialmente compatibles con los sistemas operativos Android y Debian . [45] [46] ASUS también ha demostrado una mini PC llamada Asus PN60T que incorpora Edge TPU. [47]

El 2 de enero de 2020, Google anunció el módulo acelerador Coral y la Coral Dev Board Mini, que se presentarán en el CES 2020 a finales del mismo mes. El módulo acelerador Coral es un módulo multichip que incluye las interfaces Edge TPU, PCIe y USB para una integración más sencilla. La Coral Dev Board Mini es una SBC más pequeña que incluye el módulo acelerador Coral y el SoC MediaTek 8167s . [48] [49]

Núcleo neuronal de píxeles

El 15 de octubre de 2019, Google anunció el teléfono inteligente Pixel 4 , que contiene un Edge TPU llamado Pixel Neural Core . Google lo describe como "personalizado para cumplir con los requisitos de las funciones clave de la cámara en Pixel 4", utilizando una búsqueda de red neuronal que sacrifica algo de precisión a favor de minimizar la latencia y el uso de energía. [50]

Tensor de Google

Google siguió el ejemplo del Pixel Neural Core al integrar una TPU Edge en un sistema en chip personalizado llamado Google Tensor , que se lanzó en 2021 con la línea de teléfonos inteligentes Pixel 6. [51] El SoC Google Tensor demostró "ventajas de rendimiento extremadamente grandes sobre la competencia" en puntos de referencia centrados en el aprendizaje automático; aunque el consumo de energía instantáneo también fue relativamente alto, el rendimiento mejorado significó que se consumió menos energía debido a períodos más cortos que requerían un rendimiento máximo. [52]

Pleito

En 2019, Singular Computing, fundada en 2009 por Joseph Bates, profesor visitante en el MIT , [53] presentó una demanda contra Google alegando infracción de patentes en chips de TPU. [54] Para 2020, Google había logrado reducir con éxito el número de reclamaciones que el tribunal consideraría a solo dos: la reclamación 53 de US 8407273  presentada en 2012 y la reclamación 7 de US 9218156 presentada en 2013, ambas reclaman un rango dinámico de 10 -6 a 10 6 para números de punto flotante, que el estándar float16 no puede hacer (sin recurrir a números subnormales ) ya que solo tiene cinco bits para el exponente. En una presentación judicial de 2023, Singular Computing mencionó específicamente el uso de bfloat16 por parte de Google , ya que excede el rango dinámico de float16 . [55] Singular afirma que los formatos de punto flotante no estándar no eran obvios en 2009, pero Google replica que el formato VFLOAT [56] , con un número configurable de bits de exponente, existía como técnica anterior en 2002. [57] Para enero de 2024, las demandas posteriores de Singular habían elevado el número de patentes en litigio a ocho. Hacia el final del juicio más tarde ese mes, Google aceptó un acuerdo con términos no revelados. [58] [59] 

Véase también

Referencias

  1. ^ Jouppi et al, 2017, "Análisis del rendimiento en el centro de datos de una unidad de procesamiento tensorial", https://arxiv.org/abs/1704.04760
  2. ^ "Unidades de procesamiento de tensor de nube (TPU)". Google Cloud . Consultado el 20 de julio de 2020 .
  3. ^ Armasu, Lucian (19 de mayo de 2016). "Gran presentación de chips de Google para aprendizaje automático: unidad de procesamiento de tensores con una eficiencia 10 veces mejor (actualizado)". Tom's Hardware . Consultado el 26 de junio de 2016 .
  4. ^ abc Jouppi, Norm (18 de mayo de 2016). "Google potencia las tareas de aprendizaje automático con un chip personalizado de TPU". Blog de Google Cloud Platform . Consultado el 22 de enero de 2017 .
  5. ^ abcd "La unidad de procesamiento tensorial de Google explicada: así es como se ve el futuro de la informática". TechRadar . Consultado el 19 de enero de 2017 .
  6. ^ Wang, Yu Emma; Wei, Gu-Yeon; Brooks, David (1 de julio de 2019). "Evaluación comparativa de plataformas TPU, GPU y CPU para aprendizaje profundo". arXiv : 1907.10701 [cs.LG].
  7. ^ "TensorFlow: aprendizaje automático de código abierto" "Es un software de aprendizaje automático que se utiliza para diversos tipos de tareas de percepción y comprensión del lenguaje" — Jeffrey Dean, minuto 0:47 / 2:17 del clip de Youtube
  8. ^ Metz, Cade (12 de febrero de 2018). «Google pone a disposición de otros sus chips especiales de inteligencia artificial». The New York Times . Consultado el 12 de febrero de 2018 .
  9. ^ McGourty, Colin (6 de diciembre de 2017). "AlphaZero de DeepMind aplasta al ajedrez". chess24.com .
  10. ^ "La unidad de procesamiento tensorial de Google podría hacer avanzar la Ley de Moore siete años en el futuro". PCWorld . Consultado el 19 de enero de 2017 .
  11. ^ "Preguntas frecuentes | Cloud TPU". Google Cloud . Consultado el 14 de enero de 2021 .
  12. ^ "Google Colaboratory". colab.research.google.com . Consultado el 15 de mayo de 2021 .
  13. ^ "Usar TPU | TensorFlow Core". TensorFlow . Consultado el 15 de mayo de 2021 .
  14. ^ Jouppi, Norman P.; Yoon, Doe Hyun; Ashcraft, Matthew; Gottscho, Mark (14 de junio de 2021). Diez lecciones de tres generaciones que dieron forma a la TPUv4i de Google (PDF) . Simposio Internacional de Arquitectura de Computadores. Valencia, España. doi :10.1109/ISCA52012.2021.00010. ISBN 978-1-4503-9086-6.
  15. ^ ab "Arquitectura del sistema | Cloud TPU". Google Cloud . Consultado el 11 de diciembre de 2022 .
  16. ^ abc Kennedy, Patrick (22 de agosto de 2017). "Estudio de caso sobre Google TPU y GDDR5 de Hot Chips 29". Serve The Home . Consultado el 23 de agosto de 2017 .
  17. ^ Estén atentos, pronto habrá más información sobre TPU v4, consultado el 6 de agosto de 2020.
  18. ^ ab Cloud TPU v5e Inference Public Preview, recuperado el 6 de noviembre de 2023.
  19. ^ Cloud TPU v5p Google Cloud. Consultado el 9 de abril de 2024.
  20. ^ Capacitación sobre Cloud TPU v5p, consultado el 9 de abril de 2024.
  21. ^ "Presentamos Trillium, las TPU de sexta generación". Blog de Google Cloud . Consultado el 29 de mayo de 2024 .
  22. ^ ab Jouppi, Norman P.; Joven, acantilado; Patil, Nishant; Patterson, David; Agrawal, Gaurav; Bajwa, Raminder; Bates, Sara; Bhatia, Suresh; Boden, Nan; Borchers, Al; Boyle, Rick; Cantin, Pierre-Luc; Chao, Clifford; Clark, Chris; Coriell, Jeremy; Daley, Mike; Dau, Matt; Decano, Jeffrey; Gelb, Ben; Ghaemmaghami, Tara Vazir; Gottipati, Rajendra; Gulland, William; Hagmann, Robert; Ho, C. Richard; Hogberg, Doug; Hu, Juan; Hundt, Robert; Herido, Dan; Ibarz, Julián; Jaffey, Aarón; Jaworski, Alek; Kaplan, Alejandro; Jaitan, Harshit; Koch, Andy; Kumar, Naveen; De encaje, Steve; Laudon, James; Ley, James; Le, Diemthu; Leary, Chris; Liu, Zhuyuan; Lucke, Kyle; Lundin, Alan; MacKean, Gordon; Maggiore, Adriana; Mahony, Maire; Miller, Kieran; Nagarajan, Rahul; Narayanaswami, Ravi; Ni, Ray; Nix, Kathy; Norrie, Thomas; Omernick, Mark; Penukonda, Narayana; Phelps, Andy; Ross, Jonathan; Ross, Matt; Salek, Amir; Samadiani, Emad; Severn, Chris; Sizikov, Gregory; Snelham, Matthew; Souter, Jed; Steinberg, Dan; Swing, Andy; Tan, Mercedes; Thorson, Gregory; Tian, ​​Bo; Toma, Horia; Tuttle, Erick; Vasudevan, Vijay; Walter, Richard; Wang, Walter; Wilcox, Eric; Yoon, Doe Hyun (26 de junio de 2017) Análisis del rendimiento en el centro de datos de una unidad de procesamiento Tensor™ . Toronto, Canadá. arXiv : 1704.04760 .
  23. ^ abc Bright, Peter (17 de mayo de 2017). «Google incorpora procesadores de flujo tensorial de 45 teraflops a su nube informática». Ars Technica . Consultado el 30 de mayo de 2017 .
  24. ^ Kennedy, Patrick (17 de mayo de 2017). "Google Cloud TPU Details Revealed". Serve The Home . Consultado el 30 de mayo de 2017 .
  25. ^ Frumusanu, Andre (8 de mayo de 2018). "Blog en vivo de la conferencia inaugural de Google I/O" . Consultado el 9 de mayo de 2018 .
  26. ^ Feldman, Michael (11 de mayo de 2018). «Google ofrece una visión del procesador TPU de tercera generación». Top 500 . Consultado el 14 de mayo de 2018 .
  27. ^ Teich, Paul (10 de mayo de 2018). "Tearing Apart Google's TPU 3.0 AI Coprocessor" (Desmantelando el coprocesador de inteligencia artificial TPU 3.0 de Google). The Next Platform . Consultado el 14 de mayo de 2018 .
  28. ^ "Google lanza chips de inteligencia artificial TPU v4". www.hpcwire.com . 20 de mayo de 2021 . Consultado el 7 de junio de 2021 .
  29. ^ Jouppi, Norman (20 de abril de 2023). "TPU v4: una supercomputadora ópticamente reconfigurable para aprendizaje automático con soporte de hardware para incrustaciones". arXiv : 2304.01433 [cs.AR].
  30. ^ Kennedy, Patrick (29 de agosto de 2023). "Google detalla TPUv4 y su red de inteligencia artificial ópticamente reconfigurable". servethehome.com . Consultado el 16 de diciembre de 2023 .
  31. ^ "¿Por qué Google desarrolló su propio chip TPU? Revelación detallada de los miembros del equipo". censtry.com . 2021-10-20 . Consultado el 2023-12-16 .
  32. ^ Mirhoseini, Azalia; Goldie, Anna (1 de junio de 2021). "Una metodología de colocación de grafos para el diseño rápido de chips" (PDF) . Nature . 594 (7962): 207–212. doi :10.1038/s41586-022-04657-6. PMID  35361999. S2CID  247855593 . Consultado el 4 de junio de 2023 .
  33. ^ Vahdat, Amin (6 de diciembre de 2023). "Habilitación de cargas de trabajo de IA de próxima generación: anuncio de TPU v5p y AI Hypercomputer" . Consultado el 8 de abril de 2024 .
  34. ^ Afifi-Sabet, Keumars (23 de diciembre de 2023). "Google se está convirtiendo rápidamente en un formidable oponente para su mejor amiga Nvidia: el chip de inteligencia artificial TPU v5p que alimenta su hipercomputadora es más rápido y tiene más memoria y ancho de banda que nunca, superando incluso al poderoso H100". TechRadar . Consultado el 8 de abril de 2024 .
  35. ^ "Ampliando nuestra cartera de infraestructura optimizada para IA: presentamos Cloud TPU v5e y anunciamos A3 GA". 2023-08-29 . Consultado el 2023-12-16 .
  36. ^ "Habilitación de cargas de trabajo de IA de próxima generación: anuncio de TPU v5p y AI Hypercomputer". 2023-12-06 . Consultado el 2024-04-09 .
  37. ^ Velasco, Alan (15 de mayo de 2024). "Google Cloud presenta Trillium, su TPU de sexta generación con un rendimiento de inteligencia artificial 4,7 veces superior". HotHardware . Consultado el 15 de mayo de 2024 .
  38. ^ "Presentamos Trillium, las TPU de sexta generación". Blog de Google Cloud . Consultado el 17 de mayo de 2024 .
  39. ^ "Cloud TPU". Google Cloud . Consultado el 21 de mayo de 2021 .
  40. ^ "Puntos de referencia de rendimiento de Edge TPU". Coral . Consultado el 4 de enero de 2020 .
  41. ^ "Dev Board". Coral . Consultado el 21 de mayo de 2021 .
  42. ^ "Sistema en módulo (SoM)". Coral . Consultado el 21 de mayo de 2021 .
  43. ^ "Llevar la inteligencia al límite con IoT en la nube". Blog de Google . 2018-07-25 . Consultado el 2018-07-25 .
  44. ^ "Reentrenamiento de un modelo de clasificación de imágenes en el dispositivo". Coral . Consultado el 3 de mayo de 2019 .
  45. ^ "組込み総合技術展&IoT総合技術展「ET & IoT Technology 2019」に出展することを発表". Asus.com (en japonés) . Consultado el 13 de noviembre de 2019 .
  46. ^ Shilov, Anton. "ASUS y Google se unen para crear computadoras del tamaño de una tarjeta de crédito con inteligencia artificial 'Tinker Board'". Anandtech.com . Consultado el 13 de noviembre de 2019 .
  47. ^ Aufranc, Jean-Luc (29 de mayo de 2019). "ASUS Tinker Edge T y CR1S-CM-A SBC contarán con Google Coral Edge TPU y procesador NXP i.MX 8M". CNX Software - Embedded Systems News . Consultado el 14 de noviembre de 2019 .
  48. ^ "Nuevos productos Coral para 2020". Blog de desarrolladores de Google . Consultado el 4 de enero de 2020 .
  49. ^ "Módulo acelerador". Coral . Consultado el 4 de enero de 2020 .
  50. ^ "Presentamos la próxima generación de modelos de visión en el dispositivo: MobileNetV3 y MobileNetEdgeTPU". Blog de inteligencia artificial de Google . Consultado el 16 de abril de 2020 .
  51. ^ Gupta, Suyog; White, Marie (8 de noviembre de 2021). "ML en el dispositivo mejorado en Pixel 6, con búsqueda de arquitectura neuronal". Blog de inteligencia artificial de Google . Consultado el 16 de diciembre de 2022 .
  52. ^ Frumusanu, Andrei (2 de noviembre de 2021). "Tensor de Google en el interior de Pixel 6 y Pixel 6 Pro: una mirada al rendimiento y la eficiencia | IP de Google: Tensor TPU/NPU". AnandTech . Consultado el 16 de diciembre de 2022 .
  53. ^ Hardesty, Larry (3 de enero de 2011). "La sorprendente utilidad de la aritmética descuidada". MIT . Consultado el 10 de enero de 2024 .
  54. ^ Bray, Hiawatha (10 de enero de 2024). «Inventor local desafía a Google en una batalla de patentes de mil millones de dólares». Boston Globe . Boston . Archivado desde el original el 10 de enero de 2024 . Consultado el 10 de enero de 2024 .
  55. ^ "SINGULAR COMPUTING LLC, demandante, contra GOOGLE LLC, demandado: demanda enmendada por infracción de patente" (PDF) . rpxcorp.com . RPX Corporation . 2020-03-20 . Consultado el 2024-01-10 .
  56. ^ Wang, Xiaojun; Leeser, Miriam (1 de septiembre de 2010). "VFloat: una biblioteca de punto fijo y flotante de precisión variable para hardware reconfigurable". ACM Transactions on Reconfigurable Technology and Systems . 3 (3): 1–34. doi :10.1145/1839480.1839486 . Consultado el 10 de enero de 2024 .
  57. ^ "Singular Computing LLC contra Google LLC". casetext.com . 2023-04-06 . Consultado el 2024-01-10 .
  58. ^ Calkins, Laurel Brubaker (24 de enero de 2024). "Google resuelve una demanda por chips de inteligencia artificial que reclamaba más de 5.000 millones de dólares". Bloomberg Law .
  59. ^ Brittain, Blake; Raymond, Ray (24 de enero de 2024). "Google resuelve una demanda por patente de chip relacionada con IA que buscaba 1.670 millones de dólares". Reuters .


Enlaces externos