Una unidad de procesamiento tensorial o TPU (del inglés tensor processing unit) es un circuito integrado de aplicación específica y acelerador de IA (ASIC, AI accelerator application-specific integrated circuit) desarrollado por Google para el aprendizaje automático con redes neuronales artificiales y más específicamente optimizado para usar TensorFlow, la biblioteca de código abierto para aprendizaje automático.
[1][2] El término ha sido acuñado para un chip específico diseñado para el marco TensorFlow de Google.
Está fabricado con un proceso de 28nm en un chip con tamaño ≤ 331 mm².
Sin embargo, se supone que utiliza memoria GDDR5.
[8] También existe una versión de "inferencia", llamada v4i, que no requiere refrigeración líquida.
[10] De manera similar a que v4i, la quinta generación tiene una versión más liviana llamada v5e.