Larrabee es el nombre en clave de un chip GPGPU cancelado que Intel estaba desarrollando por separado de su línea actual de aceleradores gráficos integrados . Lleva el nombre del monte Larrabee o del parque estatal Larrabee en el estado de Washington. [1] [2] El chip iba a lanzarse en 2010 como el núcleo de una tarjeta gráfica 3D de consumo , pero estos planes se cancelaron debido a retrasos y cifras de rendimiento iniciales decepcionantes. [3] [4] El proyecto para producir un producto minorista GPU directamente del proyecto de investigación Larrabee finalizó en mayo de 2010 [5] y su tecnología se pasó al Xeon Phi . La arquitectura multiprocesador Intel MIC anunciada en 2010 heredó muchos elementos de diseño del proyecto Larrabee, pero no funciona como una unidad de procesamiento gráfico; el producto está pensado como un coprocesador para computación de alto rendimiento .
Casi una década después, el 12 de junio de 2018, la idea de una GPU dedicada de Intel revivió nuevamente con el deseo de Intel de crear una GPU discreta para 2020. [6] Este proyecto eventualmente se convertiría en las series Intel Xe e Intel Arc , lanzadas en septiembre de 2020 y marzo de 2022, respectivamente, pero ambas no estaban relacionadas con el trabajo en el proyecto Larrabee.
El 4 de diciembre de 2009, Intel anunció oficialmente que la primera generación de Larrabee no se lanzaría como un producto GPU para el consumidor. [7] En cambio, se lanzaría como una plataforma de desarrollo para gráficos y computación de alto rendimiento . La razón oficial para el reinicio estratégico se atribuyó a retrasos en el desarrollo de hardware y software. [8] El 25 de mayo de 2010, el blog Technology@Intel anunció que Larrabee no se lanzaría como una GPU, sino que se lanzaría como un producto para computación de alto rendimiento que competiría con Nvidia Tesla . [9]
El proyecto de producir un producto GPU para la venta al por menor directamente a partir del proyecto de investigación Larrabee finalizó en mayo de 2010. [5] La arquitectura multiprocesador Intel MIC anunciada en 2010 heredó muchos elementos de diseño del proyecto Larrabee, pero no funciona como una unidad de procesamiento gráfico; el producto está pensado como un coprocesador para computación de alto rendimiento. La tarjeta prototipo se denominó Knights Ferry , y se planeó que una tarjeta de producción construida con un proceso de 22 nm denominada Knights Corner comenzara a producirse en 2012 o más adelante. [ cita requerida ]
Larrabee puede considerarse un híbrido entre una CPU multinúcleo y una GPU , y tiene similitudes con ambas. Su jerarquía de caché coherente y su compatibilidad con la arquitectura x86 son similares a las de una CPU, mientras que sus unidades de vector SIMD amplias y su hardware de muestreo de texturas son similares a las de una GPU.
Como GPU, Larrabee habría admitido gráficos 3D rasterizados tradicionales ( Direct3D y OpenGL ) para juegos. Sin embargo, su hibridación de características de CPU y GPU también debería haber sido adecuada para tareas de procesamiento de flujo o GPU de propósito general (GPGPU) . Por ejemplo, podría haber realizado trazado de rayos o procesamiento de física , [10] en tiempo real para juegos o fuera de línea para investigación científica como un componente de una supercomputadora . [11]
La presentación temprana de Larrabee generó algunas críticas de los competidores de GPU. En NVISION 08 , un empleado de Nvidia calificó el artículo de SIGGRAPH de Intel sobre Larrabee como "una propaganda publicitaria" y citó a un analista de la industria (Peter Glaskowsky) que especuló que la arquitectura Larrabee era "como una GPU de 2006". [12] En junio de 2009, Intel afirmó que los prototipos de Larrabee estaban a la par con la Nvidia GeForce GTX 285. [ 13] Justin Rattner , director de tecnología de Intel , dio una conferencia magistral en la conferencia Supercomputing 2009 el 17 de noviembre de 2009. Durante su charla, demostró un procesador Larrabee overclockeado que superaba un teraFLOPS en rendimiento. Afirmó que esta era la primera demostración pública de un sistema de un solo chip que superaba un teraFLOPS. Señaló que se trataba de silicio en sus inicios, lo que dejaba abierta la cuestión del rendimiento final de la arquitectura. Debido a que esto era solo una quinta parte de la cantidad de tarjetas gráficas disponibles en la competencia, Larrabee fue cancelada "como producto gráfico discreto independiente" el 4 de diciembre de 2009. [3]
Larrabee fue diseñada para diferenciarse de las GPU discretas más antiguas, como la serie GeForce 200 y la serie Radeon 4000, en tres aspectos principales:
Se esperaba que esto hiciera que Larrabee fuera más flexible que las GPU actuales, permitiendo una mayor diferenciación en la apariencia entre juegos u otras aplicaciones 3D. El artículo SIGGRAPH 2008 de Intel mencionó varias características de renderizado que eran difíciles de lograr en las GPU actuales: lectura del objetivo de renderizado, transparencia independiente del orden , mapeo de sombras irregulares y trazado de rayos en tiempo real . [14]
Las GPU más recientes, como la Radeon HD 5xxx de ATI y la serie GeForce 400 de Nvidia, cuentan con capacidades informáticas de propósito general cada vez más amplias a través de DirectX11 DirectCompute y OpenCL, así como la tecnología CUDA patentada de Nvidia , lo que les otorga muchas de las capacidades de Larrabee.
Los núcleos del procesador x86 de Larrabee se diferenciaban en varios aspectos de los núcleos de las CPU Intel actuales, como el Core 2 Duo o el Core i7 :
En teoría, los núcleos de procesador x86 de Larrabee habrían podido ejecutar software de PC existente, o incluso sistemas operativos. Una versión diferente del procesador podría ubicarse en los zócalos de CPU de la placa base utilizando QuickPath , [17] pero Intel nunca anunció ningún plan para esto. Aunque el compilador C/C++ nativo de Larrabee incluía auto-vectorización y muchas aplicaciones pudieron ejecutarse correctamente después de haber sido recompiladas, se esperaba que la máxima eficiencia requiriera optimización de código utilizando intrínsecos vectoriales de C++ o código ensamblador Larrabee en línea. [14] Sin embargo, como en todas las GPGPU, no todo el software se habría beneficiado de la utilización de una unidad de procesamiento vectorial. Un sitio de periodismo tecnológico afirma que las capacidades gráficas de Larrabee estaban planeadas para integrarse en CPU basadas en la microarquitectura Haswell . [18]
La filosofía de Larrabee de utilizar muchos núcleos pequeños y simples era similar a las ideas detrás del procesador Cell . Hay algunas otras similitudes, como el uso de un bus de anillo de gran ancho de banda para comunicarse entre núcleos. [14] Sin embargo, había muchas diferencias significativas en la implementación que se esperaba que hicieran más sencilla la programación de Larrabee.
Intel comenzó a integrar una línea de GPU en placas base bajo la marca Intel GMA en 2004. Al estar integrados en placas base (las versiones más nuevas, como las lanzadas con Sandy Bridge, se incorporan en la misma matriz que la CPU), estos chips no se vendían por separado. Aunque el bajo costo y el consumo de energía de los chips Intel GMA los hacían adecuados para portátiles pequeños y tareas menos exigentes, carecen de la potencia de procesamiento de gráficos 3D para competir con las GPU contemporáneas de Nvidia y AMD/ATI por una parte del mercado de computadoras para juegos de alta gama, el mercado de HPC o un lugar en las consolas de videojuegos populares . Por el contrario, Larrabee se vendería como una GPU discreta, separada de las placas base, y se esperaba que tuviera un rendimiento lo suficientemente bueno como para ser considerado en la próxima generación de consolas de videojuegos. [19] [20]
El equipo que trabajó en Larrabee era independiente del equipo de Intel GMA. El hardware fue diseñado por un equipo recién formado en la planta de Intel en Hillsboro, Oregón , independiente de los que diseñaron Nehalem . El software y los controladores fueron escritos por un equipo recién formado. La pila 3D en particular fue escrita por desarrolladores de RAD Game Tools (incluido Michael Abrash ). [21]
El Intel Visual Computing Institute investigó tecnologías básicas y aplicadas que podrían aplicarse a los productos basados en Larrabee. [22]
El artículo SIGGRAPH 2008 de Intel describe simulaciones precisas de ciclo (se incluyeron limitaciones de memoria, cachés y unidades de textura) del rendimiento proyectado de Larrabee. [14] Los gráficos muestran cuántos núcleos Larrabee de 1 GHz se requieren para mantener 60 cuadros por segundo a una resolución de 1600×1200 en varios juegos populares. Se requieren aproximadamente 25 núcleos para Gears of War sin antialiasing, 25 núcleos para FEAR con antialiasing 4× y 10 núcleos para Half-Life 2: Episode Two con antialiasing 4×. Intel afirmó que Larrabee probablemente funcionaría más rápido que 1 GHz, por lo que estos números no representan núcleos reales, sino fragmentos de tiempo virtuales de los mismos. Otro gráfico muestra que el rendimiento en estos juegos escala casi linealmente con el número de núcleos hasta 32 núcleos. Con 48 núcleos, el rendimiento cae al 90% de lo que se esperaría si la relación lineal continuara. [23]
Un artículo de PC Watch de junio de 2007 sugería que los primeros chips Larrabee contarían con 32 núcleos de procesador x86 y saldrían al mercado a finales de 2009, fabricados con un proceso de 45 nanómetros . Los chips con algunos núcleos defectuosos debido a problemas de rendimiento se venderían como una versión de 24 núcleos. Más tarde, en 2010, Larrabee se reduciría para un proceso de fabricación de 32 nanómetros para permitir una versión de 48 núcleos. [24]
La última declaración de rendimiento se puede calcular (teóricamente, este es el rendimiento máximo posible) de la siguiente manera: 32 núcleos × 16 SIMD de punto flotante de precisión simple/núcleo × 2 FLOP (multiplicación-suma fusionada) × 2 GHz = 2 TFLOPS teóricamente.
El 22 de septiembre de 2009, en el Intel Developer Forum de San Francisco, se llevó a cabo una demostración pública de las capacidades de trazado de rayos de Larrabee. Se mostró en tiempo real una versión experimental de Enemy Territory: Quake Wars , titulada Quake Wars: Ray Traced . La escena contenía una superficie de agua trazada por rayos que reflejaba con precisión los objetos circundantes, como un barco y varios vehículos voladores. [25] [26] [27]
El 17 de noviembre de 2009, durante una conferencia magistral a cargo del director de tecnología de Intel, Justin Rattner , se realizó una segunda demostración en la conferencia SC09 en Portland . Una tarjeta Larrabee logró alcanzar 1006 GFLops en el cálculo SGEMM 4Kx4K.
Linus Sebastian obtuvo y revisó una muestra de ingeniería de una tarjeta Larrabee en un video publicado el 14 de mayo de 2018. Sin embargo, no pudo hacer que la tarjeta emitiera una salida de video, ya que la placa base mostraba el código POST D6. [28] En 2022, el YouTuber Roman "der8auer" Hartung demostró otra tarjeta, que funcionó y emitió una señal de pantalla, pero no fue capaz de realizar una aceleración 3D debido a la falta de controladores. [29]
{{cite web}}
: CS1 maint: URL no apta ( enlace ){{citation}}
: CS1 maint: nombres numéricos: lista de autores ( enlace ){{citation}}
: CS1 maint: nombres numéricos: lista de autores ( enlace )