stringtranslate.com

Banda Infinita

InfiniBand ( IB ) es un estándar de comunicaciones de redes informáticas utilizado en informática de alto rendimiento que presenta un alto rendimiento y una latencia muy baja . Se utiliza para la interconexión de datos tanto entre computadoras como dentro de ellas. InfiniBand también se utiliza como una interconexión directa o conmutada entre servidores y sistemas de almacenamiento, así como una interconexión entre sistemas de almacenamiento. Está diseñado para ser escalable y utiliza una topología de red de estructura conmutada . Entre 2014 y junio de 2016, [1] fue la interconexión más utilizada en la lista TOP500 de supercomputadoras.

Mellanox (adquirida por Nvidia ) fabrica adaptadores de bus host InfiniBand y conmutadores de red , que son utilizados por grandes proveedores de sistemas informáticos y bases de datos en sus líneas de productos. [2]

Como interconexión de clústeres informáticos, IB compite con Ethernet , Fibre Channel e Intel Omni-Path . La tecnología es promocionada por la InfiniBand Trade Association .

Historia

InfiniBand se originó en 1999 a partir de la fusión de dos diseños en competencia: Future I/O y Next Generation I/O (NGIO). NGIO fue liderado por Intel , con una especificación lanzada en 1998, [3] y se unieron Sun Microsystems y Dell . Future I/O fue respaldado por Compaq , IBM y Hewlett-Packard . [4] Esto llevó a la formación de la InfiniBand Trade Association (IBTA), que incluía ambos conjuntos de proveedores de hardware, así como proveedores de software como Microsoft . En ese momento se pensó que algunas de las computadoras más potentes se estaban acercando al cuello de botella de interconexión del bus PCI , a pesar de las actualizaciones como PCI-X . [5] La versión 1.0 de la Especificación de arquitectura InfiniBand se lanzó en 2000. Inicialmente, la visión de IBTA para IB era simultáneamente un reemplazo para PCI en E/S, Ethernet en la sala de máquinas , interconexión de clúster y Fibre Channel . IBTA también previó la descomposición del hardware del servidor en una estructura IB .

Mellanox se fundó en 1999 para desarrollar la tecnología NGIO, pero en 2001 lanzó una línea de productos InfiniBand llamada InfiniBridge a velocidades de 10 Gbit/segundo. [6] Tras el estallido de la burbuja puntocom, hubo dudas en la industria sobre invertir en un salto tecnológico de tal alcance. [7] En 2002, Intel anunció que en lugar de lanzar circuitos integrados IB ("chips"), se centraría en el desarrollo de PCI Express , y Microsoft interrumpió el desarrollo de IB a favor de la extensión de Ethernet. Sun Microsystems y Hitachi continuaron apoyando a IB. [8]

En 2003, el superordenador System X construido en Virginia Tech utilizó InfiniBand en lo que se estimó que era el tercer ordenador más grande del mundo en ese momento. [9] La OpenIB Alliance (posteriormente rebautizada como OpenFabrics Alliance) se fundó en 2004 para desarrollar un conjunto abierto de software para el núcleo Linux . En febrero de 2005, el soporte fue aceptado en el núcleo Linux 2.6.11. [10] [11] En noviembre de 2005, finalmente se lanzaron dispositivos de almacenamiento que utilizaban InfiniBand de proveedores como Engenio. [12] Cisco, que deseaba mantener la tecnología superior a Ethernet fuera del mercado, adoptó una estrategia de "comprar para matar". Cisco mató con éxito a las empresas de conmutación InfiniBand como Topspin mediante adquisiciones. [13] [ cita requerida ]

De las 500 supercomputadoras más importantes en 2009, Gigabit Ethernet fue la tecnología de interconexión interna en 259 instalaciones, en comparación con 181 que usaban InfiniBand. [14] En 2010, los líderes del mercado Mellanox y Voltaire se fusionaron, dejando solo otro proveedor de IB, QLogic , principalmente un proveedor de Fibre Channel . [15] En la Conferencia Internacional de Supercomputación de 2011 , se anunciaron y demostraron enlaces que funcionaban a aproximadamente 56 gigabits por segundo (conocidos como FDR, ver más abajo), conectando stands en la feria comercial. [16] En 2012, Intel adquirió la tecnología InfiniBand de QLogic, dejando solo un proveedor independiente. [17]

En 2014, InfiniBand era la tecnología de conexión interna más popular para supercomputadoras, aunque dos años después, Ethernet de 10 Gigabits comenzó a desplazarla. [1]

En 2016, se informó que Oracle Corporation (un inversor en Mellanox) podría diseñar su propio hardware InfiniBand. [2]

En 2019, Nvidia adquirió Mellanox, el último proveedor independiente de productos InfiniBand. [18]

Especificación

Las especificaciones son publicadas por la asociación comercial InfiniBand.

Actuación

Los nombres originales para las velocidades eran velocidad de datos única (SDR), velocidad de datos doble (DDR) y velocidad de datos cuádruple (QDR), como se indica a continuación. [12] Posteriormente, se agregaron otras siglas de tres letras para velocidades de datos aún más altas. [19]

Notas

Cada enlace es dúplex. Los enlaces se pueden agregar: la mayoría de los sistemas utilizan un conector de 4 enlaces/carriles (QSFP). HDR a menudo utiliza enlaces 2x (también conocido como HDR100, enlace de 100 Gb que utiliza 2 carriles de HDR, mientras sigue utilizando un conector QSFP). Se requieren 8x con puertos de conmutador NDR que utilicen conectores OSFP (factor de forma pequeño octal conectable) "Definiciones de cables y conectores".

InfiniBand proporciona capacidades de acceso directo a memoria remota (RDMA) para una baja sobrecarga de CPU.

Topología

InfiniBand utiliza una topología de red conmutada , a diferencia de la Ethernet de medio compartido de los primeros tiempos . Todas las transmisiones comienzan o terminan en un adaptador de canal. Cada procesador contiene un adaptador de canal de host (HCA) y cada periférico tiene un adaptador de canal de destino (TCA). Estos adaptadores también pueden intercambiar información para fines de seguridad o calidad de servicio (QoS).

Mensajes

InfiniBand transmite datos en paquetes de hasta 4 KB que se unen para formar un mensaje. Un mensaje puede ser:

Interconexión física

Conmutador InfiniBand con conectores CX4/SFF-8470

Además de una conexión con factor de forma de placa, puede utilizar tanto cable de cobre activo como pasivo (hasta 10 metros) y cable de fibra óptica (hasta 10 km). [31] Se utilizan conectores QSFP .

La Asociación InfiniBand también especificó el sistema de conector CXP para velocidades de hasta 120 Gbit/s sobre cobre, cables ópticos activos y transceptores ópticos que utilizan cables de fibra multimodo paralelos con conectores MPO de 24 fibras. [ cita requerida ]

Interfaces de software

El soporte del sistema operativo Mellanox está disponible para Solaris , FreeBSD , [32] [33] Red Hat Enterprise Linux , SUSE Linux Enterprise Server (SLES), Windows , HP-UX , VMware ESX , [34] y AIX . [35]

InfiniBand no tiene una interfaz de programación de aplicaciones (API) estándar específica . El estándar solo enumera un conjunto de verbos como ibv_open_deviceo ibv_post_send, que son representaciones abstractas de funciones o métodos que deben existir. La sintaxis de estas funciones se deja a los proveedores. A veces, como referencia, esto se llama API de verbos . El software estándar de facto es desarrollado por OpenFabrics Alliance y se llama Open Fabrics Enterprise Distribution (OFED). Se publica bajo dos licencias GPL2 o BSD para Linux y FreeBSD, y como Mellanox OFED para Windows (nombres de producto: WinOF / WinOF-2; atribuido como controlador de host para que coincida con dispositivos ConnectX 3 a 5 específicos) [36] bajo una opción de licencia BSD para Windows. Ha sido adoptado por la mayoría de los proveedores de InfiniBand, para Linux , FreeBSD y Microsoft Windows . IBM hace referencia a una biblioteca de software llamada libibverbs, para su sistema operativo AIX , así como "verbos AIX InfiniBand". [37] El soporte del kernel de Linux se integró en 2005 en la versión 2.6.11 del kernel. [38]

Ethernet sobre InfiniBand

Ethernet over InfiniBand, abreviado como EoIB, es una implementación de Ethernet sobre el protocolo InfiniBand y la tecnología de conectores. EoIB permite múltiples anchos de banda de Ethernet que varían según la versión de InfiniBand (IB). [39] La implementación de Ethernet del conjunto de protocolos de Internet , generalmente denominado TCP/IP, es diferente en algunos detalles en comparación con el protocolo InfiniBand directo en IP over IB (IPoIB).

Véase también

Referencias

  1. ^ ab "Highlights– June 2016". Top500.Org. Junio ​​de 2016. Consultado el 26 de septiembre de 2021. La tecnología InfiniBand ahora se encuentra en 205 sistemas, en comparación con los 235 sistemas anteriores, y ahora es la segunda tecnología de interconexión de sistemas internos más utilizada. Gigabit Ethernet ha aumentado de 182 sistemas a 218 sistemas, en gran parte gracias a que ahora 176 sistemas utilizan interfaces 10G.
  2. ^ de Timothy Prickett Morgan (23 de febrero de 2016). "Oracle diseña sus propias interconexiones InfiniBand". The Next Platform . Consultado el 26 de septiembre de 2021 .
  3. ^ Scott Bekker (11 de noviembre de 1998). "Intel presenta la próxima generación de E/S para servidores informáticos". Socio de canal de Redmond . Consultado el 28 de septiembre de 2021 .
  4. ^ Will Wade (31 de agosto de 1999). "NGIO y Future I/O se fusionarán". EE Times . Consultado el 26 de septiembre de 2021 .
  5. ^ Pentakalos, Odysseas. "Introducción a la arquitectura InfiniBand". O'Reilly . Consultado el 28 de julio de 2014 .
  6. ^ "Línea de tiempo". Mellanox Technologies . Consultado el 26 de septiembre de 2021 .
  7. ^ Kim, Ted. "Breve historia de InfiniBand: de la exageración al pragmatismo". Oracle. Archivado desde el original el 8 de agosto de 2014. Consultado el 28 de septiembre de 2021 .
  8. ^ Computerwire (2 de diciembre de 2002). «Sun confirma su compromiso con InfiniBand». The Register . Consultado el 26 de septiembre de 2021 .
  9. ^ "Virginia Tech construye una computadora de 10 TeraFlop". R&D World . 30 de noviembre de 2003 . Consultado el 28 de septiembre de 2021 .
  10. ^ Sean Michael Kerner (24 de febrero de 2005). «Linux Kernel 2.6.11 admite InfiniBand». Noticias de Internet . Consultado el 28 de septiembre de 2021 .
  11. ^ OpenIB Alliance (21 de enero de 2005). «OpenIB Alliance logra la aceptación de Kernel.org». Nota de prensa . Consultado el 28 de septiembre de 2021 .
  12. ^ por Ann Silverthorn (12 de enero de 2006), "¿Está InfiniBand preparada para un regreso?", Infostor , 10 (2) , consultado el 28 de septiembre de 2021
  13. ^ Connor, Deni. "Qué significa el acuerdo Cisco-Topspin para InfiniBand". Network World . Consultado el 19 de junio de 2024 .
  14. ^ Lawson, Stephen (16 de noviembre de 2009). «Dos supercomputadoras rivales se disputan el primer puesto». Computerworld . Archivado desde el original el 29 de septiembre de 2021. Consultado el 29 de septiembre de 2021 .
  15. ^ Raffo, Dave. «Los mayores proveedores de InfiniBand se fusionan; la atención se centra en las redes convergentes». Archivado desde el original el 1 de julio de 2017. Consultado el 29 de julio de 2014 .
  16. ^ Mikael Ricknäs (20 de junio de 2011). «Mellanox Demostra una versión mejorada de InfiniBand». CIO . Archivado desde el original el 6 de abril de 2012 . Consultado el 30 de septiembre de 2021 .
  17. ^ Michael Feldman (23 de enero de 2012). "Intel adquiere la tecnología InfiniBand, línea de productos de QLogic". HPCwire . Consultado el 29 de septiembre de 2021 .
  18. ^ "Nvidia adquirirá Mellanox por 6.900 millones de dólares". Nota de prensa . 11 de marzo de 2019 . Consultado el 26 de septiembre de 2021 .
  19. ^ ab "Hoja informativa sobre InfiniBand de FDR". Asociación de Comercio de InfiniBand. 11 de noviembre de 2021. Archivado desde el original el 26 de agosto de 2016. Consultado el 30 de septiembre de 2021 .
  20. ^ Panda, Dhabaleswar K.; Sayantan Sur (2011). "Aceleración de la velocidad de la red con IB y HSE" (PDF) . Diseño de sistemas de computación en la nube y en red con InfiniBand y Ethernet de alta velocidad . Newport Beach, CA, EE. UU.: CCGrid 2011. p. 23. Consultado el 13 de septiembre de 2014 .
  21. ^ "Hoja de ruta de InfiniBand: IBTA - Asociación de Comercio de InfiniBand". Archivado desde el original el 29 de septiembre de 2011. Consultado el 27 de octubre de 2009 .
  22. ^ http://www.hpcadvisorycouncil.com/events/2014/swiss-workshop/presos/Day_1/1_Mellanox.pdf // Mellanox
  23. ^ "Tipos y velocidades de InfiniBand".
  24. ^ "Interfaces". NVIDIA Docs . Consultado el 12 de noviembre de 2023. FDR10 es una velocidad de datos InfiniBand no estándar, donde cada carril de un puerto 4X ejecuta una velocidad de bits de 10,3125 Gbit/s con una codificación 64b/66b, lo que da como resultado un ancho de banda efectivo de 40 Gbit/s. FDR10 admite un 20 % más de ancho de banda que QDR debido a una mejor velocidad de codificación.
  25. ^ "Manual de usuario de hardware de la plataforma de conmutación InfiniBand FDR SwitchX® de 324 puertos" (PDF) . nVidia . 2018-04-29. sección 1.2 . Consultado el 2023-11-12 . Descripción general de InfiniBand FDR y FDR10 [...] FDR, velocidad de datos InfiniBand estándar, donde cada carril de un puerto 4X ejecuta una velocidad de bits de 14,0625 Gbit/s con una codificación 64b/66b, lo que da como resultado un ancho de banda efectivo de 54,54 Gbit/s. La capa física FDR es una capa física especificada por IBTA que utiliza diferentes tipos de bloques, mecanismos de corrección de errores y reglas de trama. El conmutador SX6518 también admite FDR10, una velocidad de datos InfiniBand no estándar, donde cada carril de un puerto 4X ejecuta una velocidad de bits de 10,3125 Gbit/s con una codificación 64b/66b, lo que da como resultado un ancho de banda efectivo de 40 Gbit/s.
  26. ^ abc "Hoja de ruta de InfiniBand: avances de InfiniBand". Asociación de Comercio de InfiniBand .
  27. ^ "Introducción". Documentación de NVIDIA . Consultado el 12 de noviembre de 2023 .
  28. ^ https://www.mellanox.com/files/doc-2020/pb-connectx-6-vpi-card.pdf [ URL básica PDF ]
  29. ^ "Introducción". Documentación de NVIDIA . Consultado el 12 de noviembre de 2023 .
  30. ^ "NVIDIA anuncia nuevos conmutadores optimizados para computación GPU con billones de parámetros e infraestructura de IA". Sala de prensa de NVIDIA . Consultado el 19 de marzo de 2024 .
  31. ^ "Preguntas frecuentes sobre especificaciones". ITA. Archivado desde el original el 24 de noviembre de 2016. Consultado el 30 de julio de 2014 .
  32. ^ "Mellanox OFED para FreeBSD". Mellanox . Consultado el 19 de septiembre de 2018 .
  33. ^ Mellanox Technologies (3 de diciembre de 2015). «Manual de interfaces del núcleo de FreeBSD, mlx5en». Páginas del manual de FreeBSD . FreeBSD . Consultado el 19 de septiembre de 2018 .
  34. ^ "Tarjetas InfiniBand: descripción general". Mellanox . Consultado el 30 de julio de 2014 .
  35. ^ "Implementación de InfiniBand en IBM System p (IBM Redbook SG24-7351-00)" (PDF) .
  36. ^ Mellanox OFED para Windows - WinOF / WinOF-2
  37. ^ "API de verbos". Documentación de IBM AIX 7.1 . 2020 . Consultado el 26 de septiembre de 2021 .
  38. ^ Dotan Barak (11 de marzo de 2014). "Tutorial de programación de verbos" (PDF) . OpenSHEM, 2014. Mellanox . Consultado el 26 de septiembre de 2021 .
  39. ^ "10 ventajas de InfiniBand". NADDOD . Consultado el 28 de enero de 2023 .

Enlaces externos