stringtranslate.com

Dell M1000e

Los productos de servidor blade de Dell están construidos alrededor de su gabinete M1000e que puede contener sus servidores blade, una red de área de almacenamiento iSCSI EqualLogic integrada y módulos de E/S que incluyen conmutadores Ethernet , Fibre Channel e InfiniBand .

Gabinete M1000e con selección de servidores blade G12

Recinto

El M1000e cabe en un rack de 19 pulgadas y tiene 10 unidades de rack de alto (44 cm), 17,6" (44,7 cm) de ancho y 29,7" (75,4 cm) de profundidad. La carcasa del blade vacía pesa 44,5 kg, mientras que un sistema completamente cargado puede pesar hasta 178,8 kg. [1]

En la parte frontal se insertan los servidores mientras que en la parte posterior se insertan las fuentes de alimentación, los ventiladores y los módulos de E/S junto con el/los módulo(s) de gestión (CMC o controlador de gestión de chasis) y el conmutador KVM . Un gabinete blade ofrece administración centralizada para los servidores y sistemas de E/S del sistema blade. La mayoría de los servidores utilizados en el sistema blade ofrecen una tarjeta iDRAC y uno puede conectarse a cada servidor iDRAC a través del sistema de administración M1000e. También es posible conectar un conmutador KVM virtual para tener acceso a la consola principal de cada servidor instalado.

En junio de 2013, Dell presentó el PowerEdge VRTX , que es un sistema blade más pequeño que comparte módulos con el M1000e. Los servidores blade, aunque siguen la estrategia de nomenclatura tradicional, por ejemplo, M520, M620 (solo se admiten blades), no son intercambiables entre el VRTX y el M1000e. Los blades se diferencian en firmware y conectores intermedios. [ cita necesaria ]

En 2018, Dell presentó Dell PE MX7000, un nuevo modelo de gabinete MX, la próxima generación de gabinetes Dell.

El gabinete M1000e tiene un lado frontal y un lado posterior y, por lo tanto, toda la comunicación entre los blades y módulos insertados se realiza a través del plano medio, que tiene la misma función que un plano posterior pero tiene conectores en ambos lados, donde el lado frontal está dedicado al servidor. -blades y la parte posterior para módulos de E/S .

Plano medio

Indicación en la parte posterior del chasis para ver qué midplane se instaló en fábrica

El plano medio es completamente pasivo. Los servidores blade se insertan en la parte frontal de la carcasa, mientras que se puede acceder a todos los demás componentes por la parte posterior. [2]
Las capacidades originales del midplane 1.0 son Fabric A - Ethernet 1 Gb; Fabrics B&C - Ethernet 1Gb, 10Gb, 40Gb - Canal de fibra 4Gb, 8Gb - IfiniBand DDR, QDR, FDR10. Las capacidades mejoradas del midplane 1.1 son Fabric A: Ethernet de 1 Gb, 10 Gb; Fabrics B&C - Ethernet 1Gb, 10Gb, 40Gb - Canal de fibra 4Gb, 8Gb, 16Gb - IfiniBand DDR, QDR, FDR10, FDR. Los gabinetes M1000e originales venían con la versión 1.0 del plano medio, pero ese plano medio no era compatible con el estándar 10GBASE-KR en la estructura A ( el estándar 10GBASE-KR es compatible con las estructuras B y C). Para tener Ethernet de 10 Gb en la estructura A o Fibre Channel de 16 Gb o InfiniBand FDR (y más rápido) en las estructuras B y C, se requiere el plano medio 1.1. Las versiones actuales del gabinete vienen con el plano medio 1.1 y es posible actualizar el plano medio. A través de las marcas en la parte posterior del gabinete, justo encima de los módulos de E/S: si se puede ver una "flecha hacia abajo" sobre las 6 ranuras de E/S, el panel medio 1.0 se instaló en fábrica; si hay 3 o 4 barras horizontales, se instaló midplane 1.1. Como es posible actualizar el midplane, las marcas exteriores no son decisivas: a través de la interfaz de administración del CMC se puede ver la versión real instalada del midplane [3]

Frente: servidores Blade

Cada gabinete M1000e puede contener hasta 32 blades de un cuarto de altura, 16 de media altura u 8 de altura completa o combinaciones (por ejemplo, 1 de altura completa + 14 de media altura). Las ranuras están numeradas del 1 al 16, donde del 1 al 8 son las hojas superiores y del 9 al 16 están directamente debajo del 1 al 8. Cuando se utilizan hojas de altura completa, se utiliza la ranura n (donde n=1 a 8) y la ranura n+8. Integrada en la parte inferior de la parte frontal hay una opción de conexión para 2 x USB , destinados a un mouse y un teclado, así como así como una conexión de monitor VGA estándar (15 pines). Al lado hay un botón de encendido con indicación de encendido.

Junto a esto hay una pequeña pantalla LCD con botones de navegación que permite obtener información del sistema sin la necesidad de acceder al CMC/sistema de gestión del gabinete. La información básica de estado y configuración está disponible a través de esta pantalla. Para operar la pantalla, se puede tirar de ella hacia uno e inclinarla para obtener una vista óptima y acceso al botón de navegación. Para verificaciones rápidas del estado, una luz indicadora se encuentra junto a la pantalla LCD y siempre está visible, con un LED azul que indica un funcionamiento normal y un LED naranja que indica un problema de algún tipo.

Esta pantalla LCD también se puede utilizar para el asistente de configuración inicial en un sistema recién entregado (no configurado), lo que permite al operador configurar la dirección IP del CMC. [2]

Atrás: alimentación, gestión y E/S

Todas las demás piezas y módulos se encuentran en la parte trasera del M1000e. La parte trasera está dividida en 3 secciones: arriba: aquí se insertan los 3 módulos de gestión: uno o dos módulos CMC y un módulo i KVM opcional . En la parte inferior del gabinete hay 6 bahías para unidades de fuente de alimentación. Un M1000e estándar funciona con tres fuentes de alimentación. El área intermedia ofrece 3 x 3 compartimentos para ventiladores de refrigeración (izquierda, centro y derecha) y hasta 6 módulos de E/S: tres módulos a la izquierda de los ventiladores del medio y tres a la derecha. . Los módulos de E/S de la izquierda son los módulos de E/S numerados A1, B1 y C1, mientras que el lado derecho tiene lugares para A2, B2 y C2. Los módulos de E/S de estructura A se conectan a los controladores de E/S integrados que, en la mayoría de los casos, serán una NIC Ethernet dual de 1 Gb o 10 Gb. Cuando el blade tiene una NIC de 1 Gb integrada de doble puerto, la primera NIC se conectará al módulo de E/S en la estructura A1 y la segunda NIC se conectará a la estructura A2 (y la ranura del blade corresponde con la interfaz Ethernet interna: por ejemplo, la La NIC integrada en la ranura 5 se conectará a la interfaz 5 de la estructura A1 y la segunda NIC integrada se conectará a la interfaz 5 de la estructura A2)

Los módulos de E/S en la estructura B1/B2 se conectarán a la tarjeta intermedia B o 2 (opcional) en el servidor y la estructura C a la tarjeta intermedia C o 3.

Todos los módulos se pueden insertar o quitar en un gabinete en funcionamiento ( intercambio en caliente ) [2]

Blades de servidor disponibles

Un M1000e admite hasta 32 aspas de un cuarto de altura, 16 aspas de media altura u 8 aspas de altura completa o una combinación de ellas (por ejemplo, 2 de altura completa + 12 de media altura). Las hojas de 1/4 de altura requieren una funda de tamaño completo para instalarse. La lista actual son los blades 11G disponibles actualmente y los modelos 12 de última generación . También hay palas más antiguas como las series M605, M805 y M905.

Borde de potencia M420

Lanzado en 2012, [4] PE M420 es un blade de "un cuarto de tamaño": mientras que la mayoría de los servidores son de "la mitad del tamaño", lo que permite 16 blades por gabinete M1000e, con el nuevo M420 se pueden instalar hasta 32 servidores blade en un solo chasis. La implementación del M420 tiene algunas consecuencias para el sistema: muchas personas han reservado 16 direcciones IP por chasis para admitir la "asignación automática de direcciones IP" para la tarjeta de administración iDRAC en un blade, pero ahora es posible ejecutar 32 blades por chasis. Es posible que deban cambiar su asignación de IP de administración para el iDRAC. Para admitir el servidor M420, es necesario ejecutar el firmware CMC 4.1 o posterior [5] y se necesita una "funda" de tamaño completo que admita hasta cuatro blades M420. También tiene consecuencias para la asignación de NIC de E/S "normal": la mayoría de los blades (de tamaño medio) tienen dos LOM (LAN en la placa base): uno que se conecta al conmutador en la estructura A1 y el otro a la estructura A2. Y lo mismo se aplica a las tarjetas intermedias B y C. Todos los módulos de E/S disponibles (excepto PCM6348, MXL y MIOA) tienen 16 puertos internos: uno para cada blade de tamaño medio. Como un M420 tiene dos NIC LOM de 10 Gb, un chasis completamente cargado requeriría 2 × 32 puertos de conmutador internos para LOM y lo mismo para Mezzanine. Un servidor M420 solo admite una única tarjeta intermedia (Mezzanine B O Mezzanine C según su ubicación), mientras que todos los sistemas de altura media y altura completa admiten dos tarjetas intermedias. Para admitir todas las NIC integradas, sería necesario implementar un conmutador Ethernet de 32 ranuras, como el MXL o el agregador de E/S Force10. Pero para la tarjeta Mezzanine es diferente: las conexiones del Mezzanine B en el PE M420 están "equilibradas de carga" entre las estructuras B y C del M1000e: la tarjeta Mezzanine en la "ranura A" (ranura superior en la funda) se conecta a la tela C mientras que la "ranura B" (la segunda ranura desde arriba) se conecta a la tela B, y eso luego se repite para las ranuras C y D en la funda. [4]

Borde de potencia M520

Un servidor de media altura con hasta 2 CPU Intel Xeon E5-2400 de 8 núcleos, que ejecuta el chipset Intel C600 y ofrece hasta 384 Gb de memoria RAM a través de 12 ranuras DIMM. Se pueden instalar dos discos on-blade (SSD PCIe de 2,5 pulgadas, HDD SATA o HDD SAS) para almacenamiento local y una opción de ranuras Intel o Broadcom LOM + 2 Mezzanine para E/S. [6] El M520 también se puede utilizar en el sistema PowerEdge VRTX .

Borde de potencia M600

Un servidor de media altura con Intel Xeon de cuatro núcleos y 8 ranuras DIMM para hasta 64 GB de RAM

Borde de potencia M610

Un servidor de media altura con una CPU Intel 5500 o 5600 Xeon de cuatro o seis núcleos y un chipset Intel 5520. Opciones de memoria RAM a través de 12 ranuras DIMM para hasta 192 Gb de RAM DDR3. Un máximo de dos discos duros o SSD de 2,5 pulgadas conectables en caliente y una selección de NIC integradas para Ethernet o adaptador de red convergente (CNA), Fibre Channel o InfiniBand. El servidor cuenta con el chipset Intel 5520 y una tarjeta de video Matrox G200 [7]

Borde de potencia M610x

Un servidor blade de altura completa que tiene las mismas capacidades que el M610 de media altura pero que ofrece un módulo de expansión que contiene ranuras de expansión PCI Express (PCIe) 2.0 x16 que pueden admitir hasta dos tarjetas PCIe estándar de longitud y altura completa. [8]

Borde de potencia M620

Un servidor de media altura con hasta 2 CPU Intel Xeon E5-2600 o Xeon E5-2600 v2 de 12 núcleos, que ejecuta el chipset Intel C600 y ofrece hasta 768 GB de memoria RAM a través de 24 ranuras DIMM. Se pueden instalar dos discos on-blade (SSD PCIe de 2,5", HDD SATA o HDD SAS) para almacenamiento local con una variedad de opciones de controlador RAID. Dos puertos USB externos y uno interno y dos ranuras para tarjetas SD. Los blades pueden venir pre -instalado con Windows 2008 R2 SP1, Windows 2012 R2, SuSE Linux Enterprise o RHEL. También se puede pedir con Citrix XenServer o VMWare vSphere ESXi o usando Hyper-V que viene con W2K8 R2. [9] Según el proveedor, toda la generación 12 servidores están optimizados para funcionar como plataforma de virtualización. [10] La administración fuera de banda se realiza a través de iDRAC 7 a través del CMC.

Borde de potencia M630

Un servidor de media altura con hasta 2 CPU Intel Xeon E5-2600 v3/v4 de 22 núcleos, que ejecuta el chipset Intel C610 y ofrece hasta 768 GB de memoria RAM a través de 24 ranuras DIMM o 640 GB de memoria RAM a través de 20 ranuras DIMM cuando usando CPU de 145w. Se pueden instalar dos discos on-blade (SSD PCIe de 2,5", HDD SATA o HDD SAS) para almacenamiento local y una opción de ranuras Intel o Broadcom LOM + 2 Mezzanine para E/S. [6] También se puede utilizar el M630 En el sistema PowerEdge VRTX , Amulet HotKey ofrece un servidor M630 modificado que puede equiparse con una GPU o un módulo Teradici PCoIP Mezzanine.

Borde de potencia M640

Un servidor de media altura con hasta 2 CPU escalables Xeon de 28 núcleos. Compatible con los chasis M1000e y PowerEdge VRTX . El servidor puede admitir hasta 16 ranuras de memoria DDR4 RDIMM para hasta 1024 GB de RAM y 2 bahías de unidades que admiten unidades SAS/SATA o NVMe (con un adaptador). El servidor utiliza iDRAC 9.

Borde de potencia M710

Un servidor de altura completa con una CPU Intel 5500 o 5600 Xeon de cuatro o seis núcleos y hasta 192 Gb de RAM. Un máximo de cuatro discos duros o SSD de 2,5" conectables en caliente y una selección de NIC integradas para Ethernet o adaptador de red convergente, Fibre Channel o InfiniBand. La tarjeta de vídeo es una Matrox G200. El servidor tiene el chipset Intel 5520 [11]

Borde de potencia M710HD

Una versión de dos enchufes del M710 pero ahora con una hoja de media altura. La CPU puede ser de dos núcleos Xeon 5500 o 5600 de cuatro o seis núcleos con el chipset Intel 5520. A través de 18 ranuras DIMM, se pueden colocar hasta 288 Gb de RAM DDR3 en este blade y la opción estándar de NIC Ethernet integradas basadas en Broadcom o Intel y una o dos tarjetas intermedias para Ethernet, Fibre Channel o InfiniBand. [12]

Borde de potencia M820

Un servidor de altura completa con 4 CPU Intel Xeon E5-4600 de 8 núcleos, que ejecuta el chipset Intel C600 y ofrece hasta 1,5 TB de memoria RAM a través de 48 ranuras DIMM. Se pueden instalar hasta cuatro HDD/SSD SAS de 2,5" on-blade o dos SSD flash PCIe para almacenamiento local. El M820 ofrece una selección de 3 adaptadores Ethernet convergentes integrados diferentes para canal de fibra de 10 Gbit/s sobre Ethernet (FCoE ) de Broadcom, Brocade o QLogic y hasta dos Mezzanine adicionales para Ethernet, Fibre Channel o InfiniBand I/O [13]

Borde de potencia M910

Un servidor de altura completa de 11.ª generación con hasta 4 CPU Intel XEON E7 de 10 núcleos o 4 series XEON 7500 de 8 núcleos o 2 series XEON 6500 de 8 núcleos, 512 Gb o 1 Tb de RAM DDR3 y dos intercambiables en caliente de 2, Discos duros de 5" (giratorios o SSD). Utiliza el chipset Intel E 7510. Una selección de NIC integradas para Ethernet, Fibre Channel o InfiniBand [14]

Borde de potencia M915

También un servidor 11G de altura completa que utiliza la CPU AMD Opteron serie 6100 o 6200 con el chipset AMD SR5670 y SP5100. Memoria a través de 32 ranuras DIMM DDR3 que ofrecen hasta 512 Gb de RAM. Incorpora hasta dos HDD o SSD de 2,5 pulgadas. El blade viene con una selección de NIC integradas y hasta dos tarjetas intermedias para Ethernet de 10 Gb de doble puerto, FCoE de doble puerto, canal de fibra de 8 Gb de doble puerto o Mellanox Infiniband de doble puerto. El vídeo se realiza a través de Matrox G200eW integrado con 8 MB de memoria [15]

Tarjetas intermedias

Cada servidor viene con NIC Ethernet en la placa base. Estas NIC 'integradas' se conectan a un conmutador o módulo de paso insertado en el compartimento A1 o A2 en la parte posterior del conmutador. Para permitir más NIC o E/S no Ethernet, cada blade [16] tiene dos ranuras intermedias : la ranura B se conecta a los conmutadores/módulos en el compartimento B1 y B2 y la ranura C se conecta a C1/C2: un chasis M1000e contiene hasta 6 interruptores o módulos de paso. Para lograr redundancia, normalmente se instalarían conmutadores en pares: el conmutador en el compartimento A2 normalmente es el mismo que el conmutador A1 y conecta las tarjetas NIC de la placa base para conectarse a la red de datos o almacenamiento.

Tarjetas intermedias Ethernet (convergentes)

Los servidores blade estándar tienen una o más NIC integradas que se conectan a la ranura del interruptor "predeterminada" (la estructura A ) en el gabinete (a menudo los servidores blade también ofrecen una o más interfaces NIC externas en la parte frontal del blade ) pero si se desea que el servidor tenga más interfaces físicas (internas) o se conecte a diferentes conmutadores blade en el gabinete, se pueden colocar tarjetas intermedias adicionales en el blade. Lo mismo se aplica al agregar un adaptador de bus host Fibre Channel o una interfaz de adaptador de red convergente Fibre Channel sobre Ethernet (FCoE) . Dell ofrece las siguientes tarjetas intermedias Ethernet (convergentes) para sus blades PowerEdge: [17]

Tarjetas que no son Ethernet

Aparte de lo anterior, están disponibles las siguientes tarjetas intermedias: [17]

Almacenamiento de cuchillas

En la mayoría de las configuraciones, los servidores blade utilizarán almacenamiento externo ( NAS usando iSCSI , FCoE o Fibre Channel ) en combinación con almacenamiento de servidor local en cada blade a través de unidades de disco duro o SSD en los blades (o incluso solo una tarjeta SD con arranque). -OS como VMware ESX [18] ). También es posible utilizar blades completamente sin disco que arrancan a través de PXE o almacenamiento externo. Pero independientemente del almacenamiento local y de arranque: la mayoría de los datos utilizados por los blades se almacenarán en una SAN o NAS externa al gabinete del blade.

EqualLogic Blade-SAN

Dell ha colocado los modelos EqualLogic PS M4110 de matrices de almacenamiento iSCSI [19] que están instaladas físicamente en el chasis M1000e: esta SAN ocupará el mismo espacio en el gabinete que dos blades de media altura uno al lado del otro. Aparte del factor de forma (el tamaño físico, la alimentación del sistema de gabinete, etc.), es una SAN iSCSI "normal": los blades en el (mismo) chasis se comunican a través de Ethernet y el sistema requiere un conmutador de blades Ethernet aceptado. en la parte posterior (o un módulo de paso + conmutador de bastidor): no hay opción para la comunicación directa de los servidores blade en el chasis y el M4110: solo permite al usuario empaquetar un minicentro de datos completo en un solo gabinete (rack de 19", 10 RU )

Dependiendo del modelo y del controlador de disco utilizado, el PS M4110 ofrece una capacidad de almacenamiento del sistema (sin procesar) entre 4,5 TB (M4110XV con 14 × 146 Gb, 15K SAS HDD) y 14 TB (M4110E con 14 x 1TB, 7,2K SAS HDD) . El M4110XS ofrece 7,4 TB con 9 HDD y 5 SSD . [20]

Cada M4110 viene con uno o dos controladores y dos interfaces Ethernet de 10 gigabits para iSCSI. La gestión de la SAN se realiza a través de la interfaz de gestión del chasis (CMC). Debido a que iSCSI utiliza interfaces de 10 Gb, la SAN debe usarse en combinación con uno de los conmutadores blade de 10 G: el PCM 8024-k o el conmutador Force10 MXL. [20] La versión de hardware de plano medio del gabinete debe ser al menos la versión 1.1 para admitir conectividad KR de 10 Gb [21] [22]

Interruptores PowerConnect

Dibujo del gabinete M1000e con 2 x FTOS MXL, 2 x M8024-k y 2 x FibreChannel 5424

En la parte posterior del gabinete se encuentran las fuentes de alimentación, las bandejas de ventiladores, uno o dos módulos de administración del chasis (los CMC) y un conmutador KVM virtual . Y la parte trasera ofrece 6 bahías para módulos de E/S numeradas en 3 pares: A1/A2, B1/B2 y C1/C2. Las bahías A conectan las NIC de la placa base a sistemas externos (y/o permiten la comunicación entre los diferentes blades dentro de un gabinete).

Los conmutadores Dell PowerConnect son conmutadores modulares que se utilizan en el gabinete del servidor blade Dell M1000e . Los M6220, M6348, M8024 y M8024K son todos conmutadores de la misma familia, basados ​​en las mismas estructuras ( Broadcom ) y que ejecutan la misma versión de firmware. [23]

Todos los conmutadores de la serie M son compatibles con OSI capa 3 : por lo que también se puede decir que estos dispositivos son conmutadores Ethernet de capa 2 con enrutador incorporado o funcionalidad de capa 3.

La diferencia más importante entre los conmutadores de la serie M y los conmutadores clásicos Dell PowerConnect (por ejemplo, el modelo 8024 ) es el hecho de que la mayoría de las interfaces son interfaces internas que se conectan a los servidores Blade a través del plano medio del gabinete. Además, la serie M no puede funcionar fuera del gabinete: solo funcionará cuando se inserte en el gabinete.

Conexión eléctrica M6220

Este es un conmutador de 20 puertos: 16 interfaces Gigabit Ethernet internas y 4 externas y la opción de ampliarlo con hasta cuatro interfaces externas de 10 Gb para enlaces ascendentes o dos enlaces ascendentes de 10 Gb y dos puertos de apilamiento para apilar varios PCM6220 en un conmutador lógico grande.

Conexión eléctrica M6348

Se trata de un conmutador de 48 puertos: 32 interfaces internas de 1 Gb (dos por servidor) y 16 interfaces gigabit externas de cobre (RJ45). También hay dos ranuras SFP+ para enlaces ascendentes de 10 Gb y dos ranuras CX4 que pueden usarse para dos enlaces ascendentes adicionales de 10 Gb o para apilar varios blades M6348 en un conmutador lógico. El M6348 ofrece cuatro interfaces de 1 Gb para cada blade, lo que significa que solo se puede utilizar el conmutador a plena capacidad cuando se utilizan blades que ofrecen 4 NIC internas en la estructura A (= la NIC interna/en la placa base). El M6348 se puede apilar con otros M6348 pero también con los conmutadores de bastidor de la serie PCT7000 .

PowerConnect M8024 y M8024k

M8024 y M8024-k ofrecen 16 interfaces internas con detección automática de 1 o 10 Gb y hasta 8 puertos externos a través de uno o dos módulos de E/S, cada uno de los cuales puede ofrecer: 4 ranuras SFP+ de 10 Gb, 3 x CX4 de 10 Gb (solo) de cobre o 2 interfaces RJ-45 10G BaseT 1/10 Gb. El PCM8024 es el "fin de ventas" desde noviembre de 2011 y se reemplazó por el PCM8024-k. [24] Desde la actualización de firmware 4.2, el PCM8024-k admite parcialmente FCoE a través de FIP (Protocolo de inicialización FCoE) y, por lo tanto, adaptadores de red convergentes , pero a diferencia del PCM8428-k no tiene interfaces de canal de fibra nativas .

Además, desde el firmware 4.2, el PCM8024-k se puede apilar utilizando interfaces Ethernet externas de 10 Gb asignándolas como puertos de apilamiento. Aunque esta nueva opción de apilamiento también se introduce en la misma versión de firmware para PCT8024 y PCT8024-f, no se pueden apilar las versiones blade (PCM) y rack (PCT) en una sola pila. Las nuevas funciones no están disponibles en el PCM8024 "original". El firmware 4.2.x para PCM8024 solo corrigió errores: no se agregan nuevas características ni nuevas funcionalidades a los modelos de "fin de venta". [25] [26]

Para utilizar los conmutadores PCM8024 -k se necesitará el backplane que admita los estándares KR o IEEE 802.3ap [21] [22]

Capacidades de conexión de energía

Todos los conmutadores PowerConnect serie M ("PCM") son conmutadores multicapa, por lo que ofrecen opciones de capa 2 (Ethernet), así como opciones de enrutamiento IP o de capa 3.
Dependiendo del modelo, los conmutadores ofrecen internamente interfaces de 1 Gbit/s o 10 Gbit/s hacia los blades del chasis. La serie PowerConnect M con "-k" en el nombre del modelo ofrece conexiones internas de 10 Gb utilizando el estándar 10GBASE-KR . Las interfaces externas están destinadas principalmente a usarse como enlaces ascendentes o interfaces de apilamiento, pero también se pueden usar para conectar servidores que no sean blade a la red.
En el nivel de enlace, los conmutadores PCM admiten la agregación de enlaces : tanto LAG estáticos como LACP. Como todos los conmutadores PowerConnect, los conmutadores ejecutan RSTP como protocolo de árbol de expansión , pero también es posible ejecutar MSTP o árbol de expansión múltiple. Los puertos internos hacia los blades están configurados de forma predeterminada como puertos de borde o "portfast". Otra característica es utilizar la dependencia de enlaces. Se puede, por ejemplo, configurar el conmutador para que todos los puertos internos de los blades se apaguen cuando el conmutador se aísla porque pierde su enlace ascendente con el resto de la red.
Todos los conmutadores PCM se pueden configurar como conmutadores de capa 2 puros o se pueden configurar para realizar todo el enrutamiento: tanto el enrutamiento entre las VLAN configuradas como el enrutamiento externo. Además de las rutas estáticas, los conmutadores también admiten enrutamiento OSPF y RIP . Cuando se utiliza el conmutador como conmutador de enrutamiento, es necesario configurar las interfaces VLAN y asignar una dirección IP a esa interfaz VLAN: no es posible asignar una dirección IP directamente a una interfaz física.
[23]

Apilado

Todos los conmutadores blade PowerConnect, excepto el PC-M8024 original , se pueden apilar. Para apilar el nuevo conmutador PC-M8024-k, los conmutadores deben ejecutar la versión de firmware 4.2 o superior. [27] En principio, sólo se pueden apilar conmutadores de la misma familia; apilando así varios PCM6220 juntos o varios PCM8024-k. La única excepción es la capacidad de apilar el blade PCM6348 junto con el conmutador de bastidor PCT7024 o PCT7048. Las pilas pueden contener varios conmutadores dentro de un chasis M1000e, pero también se pueden apilar conmutadores de diferentes chasis para formar un conmutador lógico. [28]

Interruptores Force10

Conmutador MXL de 10/40 GB

En Dell Interop 2012 en Las Vegas, Dell anunció el primer conmutador blade basado en FTOS : el conmutador blade Force10 MXL 10/40Gpbs y, posteriormente, un concentrador de 10/40Gbit/s. El FTOS MXL de 40 Gb se presentó el 19 de julio de 2012. [29] El MXL proporciona 32 enlaces internos de 10 Gbit/s (2 puertos por blade en el chasis), dos puertos QSFP+ de 40 Gbit/s y dos ranuras de expansión vacías que permiten un máximo de 4 Puertos QSFP+ de 40 Gbit/s adicionales u 8 puertos de 10 Gbit/s. Cada puerto QSFP+ se puede utilizar para un conmutador de 40 Gbit/s para conmutar (apilar) un enlace ascendente o, con un cable multiconector, 4 enlaces de 10 Gbit/s. Dell ofrece cables de conexión directa con la interfaz QSFP+ en un lado y 4 x SFP+ en el otro extremo o un transceptor QSFP+ en un extremo y 4 pares de fibra óptica para conectarse a transceptores SFP+ en el otro lado. Se pueden apilar hasta seis conmutadores blade MXL en un conmutador lógico.

Además del módulo QSFP 2x40 anterior, el MXL también admite un módulo SFP+ 4x10Gb y un módulo 4x10GbaseT. Todos los módulos de extensión Ethernet para el MXL también se pueden utilizar para la serie N4000 basada en bastidor (antes conector de alimentación 8100).

Los conmutadores MXL también admiten Fibre Channel sobre Ethernet, de modo que los servidores blade con un adaptador de red convergente Mezzanine pueden usarse tanto para datos como para almacenamiento utilizando un sistema de almacenamiento Fibre Channel. El conmutador blade MXL de 10/40 Gbit/s ejecutará FTOS [30] y, debido a esto, será el primer producto de E/S M1000e sin una interfaz gráfica de usuario web . El MXL puede reenviar el tráfico FCoE a un conmutador ascendente o, utilizando un módulo FC de 8 Gb y 4 puertos, realizar la función FCF, conectando el MXL a un conmutador FC completo o directamente a una SAN FC.

Agregador de E/S

En octubre de 2012, Dell también lanzó el agregador de E/S para el chasis M1000e que se ejecuta en FTOS . El agregador de E/S ofrece 32 puertos internos de 10 Gb hacia los blades y dos enlaces ascendentes QSFP+ estándar de 40 Gbit/s y ofrece dos ranuras de extensión. Dependiendo de los requisitos de cada uno, se pueden obtener módulos de extensión para puertos QSFP+ de 40 Gb, SFP+ de 10 Gb o interfaces de cobre de 1-10 GBaseT. Se pueden asignar hasta 16 enlaces ascendentes de 10 Gb a la capa central o de distribución. El agregador de E/S admite funciones FCoE y DCB ( puente de centro de datos ) [31]

conmutadores cisco

Dell también ofreció algunos conmutadores Cisco Catalyst para este gabinete blade. Cisco ofrece una gama de conmutadores para sistemas blade de los principales proveedores. Además del gabinete Dell M1000e, Cisco ofrece conmutadores similares también para gabinetes blade HP, FSC e IBM. [32]

Para Dell M1000e hay dos gamas de modelos para conmutación Ethernet: (nota: Cisco también ofrece el Catalyst 3030, pero este conmutador es para el antiguo sistema blade Generación 8 o Gen 9 , no para el gabinete M1000e actual [33] )

Según 2017, el único dispositivo de E/S de Cisco disponible para el chasis M1000e es el Nexus FEX [34]

Catalizador 3032

Catalyst 3032: un conmutador de capa 2 con 16 interfaces Ethernet internas y 4 externas de 1 Gb con una opción de ampliación a 8 interfaces externas de 1 Gb. Los puertos externos integrados son interfaces de cobre BaseT 10/100/1000 con un conector RJ45 y se pueden agregar hasta 4 puertos adicionales de 1 Gb utilizando las ranuras para módulos de extensión, cada una de las cuales ofrece 2 ranuras SFP para enlaces de fibra óptica o Twinax de 1 Gb. El Catalyst 3032 no ofrece apilamiento (cambio de hoja virtual) [35]

Catalizador 3130

Los conmutadores de la serie 3130 ofrecen 16 interfaces internas de 1 Gb hacia los servidores blade. Para el enlace ascendente o las conexiones externas hay dos opciones: el 3130G que ofrece 4 ranuras RJ-45 10/100/1000BaseT integradas y dos compartimentos para módulos que permiten hasta 4 ranuras SFP de 1 Gb utilizando transceptores SFP o cables SFP Twinax. [36]

El 3130X también ofrece 4 conexiones externas 10/100/1000BaseT y dos módulos para enlaces ascendentes X2 de 10 Gb. [37]

Ambos conmutadores 3130 ofrecen ' apilamiento ' o 'interruptor de hoja virtual'. Se pueden apilar hasta 8 conmutadores Catalyst 3130 para que se comporten como un solo conmutador. Esto puede simplificar la gestión de los conmutadores y simplificar la topología (árbol de expansión), ya que los conmutadores combinados son solo un conmutador para consideraciones de árbol de expansión . También permite al administrador de red agregar enlaces ascendentes de unidades de conmutación físicamente diferentes en un enlace lógico. [35] Los conmutadores 3130 vienen de serie con IP Base IOS que ofrece todas las capacidades de enrutamiento o capa 2 y capa 3 básica. Los usuarios pueden actualizar esta licencia básica a servicios IP o servicios IP avanzados agregando capacidades de enrutamiento adicionales como protocolos de enrutamiento EIGRP , OSPF o BGP4 , enrutamiento IPv6 y enrutamiento de unidifusión y multidifusión basado en hardware. Estas funciones avanzadas están integradas en el IOS del conmutador, pero el usuario debe actualizar a la licencia de Servicios IP (avanzados) para desbloquear estas opciones [38]

Extensor de tela Nexus

Desde enero de 2013, Cisco y Dell ofrecen un Nexus Fabric Extender para el chasis M1000e: Nexus B22Dell. Estos FEX ya estaban disponibles para los sistemas blade HP y Fujitsu, y ahora también hay un FEX para el sistema blade M1000e. El lanzamiento del B22Dell es de aprox. 2,5 años después de la fecha inicialmente planificada y anunciada: un desacuerdo entre Dell y Cisco provocó que Cisco detuviera el desarrollo del FEX para el M1000e en 2010. [39] Los clientes administran un FEX desde un conmutador central Nexus de la serie 5500. [40]

Otras tarjetas de E/S

Un gabinete M1000e puede contener hasta 6 conmutadores u otras tarjetas de E/S. Además de los conmutadores Ethernet como los conmutadores Powerconnect M-series, Force10 MXL y Cisco Catalyst 3100 mencionados anteriormente, los siguientes módulos de E/S están disponibles o se pueden utilizar en un gabinete Dell M1000e: [1] [41]

PCM 8428-k Brocado FCoE

Aunque el conmutador PCM8024-k y MXL admite Fibre Channel a través de Ethernet, no es un conmutador FCoE "nativo": no tiene interfaces Fibre Channel. Estos conmutadores tendrían que estar conectados a un conmutador FCoE "nativo", como el Powerconnect serie B 8000e (igual que un conmutador Brocade 8000) o un conmutador Cisco Nexus serie 5000 con interfaces de canal de fibra (y licencias). El PCM8428 es el único conmutador con capacidad completa de canal de fibra sobre Ethernet para el gabinete M1000e que ofrece 16 interfaces internas Ethernet mejoradas de 10 Gb, 8 puertos externos Ethernet de 10 Gb (mejorados) y también hasta cuatro interfaces Fibre Channel de 8 Gb para conectarse directamente a un FC. Controlador SAN o conmutador Fibre Channel central.
El conmutador ejecuta el firmware Brocade FC para el conmutador de estructura y canal de fibra y el sistema operativo Foundry para la configuración del conmutador Ethernet. [46] En cuanto a capacidades, es muy comparable al Powerconnect-B8000, sólo el factor de forma y la cantidad de interfaces Ethernet y FC son diferentes. [1] [47]

PowerConnect M5424 / Brocado 5424

Este es un conmutador Brocade Full Fibre Channel. Utiliza las estructuras B o C para conectar la tarjeta intermedia Fibre Channel en los blades a la infraestructura de almacenamiento basada en FC. El M5424 ofrece 16 puertos internos que se conectan a las tarjetas FC Mezzanine en los servidores Blade y 8 puertos externos. De fábrica, solo los dos primeros puertos externos (17 y 18) tienen licencia: las conexiones adicionales requieren licencias adicionales de Puertos dinámicos bajo demanda (DPOD). El conmutador funciona con un procesador PowerPC 440EPX a 667 MHz y una memoria del sistema RAM DDR2 de 512 MB. Además, cuenta con una memoria flash de arranque de 4 Mb y una memoria flash compacta de 512 Mb. [48]

Brocado M6505

Capacidades similares a las anteriores, pero ofreciendo 16 FC de 16 Gb hacia el servidor intermedio y 8 externos. La licencia estándar ofrece 12 conexiones que se pueden aumentar en 12 para admitir los 24 puertos. Velocidad de detección automática 2,4,8 y 16Gb. Ancho de banda agregado total 384 GB [49]

Brocado 4424

Al igual que el 5424, el 4424 también es una E/S Brocade SAN que ofrece 16 puertos internos y 8 externos. El conmutador admite velocidades de hasta 4 Gbit/s. Cuando se entregan, 12 de los puertos tienen licencia para operar y con licencias adicionales se pueden habilitar los 24 puertos. El 4424 funciona con un procesador PowerPC 440GP a 333 MHz con memoria de sistema de 256 SDRAM, memoria flash de arranque de 4 Mb y memoria flash compacta de 256 Mb. [50]

Infinibanda

Hay varios módulos disponibles que ofrecen conectividad Infiniband en el chasis M1000e. Infiniband ofrece conectividad intracomputadora de alto ancho de banda y baja latencia, como la requerida en los clústeres académicos de HPC , los grandes centros de datos empresariales y las aplicaciones en la nube. [51] Existe el conmutador SFS M7000e InfiniBand de Cisco. Cisco SFS ofrece 16 interfaces internas de "detección automática" para velocidad de datos (DDR) simple (10) (SDR) o doble (20 Gbit/s) y 8 puertos DDR externos/de enlace ascendente. La capacidad de conmutación total es de 960 Gbit/s [52]

Otras opciones son Mellanox SwitchX M4001F y M4001Q [53] y el conmutador Infiniband Mellanox M2401G de 20 Gb para el gabinete M1000e [54].

Los conmutadores M4001 ofrecen conectividad de 40 GBit/s (M4001Q) o 56 Gbit/s (M4001F) y tienen 16 interfaces externas que utilizan puertos QSFP y 16 conexiones internas a la tarjeta intermedia Infiniband en los blades. Al igual que con todos los demás conmutadores no basados ​​en Ethernet, solo se puede instalar en la estructura B o C del gabinete M1000e, ya que la estructura A se conecta a las NIC "en la placa base" de los blades y solo vienen como NIC Ethernet o Ethernet convergente.

El 2401G ofrece 24 puertos: 16 internos y 8 externos. A diferencia de los conmutadores M4001 donde los puertos externos utilizan puertos QSFP para transceptores de fibra, el 2401 tiene interfaces de cable de cobre CX4 . La capacidad de conmutación del M2401 es de 960 Gbit/s [54]

El 4001, con 16 puertos internos y 16 externos a 40 o 56 Gbit/s, ofrece una capacidad de conmutación de 2,56 Tbit/s

Módulos de paso

En algunas configuraciones, uno no quiere ni necesita capacidades de conmutación en el gabinete. Por ejemplo: si sólo unos pocos servidores Blade utilizan almacenamiento de canal de fibra, no se necesita un conmutador FC totalmente gestionable: sólo se desea poder conectar la interfaz FC "interna" del Blade directamente al servidor ( existente) infraestructura FC. Un módulo de paso tiene capacidades de gestión muy limitadas. Otras razones para elegir el pass-through en lugar de los 'conmutadores de gabinete' podrían ser el deseo de que toda la conmutación se realice en una infraestructura de 'un solo proveedor'; y si no está disponible como módulo M1000e (por lo tanto, no es uno de los conmutadores de Dell Powerconnect, Dell Force10 o Cisco), se pueden optar por módulos de paso:

Gestión del recinto

Un gabinete M1000e ofrece varias formas de administración. El M1000e ofrece gestión "fuera de banda": una VLAN dedicada (o incluso una LAN física) para la gestión. Los módulos CMC en el gabinete ofrecen interfaces Ethernet de administración y no dependen de conexiones de red realizadas a través de conmutadores de E/S en el blade. Normalmente, se conectarían los enlaces Ethernet en el CMC evitando un conmutador en el gabinete. A menudo se crea una LAN físicamente aislada para la administración, lo que permite el acceso de administración a todos los gabinetes incluso cuando toda la infraestructura está inactiva. Cada chasis M1000e puede contener dos módulos CMC.

Cada gabinete puede tener uno o dos controladores CMC y, de manera predeterminada, se puede acceder a CMC Webgui a través de https y SSH para acceder a la línea de comandos. También es posible acceder a la administración del gabinete a través de un puerto serie para acceso CLI o usando un teclado, mouse y monitor local a través del conmutador iKVM. Es posible conectar en cadena varios gabinetes M1000e.

Interfaz de gestión

Página principal del CMC Webgui

La siguiente información supone el uso de Webgui del CMC M1000e, aunque todas las funciones también están disponibles a través del acceso CLI basado en texto. Para acceder al sistema de administración, se debe abrir CMC Webgui a través de https utilizando la dirección IP de administración fuera de banda del CMC. Cuando el gabinete está en modo "independiente", se obtendrá una descripción general de todo el sistema: la webgui ofrece una descripción general de cómo se ve el sistema en realidad, incluidos los LED de estado, etc. De forma predeterminada, la interfaz Ethernet de una tarjeta CMC Obtendrá una dirección de un servidor DHCP, pero también es posible configurar una dirección IPv4 o IPv6 a través de la pantalla LED en la parte frontal del chasis. Una vez que se establece o conoce la dirección IP, el operador puede acceder a la webgui utilizando la cuenta raíz predeterminada que viene integrada de fábrica.

A través de la administración del CMC, se pueden configurar funciones relacionadas con el chasis: direcciones IP de administración, funciones de autenticación (lista de usuarios locales, mediante servidor RADIUS o Tacacs), opciones de acceso (webgui, cli, enlace serie, KVM, etc.), registro de errores. ( servidor syslog ), etc. A través de la interfaz CMC se pueden configurar los blades en el sistema y configurar el acceso del iDRAC a esos servidores. Una vez habilitado, se puede acceder al iDRAC (y con ello a la consola del servidor) a través de esta webgui o abriendo directamente la webgui del iDRAC.

Lo mismo se aplica a los módulos de E/S en la parte posterior del sistema: a través del CMC se puede asignar una dirección IP al módulo de E/S en una de las 6 ranuras y luego navegar a la webgui de ese módulo (si hay una interfaz gráfica de usuario basada en web: los módulos de paso no administrados no ofrecerán una interfaz gráfica de usuario web ya que no hay nada que configurar.

pantalla LCD

En la parte frontal del chasis hay una pequeña pantalla LCD oculta con 3 botones: un botón direccional de 4 direcciones que permite navegar por los menús en la pantalla y dos botones de "encendido/apagado" que funcionan como "OK". o el botón "Escape". La pantalla se puede utilizar para verificar el estado del gabinete y los módulos que contiene: por ejemplo, se pueden verificar las alarmas activas en el sistema, obtener la dirección IP del CMC de KVM, verificar los nombres del sistema, etc. Especialmente para un entorno. Cuando hay más gabinetes en un centro de datos, puede resultar útil verificar si uno está trabajando en el gabinete correcto. A diferencia de los servidores en rack o en torre, sólo hay un conjunto muy limitado de indicadores en los servidores individuales: un servidor Blade tiene un LED de alimentación y un LED de actividad del disco (local), pero no tiene una pantalla LCD que ofrezca alarmas, nombres de host, etc. Hay LED para la actividad de E/S: todo esto se combina en esta pequeña pantalla que brinda información tanto sobre el gabinete como sobre los servidores, interruptores, ventiladores, fuentes de alimentación, etc. insertados. La pantalla LCD también se puede usar para configuración inicial de un chasis no configurado. Se puede utilizar la pantalla LCD para configurar el idioma de la interfaz y la dirección IP del CMC para una configuración CLI o basada en web adicional. [2] Durante el funcionamiento normal, la pantalla se puede "empujar" dentro del chasis y queda prácticamente oculta. Para usarlo, sería necesario sacarlo e inclinarlo para leer la pantalla y tener acceso a los botones.

Blade 17: E/S de gestión local

Un sistema blade no está realmente diseñado para la administración local (en el sitio) y casi toda la comunicación con los módulos en el gabinete y el gabinete mismo se realiza a través de las tarjetas "CMC" en la parte posterior del gabinete. En la parte frontal del chasis, directamente adyacente al botón de encendido, se puede conectar un terminal local: un conector de monitor VGA estándar y dos conectores USB . Esta conexión se denomina dentro del sistema "blade 17" y permite una interfaz local con las tarjetas de administración del CMC. [2]

Acceso remoto a iDRAC

Además del acceso operativo normal a los servidores blade (por ejemplo, sesiones SSH a un sistema operativo basado en Linux, RDP a un sistema operativo basado en Windows, etc.), existen aproximadamente dos formas de administrar los servidores blade: mediante la función iDRAC o mediante el conmutador iKVM. . Cada blade del gabinete viene con un iDRAC incorporado que permite acceder a la consola a través de una conexión IP. El iDRAC en un servidor Blade funciona de la misma manera que una tarjeta iDRAC en un servidor en rack o en torre: existe una red iDRAC especial para obtener acceso a la función iDRAC. En servidores en rack o en torre, una interfaz Ethernet iDRAC dedicada se conecta a una LAN de administración. En los servidores blade funciona igual: a través del CMC uno configura la configuración de iDRAC y el acceso al iDRAC de un blade NO está vinculado a ninguna de las NIC integradas: si todas las NIC del servidor estuvieran inactivas (por lo tanto, todas las NIC en la placa base y también los Mezzanine B y C) aún se puede acceder al iDRAC.

iKVM: acceso a consola remota

Aparte de eso, también se puede conectar un teclado, un mouse y un monitor directamente al servidor: en un rack o switch de torre se pueden conectar los dispositivos de E/S cuando sea necesario o tener todos los servidores conectados a un switch KVM . Lo mismo es posible con los servidores en un gabinete blade: a través del módulo iKVM opcional en un gabinete se puede acceder a cada uno de los 16 blades directamente. Es posible incluir el conmutador iKVM en una red existente de conmutadores KVM digitales o analógicos. El conmutador iKVM en el gabinete de Dell es un conmutador Avocent y se puede conectar (nivelar) el módulo iKVM a otros conmutadores KVM digitales, como los conmutadores digitales Dell 2161 y 4161 o Avocent DSR. También es posible conectar el iKVM a conmutadores KVM analógicos como Dell 2160AS o 180AS u otros conmutadores KVM Avocent (compatibles). [2] A diferencia del CMC, el conmutador iKVM no es redundante, pero como siempre se puede acceder a un servidor (también) a través de su iDRAC, cualquier interrupción del conmutador KVM no impide acceder a la consola del servidor.

Direcciones flexibles

El gabinete M1000e ofrece la opción de direcciones flexibles. Esta característica permite a los administradores del sistema utilizar direcciones MAC fijas o dedicadas y nombres mundiales (WWN) que están vinculados al chasis, la posición del blade y la ubicación de la interfaz de E/S. Permite a los administradores reemplazar físicamente un servidor blade y/o una tarjeta intermedia mientras el sistema continúa usando las mismas direcciones MAC y/o WWN para ese blade sin la necesidad de cambiar manualmente ninguna dirección MAC o WWN y evitar el riesgo de introducción de direcciones duplicadas: con direcciones flexibles, el sistema asignará un MAC/WWN globalmente único en función de la ubicación de esa interfaz en el chasis. Las direcciones flexibles se almacenan en una tarjeta SD que se inserta en el módulo CMC de un chasis y, cuando se usa, sobrescribe la dirección grabada en las interfaces de los blades del sistema. [2]

Energía y refrigeración

El gabinete M1000e es, como la mayoría de los sistemas blade, para infraestructuras de TI que exigen alta disponibilidad. (Casi) todo lo que hay en el gabinete admite operación redundante: cada una de las 3 estructuras de E/S (A, B y C) admite dos conmutadores o tarjetas de paso y admite dos controladores CMC, aunque uno puede ejecutar el chasis con solo un CMC. Además, la alimentación y la refrigeración son redundantes: el chasis admite hasta seis fuentes de alimentación y nueve unidades de ventilador. Todas las fuentes de alimentación y unidades de ventilador se insertan desde la parte posterior y son intercambiables en caliente. [2] Las fuentes de alimentación están ubicadas en la parte inferior del gabinete, mientras que las unidades de ventilador están ubicadas al lado y entre el interruptor o los módulos de E/S. Cada fuente de alimentación es de 2700 vatios y utiliza 208-240 V CA como voltaje de entrada. Un chasis puede funcionar con al menos dos fuentes de alimentación (configuración no redundante 2+0). Dependiendo de la redundancia requerida, se puede utilizar una configuración 2+2 o 3+3 (redundancia de entrada donde se conectaría cada grupo de suministros a dos fuentes de alimentación diferentes) o una configuración 3+1, 4+2 o 5+1, que brinda protección si falla una unidad de fuente de alimentación, pero no en caso de perder todo un grupo de alimentación de CA [1]

Referencias

  1. ^ Sitio web de abcde Dell Especificaciones técnicas para el M1000e, visitado el 10 de marzo de 2013
  2. ^ abcdefgh Sitio web de soporte de Dell Manual del propietario de M1000e, consultado el 26 de octubre de 2012
  3. ^ Guía de instalación de PowerEdge M1000e, revisión A05, páginas 47-51. Fecha: marzo de 2011. Consultado: 25 de enero de 2013.
  4. ^ ab "Detalles sobre el servidor blade Dell PowerEdge M420". BladesMadeSimple.com . 22 de mayo de 2012 . Consultado el 29 de enero de 2017 .
  5. ^ "Servidor blade Dell PowerEdge M420 - Dell". Dell.com . Consultado el 29 de enero de 2017 .
  6. ^ ab Sitio web de Dell: Especificaciones técnicas del Poweredge M630, visitado el 29 de agosto de 2016.
  7. ^ Folleto de especificaciones técnicas PowerEdge M610, actualizado el 20 de diciembre de 2011
  8. ^ Especificaciones técnicas de Dell PowerEdge M610x, consultado el 20 de diciembre de 2011.
  9. ^ Descripción general de las especificaciones técnicas del Poweredge M620, visitado el 12 de junio de 2012
  10. ^ Sitio web de Dell que anuncia servidores G12 con detalles sobre virtualización Archivado el 14 de junio de 2012 en Wayback Machine , visitado el 12 de junio de 2012.
  11. ^ Folleto de especificaciones técnicas PowerEdge M710, consultado el 27 de junio de 2011
  12. ^ Especificaciones técnicas de Power Edge PowerEdge M710HD, consultado el 20 de diciembre de 2011
  13. ^ Sitio web de Dell: Especificaciones técnicas del Poweredge M820, visitado el 28 de julio de 2012
  14. ^ Especificaciones técnicas del: M910, consultado el 20 de diciembre de 2011.
  15. ^ Sitio web de Dell con especificaciones técnicas del blade M915, consultado el 20 de diciembre de 2011
  16. ^ Nota al pie: Excepto el PE M420 que solo admite una tarjeta intermedia: el servidor blade PE M420 de un cuarto de altura solo tiene una ranura intermedia B
  17. ^ ab Sitio de soporte de Dell con manuales de descripción general para el chasis M1000e, visitado el 27 de junio de 2011
  18. ^ Documento técnico sobre la instalación de hipervisores con tarjetas SD redundantes, visitado el 19 de febrero de 2013
  19. ^ Especificaciones técnicas del conjunto de blades Equallogic PS M4110, visitado el 27 de septiembre de 2012
  20. ^ ab Hoja de datos de Dell para PS-M4110, descargada: 2 de marzo de 2013
  21. ^ ab Uso del sistema M1000e con un backplane PHY AMCC QT2025 en una aplicación 10GBASE-KR, consultado el 12 de junio de 2012
  22. ^ ab Cómo encontrar la revisión del plano medio del M1000e, visitado el 19 de septiembre de 2012
  23. ^ ab Guía del usuario de PowerConnect serie M, firmware 4.x, marzo de 2011, consultado el 26 de junio de 2011
  24. ^ Sitio web de Dell: conmutadores blade PCM8024 disponibles que no figuran como disponibles, 29 de diciembre de 2011
  25. ^ Sitio web de Dell PCM8024-k, visitado el 29 de diciembre de 2012
  26. ^ Notas de la versión, página 6 y más incluidas en el paquete de firmware PC 4.2.1.3, fecha de lanzamiento 2 de febrero de 2012, descargado: 16 de febrero de 2012
  27. ^ Apilamiento de los conmutadores PowerConnect 10G, diciembre de 2011. Visitado el 10 de marzo de 2013.
  28. ^ Guía de configuración del usuario PCM6348 [ enlace inactivo permanente ] , descargado el 10 de marzo de 2013
  29. ^ Sitio web de la comunidad de Dell: Dell anuncia el conmutador F10 MXL, 24 de abril de 2012. Visitado el 18 de mayo de 2012
  30. ^ EWeek: Dell presenta un conmutador de red habilitado para 40 GbE [ enlace muerto permanente ] , 24 de abril de 2012. Visitado el 18 de mayo de 2012
  31. ^ Sitio web de Dell: PowerEdge MI/O Aggregator, agosto de 2012. Visitado: 26 de octubre de 2012
  32. ^ Sitio web de Cisco: Soluciones integrales de E/S de servidor Blade, visitado: 14 de abril de 2012
  33. ^ Catalyst 3032 para Dell, visitado: 14 de abril de 2012
  34. ^ Nexus FEX para M1000e, visitado el 2 de julio de 2017
  35. ^ ab Catalyst para Dell de un vistazo, consultado el 14 de abril de 2012
  36. ^ Sitio web de Dell Catalyst 3130G Archivado el 21 de junio de 2011 en Wayback Machine , visitado el 14 de abril de 2012
  37. ^ Sitio web de Dell sobre Catalyst 3130X Archivado el 21 de junio de 2011 en Wayback Machine , visitado el 14 de abril de 2012
  38. ^ Hoja de datos de Cisco sobre Catalyst 3130, sección: software 3130. Visitado: 14 de abril de 2012.
  39. ^ Sitio web de TheRegister: Cisco corta el conmutador blade Nexus 4001d, 16 de febrero de 2010. Visitado: 10 de marzo de 2013
  40. ^ Hoja de datos de Cisco: Hoja de datos del extensor de estructura de hoja Cisco Nexus B22, 2013. Descargado: 10 de marzo de 2013
  41. ^ Manuales y documentos para PowerEdge M1000E [ enlace inactivo permanente ] , visitado el 9 de marzo de 2013
  42. ^ Manual de usuario para el módulo de paso a través XAUI de 10 GbE [ enlace muerto permanente ] , 2010, visitado: 10 de marzo de 2013
  43. ^ Manual de usuario para el paso a través de 10 Gb -k para M1000e [ enlace muerto permanente ] , 2011. Visitado: 10 de marzo de 2013
  44. ^ Brocade M6505 para chasis M1000e, visitado el 2 de julio de 2017
  45. ^ Guía del usuario del Infiniscal IV [ enlace muerto permanente ] , 2009. Descargado: 10 de marzo de 2013
  46. ^ Sitio web de Dell Especificaciones del conmutador convergente M8424 de 10 Gbe, visitado el 12 de octubre de 2012
  47. ^ Detalles sobre el conmutador PC-B-8000, visitado el 18 de marzo de 2012
  48. ^ "Manual de referencia del hardware del módulo de E/S SAN del servidor Blade Brocade M5424, septiembre de 2008" (PDF) . Support.Euro.Dell.com . Consultado el 12 de octubre de 2012 .
  49. ^ Descripción técnica del M6505, visitado el 2 de julio de 2017
  50. ^ Manual de Dell: Referencia de hardware del módulo de E/S SAN del servidor Blade Brocade 4424, noviembre de 2007. Descargado: 12 de octubre de 2012
  51. ^ Noticias, NO: IDG, archivado desde el original el 10 de enero de 2017 , consultado el 13 de octubre de 2012
  52. ^ Hoja de datos de Cisco sobre el conmutador Infiniband SFS M7000e, marzo de 2008. Visitado: 12 de octubre de 2012
  53. ^ Guía del usuario de Melanox para los conmutadores SwitcX M4001 M4001 Infiniband, noviembre de 2011. Consultado el 12 de octubre de 2012.
  54. ^ ab Guía del usuario de Melanox para el conmutador Infiniband M2401, junio de 2008. Visitado: 12 de octubre de 2012
  55. ^ Módulo de paso Gigabit del sitio web de Dell para la serie M Archivado el 18 de diciembre de 2010 en Wayback Machine , visitado el 26 de junio de 2011
  56. ^ Especificaciones de paso de 10 Gb, PDF, consultado el 27 de junio de 2011