stringtranslate.com

PCI Express

Dos tipos de ranura PCIe en una placa base Asus H81M-K
Varias ranuras en la placa base de una computadora , de arriba a abajo:
  • PCI Express x4
  • PCI Express x16
  • PCI Express x1
  • PCI Express x16
  • PCI convencional (32 bits, 5 V)

PCI Express ( Peripheral Component Interconnect Express ), abreviado oficialmente como PCIe o PCI-e , [2] es un estándar de bus de expansión de computadora serial de alta velocidad , diseñado para reemplazar los estándares de bus PCI , PCI-X y AGP más antiguos . Es la interfaz de placa base común para tarjetas gráficas de computadoras personales , tarjetas de captura , tarjetas de sonido , adaptadores de host de unidad de disco duro , SSD , Wi-Fi y conexiones de hardware Ethernet . [3] PCIe tiene numerosas mejoras con respecto a los estándares más antiguos, incluido un mayor rendimiento máximo del bus del sistema, menor recuento de pines de E/S y menor huella física, mejor escalabilidad del rendimiento para dispositivos de bus, un mecanismo de detección y generación de informes de errores más detallado (Advanced Error Reporting, AER), [4] y funcionalidad nativa de intercambio en caliente . Las revisiones más recientes del estándar PCIe brindan soporte de hardware para la virtualización de E/S .

La interfaz eléctrica PCI Express se mide por la cantidad de carriles simultáneos. [5] (Un carril es una única línea de envío/recepción de datos, análoga a una "carretera de un carril" que tiene un carril de tráfico en ambas direcciones). La interfaz también se utiliza en una variedad de otros estándares, en particular la interfaz de tarjeta de expansión para computadoras portátiles llamada ExpressCard . También se utiliza en las interfaces de almacenamiento de SATA Express , U.2 (SFF-8639) y M.2 .

Las especificaciones formales son mantenidas y desarrolladas por el PCI-SIG (PCI Special Interest Group ), un grupo de más de 900 empresas que también mantiene las especificaciones PCI convencionales .

Arquitectura

Ejemplo de la topología PCI Express:
las "cajas de unión" blancas representan los puertos descendentes del dispositivo PCI Express, mientras que las grises representan los puertos ascendentes. [6] : 7 
Tarjeta PCI Express x1 que contiene un conmutador PCI Express (cubierto por un pequeño disipador de calor ), que crea múltiples puntos finales a partir de un punto final y permite que varios dispositivos lo compartan
Las ranuras PCIe de una placa base suelen estar etiquetadas con la cantidad de líneas PCIe que tienen. A veces, lo que puede parecer una ranura grande puede tener solo unas pocas líneas. Por ejemplo, una ranura x16 con solo 4 líneas PCIe (ranura inferior) es bastante común. [7]

Conceptualmente, el bus PCI Express es un reemplazo serial de alta velocidad del antiguo bus PCI/PCI-X. [8] Una de las diferencias clave entre el bus PCI Express y el PCI antiguo es la topología del bus; PCI utiliza una arquitectura de bus paralelo compartido, en la que el host PCI y todos los dispositivos comparten un conjunto común de direcciones, datos y líneas de control. Por el contrario, PCI Express se basa en una topología punto a punto , con enlaces seriales separados que conectan cada dispositivo al complejo raíz (host). Debido a su topología de bus compartida, el acceso al bus PCI antiguo es arbitrado (en el caso de múltiples maestros) y limitado a un maestro a la vez, en una sola dirección. Además, el antiguo esquema de reloj PCI limita el reloj del bus al periférico más lento del bus (independientemente de los dispositivos involucrados en la transacción del bus). Por el contrario, un enlace de bus PCI Express admite la comunicación full-duplex entre dos puntos finales cualesquiera, sin limitación inherente en el acceso simultáneo a través de múltiples puntos finales.

En términos de protocolo de bus, la comunicación PCI Express está encapsulada en paquetes. El trabajo de empaquetar y desempaquetar el tráfico de datos y mensajes de estado lo maneja la capa de transacción del puerto PCI Express (descrita más adelante). Las diferencias radicales en la señalización eléctrica y el protocolo de bus requieren el uso de un factor de forma mecánico y conectores de expansión diferentes (y, por lo tanto, nuevas placas base y nuevas placas adaptadoras); las ranuras PCI y las ranuras PCI Express no son intercambiables. A nivel de software, PCI Express conserva la compatibilidad con versiones anteriores de PCI; el software del sistema PCI heredado puede detectar y configurar dispositivos PCI Express más nuevos sin compatibilidad explícita con el estándar PCI Express, aunque las nuevas funciones de PCI Express son inaccesibles.

El enlace PCI Express entre dos dispositivos puede variar en tamaño de uno a dieciséis carriles. En un enlace de varios carriles, los datos del paquete se distribuyen en varios carriles y el rendimiento máximo de los datos se escala con el ancho total del enlace. El recuento de carriles se negocia automáticamente durante la inicialización del dispositivo y puede ser restringido por cualquiera de los puntos finales. Por ejemplo, se puede insertar una tarjeta PCI Express de un solo carril (x1) en una ranura de varios carriles (x4, x8, etc.) y el ciclo de inicialización negocia automáticamente el mayor recuento de carriles mutuamente admitido. El enlace puede configurarse dinámicamente para utilizar menos carriles, lo que proporciona una tolerancia a fallos en caso de que haya carriles defectuosos o poco fiables. El estándar PCI Express define anchos de enlace de x1, x2, x4, x8 y x16. También se definieron enlaces PCIe 5.0, x12 y x32, pero nunca se utilizaron. [9] Esto permite que el bus PCI Express sirva tanto para aplicaciones sensibles a los costos donde no se necesita un alto rendimiento, como para aplicaciones críticas en términos de rendimiento, como gráficos 3D, redes ( 10 Gigabit Ethernet o Gigabit Ethernet multipuerto ) y almacenamiento empresarial ( SAS o Fibre Channel ). Las ranuras y los conectores solo se definen para un subconjunto de estos anchos, y los anchos de enlace intermedios utilizan el siguiente tamaño de ranura física más grande.

Como punto de referencia, un dispositivo PCI-X (133 MHz de 64 bits) y un dispositivo PCI Express 1.0 que utiliza cuatro carriles (x4) tienen aproximadamente la misma velocidad de transferencia máxima unidireccional de 1064 MB/s. El bus PCI Express tiene el potencial de funcionar mejor que el bus PCI-X en los casos en que varios dispositivos transfieren datos simultáneamente o si la comunicación con el periférico PCI Express es bidireccional .

Interconectar

Un enlace PCI Express entre dos dispositivos consta de uno o más carriles, que son canales símplex duales que utilizan dos pares de señalización diferencial . [6] : 3 

Los dispositivos PCI Express se comunican a través de una conexión lógica denominada interconexión [10] o enlace . Un enlace es un canal de comunicación punto a punto entre dos puertos PCI Express que permite a ambos enviar y recibir solicitudes PCI ordinarias (configuración, E/S o lectura/escritura de memoria) e interrupciones ( INTx , MSI o MSI-X ). A nivel físico, un enlace se compone de uno o más carriles . [10] Los periféricos de baja velocidad (como una tarjeta Wi-Fi 802.11 ) utilizan un enlace de un solo carril (x1), mientras que un adaptador gráfico normalmente utiliza un enlace de 16 carriles (x16) mucho más amplio y, por lo tanto, más rápido.

carril

Un carril se compone de dos pares de señalización diferencial , con un par para recibir datos y el otro para transmitir. Por lo tanto, cada carril se compone de cuatro cables o trazas de señal . Conceptualmente, cada carril se utiliza como un flujo de bytes full-duplex , que transporta paquetes de datos en formato "byte" de ocho bits simultáneamente en ambas direcciones entre los puntos finales de un enlace. [11] Los enlaces PCI Express físicos pueden contener 1, 4, 8 o 16 carriles. [12] [6] : 4, 5  [10] Los recuentos de carriles se escriben con un prefijo "x" (por ejemplo, "x8" representa una tarjeta o ranura de ocho carriles), siendo x16 el tamaño más grande de uso común. [13] Los tamaños de carril también se denominan a través de los términos "ancho" o "por", por ejemplo, una ranura de ocho carriles podría denominarse "por 8" o como "8 carriles de ancho".

Para conocer los tamaños de las tarjetas mecánicas, consulte a continuación.

Bus serial

La arquitectura de bus serial enlazado fue elegida en lugar del bus paralelo tradicional debido a las limitaciones inherentes de este último, incluyendo operación half-duplex , exceso de conteo de señales y ancho de banda inherentemente menor debido al sesgo de tiempo . El sesgo de tiempo resulta de señales eléctricas separadas dentro de una interfaz paralela que viajan a través de conductores de diferentes longitudes, en capas de placa de circuito impreso (PCB) potencialmente diferentes y a velocidades de señal posiblemente diferentes . A pesar de transmitirse simultáneamente como una sola palabra , las señales en una interfaz paralela tienen diferente duración de viaje y llegan a sus destinos en diferentes momentos. Cuando el período de reloj de la interfaz es más corto que la mayor diferencia de tiempo entre las llegadas de señales, la recuperación de la palabra transmitida ya no es posible. Dado que el sesgo de tiempo en un bus paralelo puede ascender a unos pocos nanosegundos, la limitación de ancho de banda resultante está en el rango de cientos de megahercios.

Topologías altamente simplificadas de la interfaz PCI compartida (paralela) heredada y la interfaz PCIe punto a punto en serie [14]

Una interfaz serial no presenta sesgo de sincronización porque solo hay una señal diferencial en cada dirección dentro de cada carril, y no hay señal de reloj externa ya que la información de reloj está incorporada dentro de la propia señal serial. Como tal, las limitaciones típicas de ancho de banda en señales seriales están en el rango de varios gigahercios. PCI Express es un ejemplo de la tendencia general hacia reemplazar buses paralelos con interconexiones seriales; otros ejemplos incluyen Serial ATA (SATA), USB , Serial Attached SCSI (SAS), FireWire (IEEE 1394) y RapidIO . En video digital, los ejemplos de uso común son DVI , HDMI y DisplayPort .

El diseño serial multicanal aumenta la flexibilidad con su capacidad de asignar menos carriles para dispositivos más lentos.

Factores de forma

PCI Express (estándar)

SSD flash NVMe Intel P3608, tarjeta complementaria PCIe

Una tarjeta PCI Express cabe en una ranura de su tamaño físico o mayor (x16 es la más grande que se utiliza), pero puede que no encaje en una ranura PCI Express más pequeña; por ejemplo, una tarjeta x16 puede no encajar en una ranura x4 o x8. Algunas ranuras utilizan conectores abiertos para permitir tarjetas físicamente más largas y negociar la mejor conexión eléctrica y lógica disponible.

El número de carriles realmente conectados a una ranura también puede ser menor que el número admitido por el tamaño físico de la ranura. Un ejemplo es una ranura x16 que funciona a x4, que acepta cualquier tarjeta x1, x2, x4, x8 o x16, pero proporciona solo cuatro carriles. Su especificación puede leerse como "x16 (modo x4)", mientras que la notación "mecánica @ eléctrica" ​​(por ejemplo, "x16 @ x4") también es común. [ cita requerida ] La ventaja es que dichas ranuras pueden acomodar una gama más amplia de tarjetas PCI Express sin requerir que el hardware de la placa base admita la velocidad de transferencia completa. Los tamaños mecánicos estándar son x1, x4, x8 y x16. Las tarjetas que utilizan un número de carriles diferente a los tamaños mecánicos estándar deben adaptarse físicamente al siguiente tamaño mecánico más grande (por ejemplo, una tarjeta x2 usa el tamaño x4, o una tarjeta x12 usa el tamaño x16).

Las tarjetas en sí están diseñadas y fabricadas en varios tamaños. Por ejemplo, las unidades de estado sólido (SSD) que vienen en forma de tarjetas PCI Express a menudo utilizan HHHL (altura media, longitud media) y FHHL (altura completa, longitud media) para describir las dimensiones físicas de la tarjeta. [15] [16]

Factores de forma de tarjetas de vídeo no estándar

Las tarjetas de video para juegos modernas (desde c.  2012 [17] ) generalmente exceden la altura y el grosor especificados en el estándar PCI Express, debido a la necesidad de ventiladores de enfriamiento más capaces y silenciosos , ya que las tarjetas de video para juegos a menudo emiten cientos de vatios de calor. [18] Las carcasas de computadora modernas suelen ser más anchas para acomodar estas tarjetas más altas, pero no siempre. Dado que las tarjetas de longitud completa (312 mm) son poco comunes, las carcasas modernas a veces no pueden adaptarse a ellas. El grosor de estas tarjetas también ocupa típicamente el espacio de 2 a 5 [19] ranuras PCIe. De hecho, incluso la metodología de cómo medir las tarjetas varía entre proveedores, ya que algunos incluyen el tamaño del soporte de metal en las dimensiones y otros no.

Por ejemplo, comparando tres tarjetas de video de alta gama lanzadas en 2020: una tarjeta Sapphire Radeon RX 5700 XT mide 135 mm de altura (excluyendo el soporte de metal), que excede la altura estándar PCIe en 28 mm, [20] otra tarjeta Radeon RX 5700 XT de XFX mide 55 mm de grosor (es decir, 2,7 ranuras PCI a 20,32 mm), ocupando 3 ranuras PCIe, [21] mientras que una tarjeta de video Asus GeForce RTX 3080 ocupa dos ranuras y mide 140,1  mm × 318,5  mm × 57,8  mm, superando la altura, longitud y grosor máximos de PCI Express respectivamente. [22]

Distribución de pines

La siguiente tabla identifica los conductores de cada lado del conector de borde de una tarjeta PCI Express. El lado de soldadura de la placa de circuito impreso (PCB) es el lado A y el lado del componente es el lado B. [23] Los pines PRSNT1# y PRSNT2# deben ser ligeramente más cortos que el resto para garantizar que una tarjeta enchufada en caliente esté completamente insertada. El pin WAKE# usa voltaje completo para reactivar la computadora, pero debe elevarse desde la fuente de alimentación en espera para indicar que la tarjeta es capaz de reactivarse. [24]

Fuerza

El principalLa fuente de alimentación de 12  V para la ranura PCIe se encuentra en los pines B2, B3 (lado B) y en los pines A2, A3 (lado A).3,3  V son los pines B10 y A10. Las tarjetas PCIe x1 pueden recibir hastaLas tarjetas gráficas de 25  W y x16 pueden recibir hasta75  W , combinado. [28]
Potencia de la ranura

Todas las tarjetas PCI Express pueden consumir hasta3  A en+3,3  V (9,9  W ). La cantidad de +12 V y la potencia total que pueden consumir dependen del factor de forma y la función de la tarjeta: [29] : 35–36  [30] [31]

Conectores de alimentación de 6 y 8 pines
Conectores de alimentación de 8 pines (izquierda) y 6 pines (derecha) utilizados en tarjetas PCI Express

Se añaden conectores opcionales75  W (6 pines) o150  W (8 pines) de potencia de +12 V para hasta300  W en total ( 2 × 75 W + 1 × 150 W ).

Algunas tarjetas usan dos conectores de 8 pines, pero esto aún no se ha estandarizado a partir de 2018 , por lo tanto, dichas tarjetas no deben llevar el logotipo oficial de PCI Express. Esta configuración permite un total de 375 W ( 1 × 75 W + 2 × 150 W ) y probablemente será estandarizada por PCI-SIG con el estándar PCI Express 4.0. [ necesita actualización ] El conector PCI Express de 8 pines podría confundirse con el conector EPS12V , que se usa principalmente para alimentar sistemas SMP y multinúcleo. Los conectores de alimentación son variantes de los conectores de la serie Molex Mini-Fit Jr. [32]

  1. ^ Cuando se conecta un conector de 6 pines a un receptáculo de 8 pines, la tarjeta recibe una notificación mediante un Sense1 faltante de que solo puede usar hasta 75 W.
Conector 12VHPWR
Adaptador 12VHPWR (salida 12VHPWR a la izquierda, cuatro entradas de 8 pines a la derecha) suministrado con las tarjetas Nvidia RTX 4090

El conector 12VHPWR de 16 pines es un estándar para conectar unidades de procesamiento gráfico (GPU) a fuentes de alimentación de computadora para una entrega de energía de hasta 600 W. Se introdujo en 2022 para reemplazar los conectores de alimentación de 6 y 8 pines anteriores para GPU. El objetivo principal era satisfacer los crecientes requisitos de energía de las GPU de alto rendimiento. Fue reemplazado por una revisión menor llamada 12V-2x6, que cambió el conector para garantizar que los pines de detección solo hagan contacto si los pines de alimentación están colocados correctamente.

El conector original se adoptó formalmente como parte de PCI Express 5.x, [37] mientras que el diseño revisado del conector 12V-2x6 se adoptó más tarde. [38]

Tarjeta mini PCI Express

Una minitarjeta PCI Express WLAN y su conector
Comparación de tarjetas MiniPCI y MiniPCI Express

La tarjeta PCI Express Mini (también conocida como Mini PCI Express , Mini PCIe , Mini PCI-E , mPCIe y PEM ), basada en PCI Express, es un reemplazo del factor de forma Mini PCI . Fue desarrollada por PCI-SIG . El dispositivo host admite conectividad PCI Express y USB  2.0, y cada tarjeta puede usar cualquiera de los dos estándares. La mayoría de las computadoras portátiles fabricadas después de 2005 usan PCI Express para tarjetas de expansión; sin embargo, a partir de 2015 , muchos proveedores están pasando a usar el factor de forma M.2 más nuevo para este propósito. [39]

Debido a las diferentes dimensiones, las tarjetas PCI Express Mini no son físicamente compatibles con las ranuras PCI Express de tamaño completo estándar; sin embargo, existen adaptadores pasivos que permiten utilizarlas en ranuras de tamaño completo. [40]

Dimensiones físicas

Las dimensiones de las tarjetas mini PCI Express son 30 mm × 50,95 mm (ancho × largo) para una tarjeta mini completa. Hay un conector de borde de 52 pines , que consta de dos filas escalonadas en un paso de 0,8 mm. Cada fila tiene ocho contactos, un espacio equivalente a cuatro contactos, luego otros 18 contactos. Las placas tienen un grosor de 1,0 mm, sin contar los componentes. También se especifica una "media tarjeta mini" (a veces abreviada como HMC), que tiene aproximadamente la mitad de la longitud física de 26,8 mm. También hay tarjetas mini PCIe de tamaño medio que miden 30 x 31,90 mm, que es aproximadamente la mitad de la longitud de una tarjeta mini PCIe de tamaño completo. [41] [42]

Interfaz eléctrica

Los conectores de borde de la tarjeta PCI Express Mini proporcionan múltiples conexiones y buses:

Variante mini-SATA (mSATA)

Un SSD mSATA de Intel

A pesar de compartir el factor de forma Mini PCI Express, una ranura mSATA no es necesariamente compatible eléctricamente con Mini PCI Express. Por esta razón, solo ciertos portátiles son compatibles con unidades mSATA. La mayoría de los sistemas compatibles se basan en la arquitectura de procesador Sandy Bridge de Intel, utilizando la plataforma Huron River. Los portátiles como ThinkPad T, W y X de Lenovo, lanzados en marzo-abril de 2011, tienen soporte para una tarjeta SSD mSATA en su ranura para tarjeta WWAN . Los ThinkPad Edge E220s/E420s y los Lenovo IdeaPad Y460/Y560/Y570/Y580 también admiten mSATA. [43] Por el contrario, la serie L, entre otros, solo puede admitir tarjetas M.2 que utilicen el estándar PCIe en la ranura WWAN.

Algunas computadoras portátiles (en particular, la Asus Eee PC , la Apple MacBook Air y las Dell mini9 y mini10) utilizan una variante de la tarjeta PCI Express Mini como SSD . Esta variante utiliza los pines reservados y varios no reservados para implementar el paso de interfaz SATA e IDE, manteniendo solo USB, líneas de tierra y, a veces, el bus PCIe x1 central intacto. [44] Esto hace que las unidades flash y de estado sólido "miniPCIe" vendidas para netbooks sean en gran medida incompatibles con las verdaderas implementaciones de PCI Express Mini.

Además, el SSD miniPCIe típico de Asus tiene 71 mm de largo, lo que hace que el modelo de 51 mm de Dell a menudo se denomine (incorrectamente) de longitud media. En 2009 se anunció un SSD Mini PCIe real de 51 mm, con dos capas de PCB apiladas que permiten una mayor capacidad de almacenamiento. El diseño anunciado conserva la interfaz PCIe, lo que lo hace compatible con la ranura mini PCIe estándar. Todavía no se ha desarrollado ningún producto funcional.

Intel cuenta con numerosas placas base para equipos de escritorio con ranura para minitarjeta PCIe x1 que normalmente no admiten SSD mSATA. En el sitio de asistencia técnica de Intel se incluye una lista de placas base para equipos de escritorio que admiten de forma nativa mSATA en la ranura para minitarjeta PCIe x1 (normalmente multiplexada con un puerto SATA). [45]

PCI Express M.2

M.2 reemplaza al estándar mSATA y al Mini PCIe. [46] Las interfaces de bus de computadora proporcionadas a través del conector M.2 son PCI Express 3.0 (hasta cuatro carriles), Serial ATA 3.0 y USB 3.0 (un solo puerto lógico para cada uno de los dos últimos). Depende del fabricante del host o dispositivo M.2 elegir qué interfaces admitir, según el nivel deseado de compatibilidad del host y el tipo de dispositivo.

Cableado externo PCI Express

Las especificaciones del cableado externo PCI Express (también conocido como PCI Express externo , PCI Express cableado o ePCIe ) fueron publicadas por PCI-SIG en febrero de 2007. [47] [48]

Se han definido cables y conectores estándar para anchos de enlace x1, x4, x8 y x16, con una velocidad de transferencia de 250 MB/s por línea. El PCI-SIG también espera que la norma evolucione hasta alcanzar los 500 MB/s, como en PCI Express 2.0. Un ejemplo de los usos de Cabled PCI Express es una carcasa metálica que contiene una serie de ranuras PCIe y circuitos adaptadores de PCIe a ePCIe. Este dispositivo no sería posible si no fuera por la especificación ePCIe.

OCuLink (que significa "enlace óptico-cobre", ya que Cu es el símbolo químico del cobre ) es una extensión de la "versión de cable de PCI Express". La versión 1.0 de OCuLink, lanzada en octubre de 2015, admite hasta 4 líneas PCIe 3.0 (3,9 GB/s) a través de cableado de cobre; es posible que aparezca una versión de fibra óptica en el futuro.

La versión más reciente de OCuLink, OCuLink-2, admite hasta 16 GB/s (PCIe 4.0 x8) [49] mientras que el ancho de banda máximo de un cable USB 4 es de 10 GB/s.

Aunque inicialmente estaba pensado para usarse en computadoras portátiles para la conexión de potentes cajas GPU externas, la popularidad de OCuLink radica principalmente en su uso para interconexiones PCIe en servidores, una aplicación más frecuente. [50]

Formas derivadas

Existen muchos otros formatos que utilizan o pueden utilizar PCIe, entre ellos:

El conector de ranura PCIe también puede admitir otros protocolos además de PCIe. Algunos chipsets Intel de la serie 9xx admiten Serial Digital Video Out , una tecnología patentada que utiliza una ranura para transmitir señales de video desde los gráficos integrados de la CPU host en lugar de PCIe, mediante un complemento compatible.

El protocolo de capa de transacción PCIe también se puede utilizar en otras interconexiones que no son PCIe eléctricamente:

Historia y revisiones

En sus inicios de desarrollo, PCIe se denominó inicialmente HSI (por High Speed ​​Interconnect, interconexión de alta velocidad ) y sufrió un cambio de nombre a 3GIO (por 3rd Generation I/O, E/S de tercera generación ) antes de decidirse finalmente por el nombre PCI-SIG, PCI Express . Un grupo de trabajo técnico llamado Arapaho Work Group (AWG) elaboró ​​el estándar. En los borradores iniciales, el AWG estaba formado únicamente por ingenieros de Intel; posteriormente, el AWG se amplió para incluir a socios de la industria.

Desde entonces, PCIe ha experimentado varias revisiones grandes y pequeñas, mejorando el rendimiento y otras características.

Tabla comparativa

Notas
  1. ^ ab En cada dirección (cada carril es un canal simplex dual).
  2. ^ La velocidad de transferencia se refiere a la velocidad de bits serial codificada; 2,5 GT/s significa una velocidad de datos seriales de 2,5 Gbit/s.
  3. ^ El rendimiento indica el ancho de banda utilizable (es decir, solo incluye la carga útil, no la sobrecarga de codificación 8b/10b, 128b/130b o 242B/256B). La tasa de transferencia PCIe 1.0 de 2,5 GT/s por carril significa una tasa de bits serial de 2,5 Gbit/s; después de aplicar una codificación 8b/10b, esto corresponde a un rendimiento útil de 2,0 Gbit/s = 250 MB/s.

PCI Express 1.0a

En 2003, PCI-SIG introdujo PCIe 1.0a, con una velocidad de datos por carril de 250 MB/s y una velocidad de transferencia de 2,5 gigatransferencias por segundo (GT/s).

La velocidad de transferencia se expresa en transferencias por segundo en lugar de bits por segundo porque el número de transferencias incluye los bits de sobrecarga, que no proporcionan un rendimiento adicional; [56] PCIe 1.x utiliza un esquema de codificación 8b/10b , lo que da como resultado una sobrecarga del 20 % (= 2/10) en el ancho de banda del canal sin procesar. [57] Por lo tanto, en la terminología PCIe, la velocidad de transferencia se refiere a la velocidad de bits codificada: 2,5 GT/s es 2,5 Gbit/s en el enlace serial codificado. Esto corresponde a 2,0 Gbit/s de datos precodificados o 250 MB/s, lo que se conoce como rendimiento en PCIe.

PCI Express 1.1

En 2005, PCI-SIG [58] presentó PCIe 1.1. Esta especificación actualizada incluye aclaraciones y varias mejoras, pero es totalmente compatible con PCI Express 1.0a. No se realizaron cambios en la velocidad de datos.

PCI Express 2.0

Una tarjeta de expansión PCI Express 2.0 x1 que proporciona conectividad USB 3.0 [b]

PCI-SIG anunció la disponibilidad de la especificación PCI Express Base 2.0 el 15 de enero de 2007. [59] El estándar PCIe 2.0 duplica la velocidad de transferencia en comparación con PCIe 1.0 a 5  GT/s y el rendimiento por línea aumenta de 250 MB/s a 500 MB/s. En consecuencia, un conector PCIe de 16 líneas (x16) puede soportar un rendimiento agregado de hasta 8 GB/s.

Las ranuras de la placa base PCIe 2.0 son totalmente compatibles con las tarjetas PCIe v1.x. Las tarjetas PCIe 2.0 también suelen ser compatibles con las placas base PCIe 1.x, ya que utilizan el ancho de banda disponible de PCI Express 1.1. En general, las tarjetas gráficas o placas base diseñadas para la versión 2.0 funcionan, mientras que las otras son v1.1 o v1.0a.

El PCI-SIG también afirmó que PCIe 2.0 presenta mejoras en el protocolo de transferencia de datos punto a punto y su arquitectura de software. [60]

El primer chipset de Intel compatible con PCIe 2.0 fue el X38 y las placas comenzaron a enviarse de varios proveedores ( Abit , Asus , Gigabyte ) a partir del 21 de octubre de 2007. [61] AMD comenzó a admitir PCIe 2.0 con su serie de chipsets AMD 700 y nVidia comenzó con el MCP72 . [62] Todos los chipsets anteriores de Intel, incluido el chipset Intel P35 , admitían PCIe 1.1 o 1.0a. [63]

Al igual que 1.x, PCIe 2.0 utiliza un esquema de codificación 8b/10b , por lo que ofrece, por línea, una velocidad de transferencia máxima efectiva de 4 Gbit/s a partir de su velocidad de datos brutos de 5 GT/s.

PCI Express 2.1

PCI Express 2.1 (con su especificación del 4 de marzo de 2009) es compatible con una gran parte de los sistemas de gestión, soporte y resolución de problemas planificados para su implementación completa en PCI Express 3.0. Sin embargo, la velocidad es la misma que la de PCI Express 2.0. El aumento de potencia de la ranura rompe la compatibilidad con versiones anteriores entre las tarjetas PCI Express 2.1 y algunas placas base más antiguas con 1.0/1.0a, pero la mayoría de las placas base con conectores PCI Express 1.1 cuentan con una actualización de BIOS por parte de sus fabricantes a través de utilidades para admitir la compatibilidad con versiones anteriores de tarjetas con PCIe 2.1.

PCI Express 3.0

La revisión 3.0 de la especificación base PCI Express 3.0 se puso a disposición en noviembre de 2010, después de múltiples retrasos. En agosto de 2007, PCI-SIG anunció que PCI Express 3.0 tendría una tasa de bits de 8 gigatransferencias por segundo (GT/s) y que sería compatible con las implementaciones PCI Express existentes. En ese momento, también se anunció que la especificación final para PCI Express 3.0 se retrasaría hasta el segundo trimestre de 2010. [64] Las nuevas características de la especificación PCI Express 3.0 incluían una serie de optimizaciones para mejorar la señalización y la integridad de los datos, incluida la ecualización del transmisor y el receptor, mejoras del PLL , recuperación de datos de reloj y mejoras de canal de las topologías admitidas actualmente. [65]

Luego de un análisis técnico de seis meses sobre la viabilidad de escalar el ancho de banda de interconexión PCI Express, el análisis de PCI-SIG encontró que se podrían fabricar 8 gigatransferencias por segundo con la tecnología de proceso de silicio convencional y desplegarse con los materiales y la infraestructura de bajo costo existentes, manteniendo al mismo tiempo la compatibilidad total (con un impacto insignificante) con la pila de protocolos PCI Express.

PCI Express 3.0 actualizó el esquema de codificación a 128b/130b desde la codificación 8b/10b anterior , reduciendo la sobrecarga de ancho de banda del 20% de PCI Express 2.0 a aproximadamente 1,54% (= 2/130). La tasa de bits de 8 GT/s de PCI Express 3.0 ofrece efectivamente 985 MB/s por línea, casi duplicando el ancho de banda de línea en relación con PCI Express 2.0. [55]

El 18 de noviembre de 2010, el Grupo de Interés Especial de PCI publicó oficialmente la especificación PCI Express 3.0 finalizada para que sus miembros construyan dispositivos basados ​​en esta nueva versión de PCI Express. [66]

PCI Express 3.1

En septiembre de 2013, se anunció el lanzamiento de la especificación PCI Express 3.1 a fines de 2013 o principios de 2014, consolidando varias mejoras en la especificación PCI Express 3.0 publicada en tres áreas: administración de energía, rendimiento y funcionalidad. [53] [67] Se lanzó en noviembre de 2014. [68]

PCI Express 4.0

El 29 de noviembre de 2011, PCI-SIG anunció preliminarmente PCI Express 4.0, [69] proporcionando una tasa de bits de 16 GT/s que duplica el ancho de banda proporcionado por PCI Express 3.0 a 31,5 GB/s en cada dirección para una configuración de 16 carriles, manteniendo al mismo tiempo la compatibilidad hacia atrás y hacia adelante tanto en el soporte de software como en la interfaz mecánica utilizada. [70] Las especificaciones de PCI Express 4.0 también traen OCuLink-2, una alternativa a Thunderbolt . La versión 2 de OCuLink tiene hasta 16 GT/s (16  GB/s en total para x8 carriles), [49] mientras que el ancho de banda máximo de un enlace Thunderbolt 3 es de 5  GB/s.

En junio de 2016, Cadence, PLDA y Synopsys demostraron la capa física, el controlador, el conmutador y otros bloques IP de PCIe 4.0 en la conferencia anual de desarrolladores de PCI SIG. [71]

Mellanox Technologies anunció el primer  adaptador de red de 100 Gbit/s con PCIe 4.0 el 15 de junio de 2016, [72] y el primer  adaptador de red de 200 Gbit/s con PCIe 4.0 el 10 de noviembre de 2016. [73]

En agosto de 2016, Synopsys presentó una configuración de prueba con FPGA que aceleraba un carril a velocidades PCIe 4.0 en el Intel Developer Forum . Su propiedad intelectual ha sido cedida bajo licencia a varias empresas que planean presentar sus chips y productos a finales de 2016. [74]

En el simposio IEEE Hot Chips de agosto de 2016, IBM anunció la primera CPU con soporte para PCIe 4.0, POWER9 . [75] [76]

PCI-SIG anunció oficialmente el lanzamiento de la especificación final PCI Express 4.0 el 8 de junio de 2017. [77] La ​​especificación incluye mejoras en flexibilidad, escalabilidad y menor consumo de energía.

El 5 de diciembre de 2017, IBM anunció el primer sistema con ranuras PCIe 4.0, Power AC922. [78] [79]

NETINT Technologies presentó el primer SSD NVMe basado en PCIe 4.0 el 17 de julio de 2018, antes de la Flash Memory Summit 2018 [80]

El 9 de enero de 2019, AMD anunció que sus próximos procesadores basados ​​en Zen 2 y el chipset X570 soportarían PCIe 4.0. [81] AMD esperaba habilitar un soporte parcial para chipsets más antiguos, pero la inestabilidad causada por trazas de la placa base que no se ajustaban a las especificaciones PCIe 4.0 lo hizo imposible. [82] [83]

Intel lanzó sus primeras CPU móviles con soporte PCI Express 4.0 a mediados de 2020, como parte de la microarquitectura Tiger Lake . [84]

PCI Express 5.0

Tres ranuras PCIe 5.0 x16 y dos ranuras PCIe 4.0 x16 en una placa base de estación de trabajo 2023

En junio de 2017, PCI-SIG anunció la especificación preliminar PCI Express 5.0. [77] Se esperaba que el ancho de banda aumentara a 32  GT/s, lo que produciría 63  GB/s en cada dirección en una configuración de 16 carriles. Se esperaba que la especificación preliminar se estandarizara en 2019. [ cita requerida ] Inicialmente, también se consideraron 25,0 GT/s por viabilidad técnica.

El 7 de junio de 2017 en PCI-SIG DevCon, Synopsys registró la primera demostración de PCI Express 5.0 a 32 GT/s. [85]

El 31 de mayo de 2018, PLDA anunció la disponibilidad de su IP de controlador PCIe 5.0 XpressRICH5 basado en el borrador 0.7 de la especificación PCIe 5.0 el mismo día. [86] [87]

El 10 de diciembre de 2018, el PCI SIG lanzó la versión 0.9 de la especificación PCIe 5.0 a sus miembros, [88] y el 17 de enero de 2019, PCI SIG anunció que la versión 0.9 había sido ratificada, y que la versión 1.0 se lanzaría en el primer trimestre de 2019. [89]

El 29 de mayo de 2019, PCI-SIG anunció oficialmente el lanzamiento de la especificación final PCI Express 5.0. [90]

El 20 de noviembre de 2019, Jiangsu Huacun presentó el primer controlador PCIe 5.0 HC9001 en un proceso de fabricación de 12 nm. [91] La producción comenzó en 2020.

El 17 de agosto de 2020, IBM anunció el procesador Power10 con PCIe 5.0 y hasta 32 carriles por módulo de un solo chip (SCM) y hasta 64 carriles por módulo de doble chip (DCM). [92]

El 9 de septiembre de 2021, IBM anunció el servidor Power E1080 Enterprise con fecha de disponibilidad prevista para el 17 de septiembre. [93] Puede tener hasta 16 SCM Power10 con un máximo de 32 ranuras por sistema que pueden actuar como PCIe 5.0 x8 o PCIe 4.0 x16. [94] Alternativamente, se pueden utilizar como ranuras PCIe 5.0 x16 para adaptadores de convertidor CXP ópticos opcionales que se conectan a cajones de expansión PCIe externos.

El 27 de octubre de 2021, Intel anunció la familia de CPU Intel Core de 12.ª generación, los primeros procesadores x86-64 de consumo del mundo con conectividad PCIe 5.0 (hasta 16 carriles). [95]

El 22 de marzo de 2022, Nvidia anunció la GPU Nvidia Hopper GH100, la primera GPU PCIe 5.0 del mundo. [96]

El 23 de mayo de 2022, AMD anunció su arquitectura Zen 4 con soporte para hasta 24 carriles de conectividad PCIe 5.0 en plataformas de consumo y 128 carriles en plataformas de servidor. [97] [98]

PCI Express 6.0

El 18 de junio de 2019, PCI-SIG anunció el desarrollo de la especificación PCI Express 6.0. Se espera que el ancho de banda aumente a 64  GT/s, lo que produce 128  GB/s en cada dirección en una configuración de 16 carriles, con una fecha de lanzamiento prevista para 2021. [99] El nuevo estándar utiliza modulación de amplitud de pulso de 4 niveles (PAM-4) con una corrección de error de avance de baja latencia (FEC) en lugar de modulación sin retorno a cero (NRZ). [100] A diferencia de las versiones anteriores de PCI Express, se utiliza la corrección de error de avance para aumentar la integridad de los datos y PAM-4 se utiliza como código de línea para que se transfieran dos bits por transferencia. Con  una tasa de transferencia de datos de 64 GT/s (tasa de bits sin procesar), es posible alcanzar hasta 121  GB/s en cada dirección en la configuración x16. [99]

El 24 de febrero de 2020, se publicó la especificación PCI Express 6.0 revisión 0.5 (un "primer borrador" con todos los aspectos arquitectónicos y requisitos definidos). [101]

El 5 de noviembre de 2020, se publicó la especificación PCI Express 6.0 revisión 0.7 (un "borrador completo" con especificaciones eléctricas validadas mediante chips de prueba). [102]

El 6 de octubre de 2021, se publicó la especificación PCI Express 6.0 revisión 0.9 (un "borrador final"). [103]

El 11 de enero de 2022, PCI-SIG anunció oficialmente el lanzamiento de la especificación final PCI Express 6.0. [104]

El 18 de marzo de 2024, Nvidia anunció la GPU Nvidia Blackwell GB100, la primera GPU PCIe 6.0 del mundo. [105]

La codificación PAM-4 da como resultado una tasa de error de bit (BER) mucho más alta de 10 −6 (en comparación con 10 −12 anteriormente), por lo que en lugar de la codificación 128b/130b, se utiliza una corrección de error hacia adelante entrelazada de 3 vías (FEC) además de la verificación de redundancia cíclica (CRC). Un bloque de unidad de control de flujo (FLIT) fijo de 256 bytes transporta 242 bytes de datos, que incluyen paquetes de nivel de transacción (TLP) de tamaño variable y carga útil de capa de enlace de datos (DLLP); los 14 bytes restantes están reservados para CRC de 8 bytes y FEC de 6 bytes. [106] [107] El código Gray de 3 vías se utiliza en el modo PAM-4/FLIT para reducir la tasa de error; la interfaz no cambia a NRZ y codificación 128/130b incluso cuando se reentrena a velocidades de datos más bajas. [108] [109]

PCI Express 7.0

El 21 de junio de 2022, PCI-SIG anunció el desarrollo de la especificación PCI Express 7.0. [110] Ofrecerá una tasa de bits sin procesar de 128 GT/s y hasta 242 GB/s por dirección en la configuración x16, utilizando la misma señalización PAM4 que la versión 6.0. Se logrará duplicar la tasa de datos mediante el ajuste fino de los parámetros del canal para disminuir las pérdidas de señal y mejorar la eficiencia energética, pero se espera que la integridad de la señal sea un desafío. Se espera que la especificación esté finalizada en 2025.

El 2 de abril de 2024, PCI-SIG anunció el lanzamiento de la versión 0.5 de la especificación PCIe 7.0; PCI Express 7.0 sigue en camino para su lanzamiento en 2025. [111]

Ampliaciones y direcciones futuras

Algunos proveedores ofrecen productos PCIe sobre fibra, [112] [113] [114] con cables ópticos activos (AOC) para conmutación PCIe a mayor distancia en cajones de expansión PCIe, [115] [94] o en casos específicos donde el puente PCIe transparente es preferible a usar un estándar más convencional (como InfiniBand o Ethernet ) que puede requerir software adicional para soportarlo.

Thunderbolt fue desarrollado conjuntamente por Intel y Apple como una interfaz de alta velocidad de propósito general que combina un enlace PCIe lógico con DisplayPort y originalmente fue pensado como una interfaz completamente de fibra, pero debido a las dificultades iniciales para crear una interconexión de fibra amigable para el consumidor, casi todas las implementaciones son sistemas de cobre. Una excepción notable, el Sony VAIO Z VPC-Z2, utiliza un puerto USB no estándar con un componente óptico para conectarse a un adaptador de pantalla PCIe externo. Apple ha sido el principal impulsor de la adopción de Thunderbolt hasta 2011, aunque varios otros proveedores [116] han anunciado nuevos productos y sistemas que incluyen Thunderbolt. Thunderbolt 3 forma la base delestándar USB4 .

La especificación PCIe móvil (abreviada como M-PCIe ) permite que la arquitectura PCI Express funcione sobre la tecnología de capa física M-PHY de MIPI Alliance . Basándose en la adopción generalizada ya existente de M-PHY y su diseño de bajo consumo, Mobile PCIe permite que los dispositivos móviles utilicen PCI Express. [117]

Proceso de borrador

Hay 5 versiones/puntos de control principales en una especificación PCI-SIG: [118]

Históricamente, los primeros en adoptar una nueva especificación PCIe generalmente comienzan a diseñar con el borrador 0.5, ya que pueden construir con confianza la lógica de su aplicación en torno a la nueva definición de ancho de banda y, a menudo, incluso comienzan a desarrollar para cualquier característica nueva del protocolo. Sin embargo, en la etapa del borrador 0.5, todavía existe una gran probabilidad de cambios en la implementación real de la capa de protocolo PCIe, por lo que los diseñadores responsables de desarrollar estos bloques internamente pueden ser más reacios a comenzar a trabajar que aquellos que usan IP de interfaz de fuentes externas.

Resumen del protocolo de hardware

El enlace PCIe está construido alrededor de pares dedicados unidireccionales de conexiones seriales (de 1 bit) punto a punto, conocidas como carriles . Esto contrasta marcadamente con la conexión PCI anterior, que es un sistema basado en bus donde todos los dispositivos comparten el mismo bus paralelo bidireccional de 32 o 64 bits.

PCI Express es un protocolo en capas que consta de una capa de transacción , una capa de enlace de datos y una capa física . La capa de enlace de datos se subdivide para incluir una subcapa de control de acceso al medio (MAC). La capa física se subdivide en subcapas lógicas y eléctricas. La subcapa lógica física contiene una subcapa de codificación física (PCS). Los términos se tomaron prestados del modelo de protocolo de red IEEE 802 .

Capa física

Un conector PCI Express x1 de extremo abierto permite conectar tarjetas más largas que utilizan más carriles mientras funcionan a velocidades x1.

La especificación de la capa física PCIe ( PHY , PCIEPHY , PCI Express PHY o PCIe PHY ) se divide en dos subcapas, que corresponden a especificaciones eléctricas y lógicas. La subcapa lógica a veces se divide en una subcapa MAC y una PCS, aunque esta división no es formalmente parte de la especificación PCIe. Una especificación publicada por Intel, la Interfaz PHY para PCI Express (PIPE), [120] define la partición funcional MAC/PCS y la interfaz entre estas dos subcapas. La especificación PIPE también identifica la capa de conexión de medios físicos (PMA), que incluye el serializador/deserializador (SerDes) y otros circuitos analógicos; sin embargo, dado que las implementaciones de SerDes varían en gran medida entre los proveedores de ASIC , PIPE no especifica una interfaz entre el PCS y PMA.

A nivel eléctrico, cada carril consta de dos pares diferenciales unidireccionales que funcionan a 2,5, 5, 8, 16 o 32  Gbit /s, en función de las capacidades negociadas. La transmisión y la recepción son pares diferenciales separados, lo que da un total de cuatro cables de datos por carril.

Una conexión entre dos dispositivos PCIe se conoce como enlace y se construye a partir de una colección de uno o más carriles . Todos los dispositivos deben admitir como mínimo un enlace de un solo carril (x1). Los dispositivos pueden admitir opcionalmente enlaces más amplios compuestos de hasta 32 carriles. [121] [122] Esto permite una muy buena compatibilidad de dos maneras:

En ambos casos, PCIe negocia el mayor número de carriles admitidos mutuamente. Muchas tarjetas gráficas, placas base y versiones de BIOS están verificadas para admitir conectividad x1, x4, x8 y x16 en la misma conexión.

El ancho de un conector PCIe es de 8,8 mm, mientras que la altura es de 11,25 mm y la longitud es variable. La sección fija del conector tiene una longitud de 11,65 mm y contiene dos filas de 11 pines cada una (22 pines en total), mientras que la longitud de la otra sección es variable según el número de carriles. Los pines están espaciados a intervalos de 1 mm y el grosor de la tarjeta que entra en el conector es de 1,6 mm. [123] [124]

Transmisión de datos

PCIe envía todos los mensajes de control, incluidas las interrupciones, a través de los mismos enlaces que se utilizan para los datos. El protocolo serial nunca se puede bloquear, por lo que la latencia sigue siendo comparable a la del PCI convencional, que tiene líneas de interrupción dedicadas. Cuando se tiene en cuenta el problema de compartir IRQ de interrupciones basadas en pines y el hecho de que las interrupciones señalizadas por mensaje (MSI) pueden eludir una APIC de E/S y enviarse directamente a la CPU, el rendimiento de MSI termina siendo sustancialmente mejor. [125]

Los datos transmitidos en enlaces de múltiples carriles se entrelazan, lo que significa que cada byte sucesivo se envía por carriles sucesivos. La especificación PCIe se refiere a este entrelazado como segmentación de datos . Si bien requiere una complejidad de hardware significativa para sincronizar (o desviar ) los datos segmentados entrantes, la segmentación puede reducir significativamente la latencia del byte n en un enlace. Si bien los carriles no están estrechamente sincronizados, existe un límite para la desviación de carril a carril de 20/8/6 ns para 2,5/5/8 GT/s para que los búferes de hardware puedan realinear los datos segmentados. [126] Debido a los requisitos de relleno, la segmentación puede no reducir necesariamente la latencia de pequeños paquetes de datos en un enlace.

Al igual que con otros protocolos de transmisión en serie de alta velocidad de datos, el reloj está integrado en la señal. A nivel físico, PCI Express 2.0 utiliza el esquema de codificación 8b/10b [55] (código de línea) para garantizar que las cadenas de dígitos idénticos consecutivos (ceros o unos) tengan una longitud limitada. Esta codificación se utilizó para evitar que el receptor perdiera la pista de dónde están los bordes de los bits. En este esquema de codificación, cada ocho bits de datos de carga útil (sin codificar) se reemplazan con 10 bits (codificados) de datos de transmisión, lo que causa una sobrecarga del 20% en el ancho de banda eléctrico. Para mejorar el ancho de banda disponible, la versión 3.0 de PCI Express utiliza en cambio la codificación 128b/130b (1,54% de sobrecarga). La codificación de línea limita la longitud de ejecución de las cadenas de dígitos idénticos en los flujos de datos y garantiza que el receptor se mantenga sincronizado con el transmisor a través de la recuperación del reloj .

Se logra un equilibrio deseable (y, por lo tanto, una densidad espectral ) de bits 0 y 1 en el flujo de datos mediante la operación XOR de un polinomio binario conocido como " codificador " del flujo de datos en una topología de retroalimentación. Como se conoce el polinomio codificador, los datos se pueden recuperar aplicando la operación XOR una segunda vez. Tanto el paso de codificación como el de decodificación se llevan a cabo en hardware.

Simplex dual en PCIe significa que hay dos canales simplex en cada carril PCIe. Simplex significa que la comunicación solo es posible en una dirección. Al tener dos canales simplex, se hace posible la comunicación bidireccional. Se utiliza un par diferencial para cada canal. [127] [128] [129]

Capa de enlace de datos

La capa de enlace de datos realiza tres servicios vitales para el enlace PCIe:

  1. secuenciar los paquetes de capa de transacción (TLP) que genera la capa de transacción,
  2. garantizar la entrega confiable de TLP entre dos puntos finales a través de un protocolo de reconocimiento ( señalización ACK y NAK ) que requiere explícitamente la reproducción de TLP no reconocidos o incorrectos,
  3. Inicializar y gestionar créditos de control de flujo

En el lado de transmisión, la capa de enlace de datos genera un número de secuencia creciente para cada TLP saliente. Sirve como etiqueta de identificación única para cada TLP transmitido y se inserta en el encabezado del TLP saliente. También se agrega un código de verificación de redundancia cíclica de 32 bits (conocido en este contexto como Link CRC o LCRC) al final de cada TLP saliente.

En el lado de recepción, el LCRC y el número de secuencia del TLP recibido se validan en la capa de enlace. Si la comprobación del LCRC falla (lo que indica un error de datos) o el número de secuencia está fuera de rango (no es consecutivo con respecto al último TLP válido recibido), entonces el TLP defectuoso, así como cualquier TLP recibido después del TLP defectuoso, se consideran inválidos y se descartan. El receptor envía un mensaje de reconocimiento negativo (NAK) con el número de secuencia del TLP inválido, solicitando la retransmisión de todos los TLP anteriores a ese número de secuencia. Si el TLP recibido pasa la comprobación del LCRC y tiene el número de secuencia correcto, se trata como válido. El receptor de enlace incrementa el número de secuencia (que rastrea el último TLP bueno recibido) y reenvía el TLP válido a la capa de transacción del receptor. Se envía un mensaje ACK al transmisor remoto, indicando que el TLP se recibió correctamente (y, por extensión, todos los TLP con números de secuencia anteriores).

Si el transmisor recibe un mensaje NAK o no recibe ningún acuse de recibo (NAK o ACK) hasta que transcurra un período de tiempo de espera, el transmisor debe retransmitir todos los TLP que no tengan un acuse de recibo positivo (ACK). Salvo que se produzca un mal funcionamiento persistente del dispositivo o del medio de transmisión, la capa de enlace presenta una conexión fiable con la capa de transacción, ya que el protocolo de transmisión garantiza la entrega de TLP a través de un medio no fiable.

Además de enviar y recibir paquetes TLP generados por la capa de transacción, la capa de enlace de datos también genera y consume paquetes de capa de enlace de datos (DLLP). Las señales ACK y NAK se comunican a través de los DLLP, al igual que algunos mensajes de administración de energía e información de crédito de control de flujo (en nombre de la capa de transacción).

En la práctica, la cantidad de TLP en vuelo sin reconocer en el enlace está limitada por dos factores: el tamaño del búfer de reproducción del transmisor (que debe almacenar una copia de todos los TLP transmitidos hasta que el receptor remoto los reconozca) y los créditos de control de flujo emitidos por el receptor a un transmisor. PCI Express requiere que todos los receptores emitan una cantidad mínima de créditos para garantizar que un enlace permita enviar TLP de PCIConfig y TLP de mensajes.

Capa de transacción

PCI Express implementa transacciones divididas (transacciones con solicitud y respuesta separadas por tiempo), lo que permite que el enlace transporte otro tráfico mientras el dispositivo de destino recopila datos para la respuesta.

PCI Express utiliza un control de flujo basado en créditos. En este esquema, un dispositivo anuncia una cantidad inicial de crédito para cada búfer recibido en su capa de transacción. El dispositivo en el extremo opuesto del enlace, al enviar transacciones a este dispositivo, cuenta la cantidad de créditos que cada TLP consume de su cuenta. El dispositivo emisor solo puede transmitir un TLP cuando al hacerlo no hace que su recuento de créditos consumidos exceda su límite de crédito. Cuando el dispositivo receptor termina de procesar el TLP desde su búfer, envía una señal de devolución de créditos al dispositivo emisor, lo que aumenta el límite de crédito en la cantidad restaurada. Los contadores de créditos son contadores modulares, y la comparación de los créditos consumidos con el límite de crédito requiere aritmética modular . La ventaja de este esquema (en comparación con otros métodos como los estados de espera o los protocolos de transferencia basados ​​en protocolos de enlace) es que la latencia de la devolución de créditos no afecta el rendimiento, siempre que no se alcance el límite de crédito. Esta suposición generalmente se cumple si cada dispositivo está diseñado con tamaños de búfer adecuados.

A menudo se dice que PCIe 1.x admite una velocidad de datos de 250 MB/s en cada dirección y por carril. Esta cifra es un cálculo a partir de la velocidad de señalización física (2,5  gigabaudios ) dividida por la sobrecarga de codificación (10 bits por byte). Esto significa que una tarjeta PCIe de dieciséis carriles (x16) sería teóricamente capaz de transmitir 16x250 MB/s = 4 GB/s en cada dirección. Si bien esto es correcto en términos de bytes de datos, los cálculos más significativos se basan en la velocidad de carga útil de datos utilizable, que depende del perfil del tráfico, que es una función de la aplicación de alto nivel (software) y los niveles de protocolo intermedios.

Like other high data rate serial interconnect systems, PCIe has a protocol and processing overhead due to the additional transfer robustness (CRC and acknowledgements). Long continuous unidirectional transfers (such as those typical in high-performance storage controllers) can approach >95% of PCIe's raw (lane) data rate. These transfers also benefit the most from increased number of lanes (x2, x4, etc.) But in more typical applications (such as a USB or Ethernet controller), the traffic profile is characterized as short data packets with frequent enforced acknowledgements.[130] This type of traffic reduces the efficiency of the link, due to overhead from packet parsing and forced interrupts (either in the device's host interface or the PC's CPU). Being a protocol for devices connected to the same printed circuit board, it does not require the same tolerance for transmission errors as a protocol for communication over longer distances, and thus, this loss of efficiency is not particular to PCIe.

Efficiency of the link

As for any "network like" communication links, some of the "raw" bandwidth is consumed by protocol overhead:[131]

A PCIe 1.x lane for example offers a data rate on top of the physical layer of 250 MB/s (simplex). This is not the payload bandwidth but the physical layer bandwidth – a PCIe lane has to carry additional information for full functionality.[131]

The Gen2 overhead is then 20, 24, or 28 bytes per transaction.[clarification needed][citation needed]

The Gen3 overhead is then 22, 26 or 30 bytes per transaction.[clarification needed][citation needed]

The for a 128 byte payload is 86%, and 98% for a 1024 byte payload. For small accesses like register settings (4 bytes), the efficiency drops as low as 16%.[citation needed]

The maximum payload size (MPS) is set on all devices based on smallest maximum on any device in the chain. If one device has an MPS of 128 bytes, all devices of the tree must set their MPS to 128 bytes. In this case the bus will have a peak efficiency of 86% for writes.[131]: 3 

Applications

Asus Nvidia GeForce GTX 650 Ti, a PCI Express 3.0 x16 graphics card
The Nvidia GeForce GTX 1070, a PCI Express 3.0 x16 Graphics card
Intel 82574L Gigabit Ethernet NIC, a PCI Express x1 card
A Marvell-based SATA 3.0 controller, as a PCI Express x1 card

PCI Express operates in consumer, server, and industrial applications, as a motherboard-level interconnect (to link motherboard-mounted peripherals), a passive backplane interconnect and as an expansion card interface for add-in boards.

In virtually all modern (as of 2012) PCs, from consumer laptops and desktops to enterprise data servers, the PCIe bus serves as the primary motherboard-level interconnect, connecting the host system-processor with both integrated peripherals (surface-mounted ICs) and add-on peripherals (expansion cards). In most of these systems, the PCIe bus co-exists with one or more legacy PCI buses, for backward compatibility with the large body of legacy PCI peripherals.

As of 2013, PCI Express has replaced AGP as the default interface for graphics cards on new systems. Almost all models of graphics cards released since 2010 by AMD (ATI) and Nvidia use PCI Express. Nvidia used the high-bandwidth data transfer of PCIe for its Scalable Link Interface (SLI) technology, which allowed multiple graphics cards of the same chipset and model number to run in tandem, allowing increased performance.[citation needed] This interface has, since, been discontinued. AMD has also developed a multi-GPU system based on PCIe called CrossFire.[citation needed] AMD, Nvidia, and Intel have released motherboard chipsets that support as many as four PCIe x16 slots, allowing tri-GPU and quad-GPU card configurations.

External GPUs

Theoretically, external PCIe could give a notebook the graphics power of a desktop, by connecting a notebook with any PCIe desktop video card (enclosed in its own external housing, with a power supply and cooling); this is possible with an ExpressCard or Thunderbolt interface. An ExpressCard interface provides bit rates of 5 Gbit/s (0.5 GB/s throughput), whereas a Thunderbolt interface provides bit rates of up to 40 Gbit/s (5 GB/s throughput).

In 2006, Nvidia developed the Quadro Plex external PCIe family of GPUs that can be used for advanced graphic applications for the professional market.[132] These video cards require a PCI Express x8 or x16 slot for the host-side card, which connects to the Plex via a VHDCI carrying eight PCIe lanes.[133]

In 2008, AMD announced the ATI XGP technology, based on a proprietary cabling system that is compatible with PCIe x8 signal transmissions.[134] This connector is available on the Fujitsu Amilo and the Acer Ferrari One notebooks. Fujitsu launched their AMILO GraphicBooster enclosure for XGP soon thereafter.[135] Around 2010 Acer launched the Dynavivid graphics dock for XGP.[136]

In 2010, external card hubs were introduced that can connect to a laptop or desktop through a PCI ExpressCard slot. These hubs can accept full-sized graphics cards. Examples include MSI GUS,[137] Village Instrument's ViDock,[138] the Asus XG Station, Bplus PE4H V3.2 adapter,[139] as well as more improvised DIY devices.[140] However such solutions are limited by the size (often only x1) and version of the available PCIe slot on a laptop.

The Intel Thunderbolt interface has provided a new option to connect with a PCIe card externally. Magma has released the ExpressBox 3T, which can hold up to three PCIe cards (two at x8 and one at x4).[141] MSI also released the Thunderbolt GUS II, a PCIe chassis dedicated for video cards.[142] Other products such as the Sonnet's Echo Express[143] and mLogic's mLink are Thunderbolt PCIe chassis in a smaller form factor.[144]

In 2017, more fully featured external card hubs were introduced, such as the Razer Core, which has a full-length PCIe x16 interface.[145]

Storage devices

An OCZ RevoDrive SSD, a full-height x4 PCI Express card

The PCI Express protocol can be used as data interface to flash memory devices, such as memory cards and solid-state drives (SSDs).

The XQD card is a memory card format utilizing PCI Express, developed by the CompactFlash Association, with transfer rates of up to 1 GB/s.[146]

Many high-performance, enterprise-class SSDs are designed as PCI Express RAID controller cards.[citation needed] Before NVMe was standardized, many of these cards utilized proprietary interfaces and custom drivers to communicate with the operating system; they had much higher transfer rates (over 1 GB/s) and IOPS (over one million I/O operations per second) when compared to Serial ATA or SAS drives.[quantify][147][148] For example, in 2011 OCZ and Marvell co-developed a native PCI Express solid-state drive controller for a PCI Express 3.0 x16 slot with maximum capacity of 12 TB and a performance of to 7.2 GB/s sequential transfers and up to 2.52 million IOPS in random transfers.[149][relevant?]

SATA Express was an interface for connecting SSDs through SATA-compatible ports, optionally providing multiple PCI Express lanes as a pure PCI Express connection to the attached storage device.[150] M.2 is a specification for internally mounted computer expansion cards and associated connectors, which also uses multiple PCI Express lanes.[151]

PCI Express storage devices can implement both AHCI logical interface for backward compatibility, and NVM Express logical interface for much faster I/O operations provided by utilizing internal parallelism offered by such devices. Enterprise-class SSDs can also implement SCSI over PCI Express.[152]

Cluster interconnect

Certain data-center applications (such as large computer clusters) require the use of fiber-optic interconnects due to the distance limitations inherent in copper cabling. Typically, a network-oriented standard such as Ethernet or Fibre Channel suffices for these applications, but in some cases the overhead introduced by routable protocols is undesirable and a lower-level interconnect, such as InfiniBand, RapidIO, or NUMAlink is needed. Local-bus standards such as PCIe and HyperTransport can in principle be used for this purpose,[153] but as of 2015, solutions are only available from niche vendors such as Dolphin ICS, and TTTech Auto.

Competing protocols

Other communications standards based on high bandwidth serial architectures include InfiniBand, RapidIO, HyperTransport, Intel QuickPath Interconnect, the Mobile Industry Processor Interface (MIPI), and NVLink. Differences are based on the trade-offs between flexibility and extensibility vs latency and overhead. For example, making the system hot-pluggable, as with Infiniband but not PCI Express, requires that software track network topology changes.[citation needed]

Another example is making the packets shorter to decrease latency (as is required if a bus must operate as a memory interface). Smaller packets mean packet headers consume a higher percentage of the packet, thus decreasing the effective bandwidth. Examples of bus protocols designed for this purpose are RapidIO and HyperTransport.[citation needed]

PCI Express falls somewhere in the middle,[clarification needed] targeted by design as a system interconnect (local bus) rather than a device interconnect or routed network protocol. Additionally, its design goal of software transparency constrains the protocol and raises its latency somewhat.[citation needed]

Delays in PCIe 4.0 implementations led to the Gen-Z consortium, the CCIX effort and an open Coherent Accelerator Processor Interface (CAPI) all being announced by the end of 2016.[154]

On 11 March 2019, Intel presented Compute Express Link (CXL), a new interconnect bus, based on the PCI Express 5.0 physical layer infrastructure. The initial promoters of the CXL specification included: Alibaba, Cisco, Dell EMC, Facebook, Google, HPE, Huawei, Intel and Microsoft.[155]

Integrators list

The PCI-SIG Integrators List lists products made by PCI-SIG member companies that have passed compliance testing. The list include switches, bridges, NICs, SSDs, etc.[156]

See also

Notes

  1. ^ Switches can create multiple endpoints out of one to allow sharing it with multiple devices.
  2. ^ The card's Serial ATA power connector is present because the USB 3.0 ports require more power than the PCI Express bus can supply. More often, a 4-pin Molex power connector is used.

References

  1. ^ IBM Power 770 and 780 Technical Overview and Introduction. IBM Redbooks. 6 June 2013. ISBN 978-0-7384-5121-3.
  2. ^ Mayhew, D.; Krishnan, V. (August 2003). "PCI express and advanced switching: Evolutionary path to building next generation interconnects". 11th Symposium on High Performance Interconnects, 2003. Proceedings. pp. 21–29. doi:10.1109/CONECT.2003.1231473. ISBN 0-7695-2012-X. S2CID 7456382.
  3. ^ "Definition of PCI Express". PCMag.
  4. ^ Zhang, Yanmin; Nguyen, T Long (June 2007). "Enable PCI Express Advanced Error Reporting in the Kernel" (PDF). Proceedings of the Linux Symposium. Fedora project. Archived from the original (PDF) on 10 March 2016. Retrieved 8 May 2012.
  5. ^ https://www.hyperstone.com Flash Memory Form Factors – The Fundamentals of Reliable Flash Storage, Retrieved 19 April 2018
  6. ^ a b c Ravi Budruk (21 August 2007). "PCI Express Basics". PCI-SIG. Archived from the original (PDF) on 15 July 2014. Retrieved 15 July 2014.
  7. ^ "What are PCIe Slots and Their Uses". PC Guide 101. 18 May 2021. Retrieved 21 June 2021.
  8. ^ "How PCI Express Works". How Stuff Works. 17 August 2005. Archived from the original on 3 December 2009. Retrieved 7 December 2009.
  9. ^ "4.2.4.9. Link Width and Lane Sequence Negotiation", PCI Express Base Specification, Revision 2.1., 4 March 2009
  10. ^ a b c "PCI Express Architecture Frequently Asked Questions". PCI-SIG. Archived from the original on 13 November 2008. Retrieved 23 November 2008.
  11. ^ "PCI Express Bus". Interface bus. Archived from the original on 8 December 2007. Retrieved 12 June 2010.
  12. ^ 32 lanes are defined by the PCIe Base Specification up to PCIe 5.0 but there's no card standard in the PCIe Card Electromechanical Specification and that lane number was never implemented.
  13. ^ "PCI Express – An Overview of the PCI Express Standard". Developer Zone. National Instruments. 13 August 2009. Archived from the original on 5 January 2010. Retrieved 7 December 2009.
  14. ^ Qazi, Atif. "What are PCIe Slots?". PC Gear Lab. Retrieved 8 April 2020.
  15. ^ "New PCIe Form Factor Enables Greater PCIe SSD Adoption". NVM Express. 12 June 2012. Archived from the original on 6 September 2015.
  16. ^ "Memblaze PBlaze4 AIC NVMe SSD Review". StorageReview. 21 December 2015.
  17. ^ July 2015, Kane Fulton 20 (20 July 2015). "19 graphics cards that shaped the future of gaming". TechRadar.{{cite web}}: CS1 maint: numeric names: authors list (link)
  18. ^ Leadbetter, Richard (16 September 2020). "Nvidia GeForce RTX 3080 review: welcome to the next level". Eurogamer.
  19. ^ Discuss, btarunr (6 January 2023). "ASUS x Noctua RTX 4080 Graphics Card is 5 Slots Thick, We Go Hands-on". TechPowerUp. Retrieved 19 September 2024.
  20. ^ "Sapphire Radeon RX 5700 XT Pulse Review | bit-tech.net". bit-tech.net. Retrieved 26 August 2019.
  21. ^ "AMD Radeon™ RX 5700 XT 8GB GDDR6 THICC II – RX-57XT8DFD6". xfxforce.com. Archived from the original on 1 September 2019. Retrieved 25 August 2019.
  22. ^ "ROG Strix GeForce RTX 3080 OC Edition 10GB GDDR6X | Graphics Cards". rog.asus.com.
  23. ^ "What is the A side, B side configuration of PCI cards". Frequently Asked Questions. Adex Electronics. 1998. Archived from the original on 2 November 2011. Retrieved 24 October 2011.
  24. ^ a b PCI Express Card Electromechanical Specification Revision 2.0
  25. ^ "PCI Express Card Electromechanical Specification Revision 4.0, Version 1.0 (Clean)".
  26. ^ "L1 PM Substates with CLKREQ, Revision 1.0a" (PDF). PCI-SIG. Archived from the original (PDF) on 4 December 2018. Retrieved 8 November 2018.
  27. ^ "Emergency Power Reduction Mechanism with PWRBRK Signal ECN" (PDF). PCI-SIG. Archived from the original (PDF) on 9 November 2018. Retrieved 8 November 2018.
  28. ^ "Where Does PCIe Cable Go?". 16 January 2022. Retrieved 10 June 2022.
  29. ^ PCI Express Card Electromechanical Specification Revision 1.1
  30. ^ Schoenborn, Zale (2004), Board Design Guidelines for PCI Express Architecture (PDF), PCI-SIG, pp. 19–21, archived (PDF) from the original on 27 March 2016
  31. ^ PCI Express Base Specification, Revision 1.1 Page 332
  32. ^ a b "Mini-Fit® PCI Express®* Wire to Board Connector System" (PDF). Retrieved 4 December 2020.
  33. ^ PCI Express x16 Graphics 150W-ATX Specification Revision 1.0
  34. ^ PCI Express 225 W/300 W High Power Card Electromechanical Specification Revision 1.0
  35. ^ PCI Express Card Electromechanical Specification Revision 3.0
  36. ^ Yun Ling (16 May 2008). "PCIe Electromechanical Updates". Archived from the original on 5 November 2015. Retrieved 7 November 2015.
  37. ^ "12VHPWR Sideband Allocation and Requirements - PCIe 5.x ECN". PCI SIG. 12 May 2022.
  38. ^ "12V-2x6 Connector Updates to PCIe Base 6.0 - PCIe 6.x ECN". PCI SIG. 31 August 2023. This ECN defines Connector Type encodings for the new 12V-2x6 connector. This connector, defined in CEM 5.1, replaces the 12VHPWR connector.
  39. ^ "Understanding M.2, the interface that will speed up your next SSD". 8 February 2015.
  40. ^ "MP1: Mini PCI Express / PCI Express Adapter". hwtools.net. 18 July 2014. Archived from the original on 3 October 2014. Retrieved 28 September 2014.
  41. ^ IT Essentials Companion Guide v8. Cisco Press. 9 July 2023. ISBN 978-0-13-816625-0.
  42. ^ Mobile Computing Deployment and Management: Real World Skills for CompTIA Mobility+ Certification and Beyond. John Wiley & Sons. 24 February 2015. ISBN 978-1-118-82461-0.
  43. ^ "mSATA FAQ: A Basic Primer". Notebook review. Archived from the original on 12 February 2012.
  44. ^ "Eee PC Research". ivc (wiki). Archived from the original on 30 March 2010. Retrieved 26 October 2009.
  45. ^ "Desktop Board Solid-state drive (SSD) compatibility". Intel. Archived from the original on 2 January 2016.
  46. ^ "How to distinguish the differences between M.2 cards | Dell US". www.dell.com. Retrieved 24 March 2020.
  47. ^ "PCI Express External Cabling 1.0 Specification". Archived from the original on 10 February 2007. Retrieved 9 February 2007.
  48. ^ "PCI Express External Cabling Specification Completed by PCI-SIG". PCI SIG. 7 February 2007. Archived from the original on 26 November 2013. Retrieved 7 December 2012.
  49. ^ a b "OCuLink connectors and cables support new PCIe standard". www.connectortips.com. Archived from the original on 13 March 2017.
  50. ^ Mokosiy, Vitaliy (9 October 2020). "Untangling terms: M.2, NVMe, USB-C, SAS, PCIe, U.2, OCuLink". Medium. Retrieved 26 March 2021.
  51. ^ "Supermicro Universal I/O (UIO) Solutions". Supermicro.com. Archived from the original on 24 March 2014. Retrieved 24 March 2014.
  52. ^ "Get ready for M-PCIe testing", PC board design, EDN
  53. ^ a b "PCI SIG discusses M-PCIe oculink & 4th gen PCIe", The Register, UK, 13 September 2013, archived from the original on 29 June 2017
  54. ^ "PCI Express 4.0 Frequently Asked Questions". pcisig.com. PCI-SIG. Archived from the original on 18 May 2014. Retrieved 18 May 2014.
  55. ^ a b c "PCI Express 3.0 Frequently Asked Questions". pcisig.com. PCI-SIG. Archived from the original on 1 February 2014. Retrieved 1 May 2014.
  56. ^ "What does GT/s mean, anyway?". TM World. Archived from the original on 14 August 2012. Retrieved 7 December 2012.
  57. ^ "Deliverable 12.2". SE: Eiscat. Archived from the original on 17 August 2010. Retrieved 7 December 2012.
  58. ^ PCI SIG, archived from the original on 6 July 2008
  59. ^ "PCI Express Base 2.0 specification announced" (PDF) (Press release). PCI-SIG. 15 January 2007. Archived from the original (PDF) on 4 March 2007. Retrieved 9 February 2007. — note that in this press release the term aggregate bandwidth refers to the sum of incoming and outgoing bandwidth; using this terminology the aggregate bandwidth of full duplex 100BASE-TX is 200 Mbit/s.
  60. ^ Smith, Tony (11 October 2006). "PCI Express 2.0 final draft spec published". The Register. Archived from the original on 29 January 2007. Retrieved 9 February 2007.
  61. ^ Key, Gary; Fink, Wesley (21 May 2007). "Intel P35: Intel's Mainstream Chipset Grows Up". AnandTech. Archived from the original on 23 May 2007. Retrieved 21 May 2007.
  62. ^ Huynh, Anh (8 February 2007). "NVIDIA "MCP72" Details Unveiled". AnandTech. Archived from the original on 10 February 2007. Retrieved 9 February 2007.
  63. ^ "Intel P35 Express Chipset Product Brief" (PDF). Intel. Archived (PDF) from the original on 26 September 2007. Retrieved 5 September 2007.
  64. ^ Hachman, Mark (5 August 2009). "PCI Express 3.0 Spec Pushed Out to 2010". PC Mag. Archived from the original on 7 January 2014. Retrieved 7 December 2012.
  65. ^ "PCI Express 3.0 Bandwidth: 8.0 Gigatransfers/s". ExtremeTech. 9 August 2007. Archived from the original on 24 October 2007. Retrieved 5 September 2007.
  66. ^ "PCI Special Interest Group Publishes PCI Express 3.0 Standard". X bit labs. 18 November 2010. Archived from the original on 21 November 2010. Retrieved 18 November 2010.
  67. ^ "PCIe 3.1 and 4.0 Specifications Revealed". eteknix.com. July 2013. Archived from the original on 1 February 2016.
  68. ^ "Trick or Treat… PCI Express 3.1 Released!". synopsys.com. Archived from the original on 23 March 2015.
  69. ^ "PCI Express 4.0 evolution to 16 GT/s, twice the throughput of PCI Express 3.0 technology" (press release). PCI-SIG. 29 November 2011. Archived from the original on 23 December 2012. Retrieved 7 December 2012.
  70. ^ "Frequently Asked Questions | PCI-SIG". pcisig.com. Archived from the original on 20 October 2016.
  71. ^ "PCIe 4.0 Heads to Fab, 5.0 to Lab". EE Times. 26 June 2016. Archived from the original on 28 August 2016. Retrieved 27 August 2016.
  72. ^ "Mellanox Announces ConnectX-5, the Next Generation of 100G InfiniBand and Ethernet Smart Interconnect Adapter | NVIDIA". www.mellanox.com.
  73. ^ "Mellanox Announces 200Gb/s HDR InfiniBand Solutions Enabling Record Levels of Performance and Scalability | NVIDIA". www.mellanox.com.
  74. ^ "IDF: PCIe 4.0 läuft, PCIe 5.0 in Arbeit". Heise Online (in German). 18 August 2016. Archived from the original on 19 August 2016. Retrieved 18 August 2016.
  75. ^ Brian Thompto, POWER9 Processor for the Cognitive Era
  76. ^ 2016 IEEE Hot Chips 28 Symposium (HCS), 21–23 Aug. 2016
  77. ^ a b Born, Eric (8 June 2017). "PCIe 4.0 specification finally out with 16 GT/s on tap". Tech Report. Archived from the original on 8 June 2017. Retrieved 8 June 2017.
  78. ^ "IBM Unveils Most Advanced Server for AI". www-03.ibm.com. 5 December 2017. Archived from the original on 8 December 2017.
  79. ^ IBM Power System AC922 (8335-GTG) server helps you to harness breakthrough accelerated AI, HPDA, and HPC performance for faster time to insight, IBM Europe Hardware Announcement ZG17-0147
  80. ^ "NETINT Introduces Codensity with Support for PCIe 4.0 – NETINT Technologies". NETINT Technologies. 17 July 2018. Archived from the original on 29 September 2018. Retrieved 28 September 2018.
  81. ^ Mujtaba, Hassan (9 January 2019). "AMD Ryzen 3000 Series CPUs Based on Zen 2 Launching in Mid of 2019".
  82. ^ Alcorn, Paul (3 June 2019). "AMD Nixes PCIe 4.0 Support on Older Socket AM4 Motherboards, Here's Why". Tom's Hardware. Archived from the original on 10 June 2019. Retrieved 10 June 2019.
  83. ^ Alcorn, Paul (10 January 2019). "PCIe 4.0 May Come to all AMD Socket AM4 Motherboards (Updated)". Tom's Hardware. Archived from the original on 10 June 2019. Retrieved 10 June 2019.
  84. ^ Cutress, Dr. Ian (13 August 2020). "Tiger Lake IO and Power". Anandtech.
  85. ^ "1,2,3,4,5... It's Official, PCIe 5.0 is Announced | synopsys.com". www.synopsys.com. Retrieved 7 June 2017.
  86. ^ "PLDA Announces Availability of XpressRICH5™ PCIe 5.0 Controller IP | PLDA.com". www.plda.com. Retrieved 28 June 2018.
  87. ^ "XpressRICH5 for ASIC | PLDA.com". www.plda.com. Retrieved 28 June 2018.
  88. ^ "Doubling Bandwidth in Under Two Years: PCI Express® Base Specification Revision 5.0, Version 0.9 is Now Available to Members". pcisig.com. Retrieved 12 December 2018.
  89. ^ "PCIe 5.0 Is Ready For Prime Time". tomshardware.com. 17 January 2019. Retrieved 18 January 2019.
  90. ^ "PCI-SIG® Achieves 32GT/s with New PCI Express® 5.0 Specification". www.businesswire.com. 29 May 2019.
  91. ^ "PCI-Express 5.0: China stellt ersten Controller vor". PC Games Hardware. 18 November 2019.
  92. ^ IBM’s POWER10 Processor, Hot Chips 32, August 16–18, 2020
  93. ^ Power E1080 Enterprise server delivers a uniquely architected platform to help securely and efficiently scale core operational and AI applications in a hybrid cloud, IBM Europe Hardware Announcement ZG21-0059
  94. ^ a b IBM Power E1080 Technical Overview and Introduction
  95. ^ "Intel Unveils 12th Gen Intel Core, Launches World's Best Gaming". Intel.com. Retrieved 16 February 2022.
  96. ^ "NVIDIA Announces Hopper Architecture, the Next Generation of Accelerated Computing".
  97. ^ "AMD Showcases Industry-Leading Gaming, Commercial, and Mainstream PC Technologies at COMPUTEX 2022". AMD.com. Retrieved 23 May 2022.
  98. ^ "4th Gen AMD EPYC™ Processor Architecture". AMD.com. Retrieved 12 November 2022.
  99. ^ a b "PCI-SIG® Announces Upcoming PCI Express® 6.0 Specification to Reach 64 GT/s". www.businesswire.com. 18 June 2019.
  100. ^ Smith, Ryan. "PCI Express Bandwidth to Be Doubled Again: PCIe 6.0 Announced, Spec to Land in 2021". www.anandtech.com.
  101. ^ "PCI Express 6.0 Reaches Version 0.5 Ahead Of Finalization Next Year – Phoronix". www.phoronix.com.
  102. ^ Shilov, Anton (4 November 2020). "PCIe 6.0 Specification Hits Milestone: Complete Draft Is Ready". Tom's Hardware.
  103. ^ Yanes, Al. "PCIe® 6.0 Specification, Version 0.9: One Step Closer to Final Release | PCI-SIG". pcisig.com. Retrieved 6 October 2021.
  104. ^ "PCI-SIG® Releases PCIe® 6.0 Specification Delivering Record Performance to Power Big Data Applications". Business Wire. 11 January 2022. Retrieved 16 February 2022.
  105. ^ "NVIDIA Blackwell Platform Arrives to Power a New Era of Computing".
  106. ^ "The Evolution of the PCI Express Specification: On its Sixth Generation, Third Decade and Still Going Strong". Pci-Sig. 11 January 2022. Retrieved 16 February 2022.
  107. ^ Debendra Das Sharma (8 June 2020). "PCIe 6.0 Specification: The Interconnect for I/O Needs of the Future". PCI-SIG. p. 8. Archived from the original on 30 October 2021.
  108. ^ "Pushing the Envelope with PCIe 6.0: Bringing PAM4 to PCIe" (PDF). Retrieved 16 February 2022.
  109. ^ "PowerPoint Presentation" (PDF). Retrieved 16 February 2022.
  110. ^ "PCI-SIG® Announces PCI Express® 7.0 Specification to Reach 128 GT/s". Business Wire. 21 June 2022. Retrieved 25 June 2022.
  111. ^ "PCIe® 7.0 Specification, Version 0.5 Now Available: Full Draft Available to Members". pcisig.com. Retrieved 3 April 2024.
  112. ^ "PLX demo shows PCIe over fiber as data center clustering interconnect". Cabling install. Penn Well. Retrieved 29 August 2012.
  113. ^ "Introduced second generation PCI Express Gen 2 over fiber optic systems". Adnaco. 22 April 2011. Archived from the original on 4 October 2012. Retrieved 29 August 2012.
  114. ^ "PCIe Active Optical Cable System". Archived from the original on 30 December 2014. Retrieved 23 October 2015.
  115. ^ IBM Power Systems E870 and E880 Technical Overview and Introduction
  116. ^ "Acer, Asus to Bring Intel's Thunderbolt Speed Technology to Windows PCs". PC World. 14 September 2011. Archived from the original on 18 January 2012. Retrieved 7 December 2012.
  117. ^ Kevin Parrish (28 June 2013). "PCIe for Mobile Launched; PCIe 3.1, 4.0 Specs Revealed". Tom's Hardware. Retrieved 10 July 2014.
  118. ^ "PCI Express 4.0 Draft 0.7 & PIPE 4.4 Specifications – What Do They Mean to Designers? — Synopsys Technical Article | ChipEstimate.com". www.chipestimate.com. Retrieved 28 June 2018.
  119. ^ "PCI Express 1x, 4x, 8x, 16x bus pinout and wiring @". RU: Pinouts. Archived from the original on 25 November 2009. Retrieved 7 December 2009.
  120. ^ "PHY Interface for the PCI Express Architecture" (PDF) (version 2.00 ed.). Intel. Archived from the original (PDF) on 17 March 2008. Retrieved 21 May 2008.
  121. ^ PCI Express System Architecture
  122. ^ PCI Express Architecture, intel.com
  123. ^ "Mechanical Drawing for PCI Express Connector". Interface bus. Retrieved 7 December 2007.
  124. ^ "FCi schematic for PCIe connectors" (PDF). FCI connect. Retrieved 7 December 2007.
  125. ^ Reducing Interrupt Latency Through the Use of Message Signaled Interrupts
  126. ^ PCI Express Base Specification, Revision 3.0 Table 4-24
  127. ^ https://ww1.microchip.com/downloads/aemDocuments/documents/TCG/ProductDocuments/Brochures/00003818.pdf
  128. ^ IBM Power 770 and 780 Technical Overview and Introduction. IBM Redbooks. 6 June 2013. ISBN 978-0-7384-5121-3.
  129. ^ CompTIA A+ Exam Cram (Exams 220-602, 220-603, 220-604). Pearson Education. 19 July 2007. ISBN 978-0-7686-9003-3.
  130. ^ Computer Peripherals And Interfaces. Technical Publications Pune. 2008. ISBN 9788184313086. Archived from the original on 25 February 2014. Retrieved 23 July 2009.
  131. ^ a b c d e Lawley, Jason (28 October 2014). "Understanding Performance of PCI Express Systems" (PDF). 1.2. Xilinx.
  132. ^ "NVIDIA Introduces NVIDIA Quadro® Plex – A Quantum Leap in Visual Computing". Nvidia. 1 August 2006. Archived from the original on 24 August 2006. Retrieved 14 July 2018.
  133. ^ "Quadro Plex VCS – Advanced visualization and remote graphics". nVidia. Archived from the original on 28 April 2011. Retrieved 11 September 2010.
  134. ^ "XGP". ATI. AMD. Archived from the original on 29 January 2010. Retrieved 11 September 2010.
  135. ^ Fujitsu-Siemens Amilo GraphicBooster External Laptop GPU Released, 3 December 2008, archived from the original on 16 October 2015, retrieved 9 August 2015
  136. ^ DynaVivid Graphics Dock from Acer arrives in France, what about the US?, 11 August 2010, archived from the original on 16 October 2015, retrieved 9 August 2015
  137. ^ Dougherty, Steve (22 May 2010), "MSI to showcase 'GUS' external graphics solution for laptops at Computex", TweakTown
  138. ^ Hellstrom, Jerry (9 August 2011), "ExpressCard trying to pull a (not so) fast one?", PC Perspective (editorial), archived from the original on 1 February 2016
  139. ^ "PE4H V3.2 (PCIe x16 Adapter)". Hwtools.net. Archived from the original on 14 February 2014. Retrieved 5 February 2014.
  140. ^ O'Brien, Kevin (8 September 2010), "How to Upgrade Your Notebook Graphics Card Using DIY ViDOCK", Notebook review, archived from the original on 13 December 2013
  141. ^ Lal Shimpi, Anand (7 September 2011), "The Thunderbolt Devices Trickle In: Magma's ExpressBox 3T", AnandTech, archived from the original on 4 March 2016
  142. ^ "MSI GUS II external GPU enclosure with Thunderbolt". The Verge (hands-on). 10 January 2012. Archived from the original on 13 February 2012. Retrieved 12 February 2012.
  143. ^ "PCI express graphics, Thunderbolt", Tom’s hardware, 17 September 2012
  144. ^ "M logics M link Thunderbold chassis no shipping", Engadget, 13 December 2012, archived from the original on 25 June 2017
  145. ^ Burns, Chris (17 October 2017), "2017 Razer Blade Stealth and Core V2 detailed", SlashGear, archived from the original on 17 October 2017
  146. ^ "CompactFlash Association readies next-gen XQD format, promises write speeds of 125 MB/s and up". Engadget. 8 December 2011. Archived from the original on 19 May 2014. Retrieved 18 May 2014.
  147. ^ Zsolt Kerekes (December 2011). "What's so very different about the design of Fusion-io's ioDrives / PCIe SSDs?". storagesearch.com. Archived from the original on 23 September 2013. Retrieved 2 October 2013.
  148. ^ "Fusion-io ioDrive Duo Enterprise PCIe Review". storagereview.com. 16 July 2012. Archived from the original on 4 October 2013. Retrieved 2 October 2013.
  149. ^ "OCZ Demos 4 TiB, 16 TiB Solid-State Drives for Enterprise". X-bit labs. Archived from the original on 25 March 2013. Retrieved 7 December 2012.
  150. ^ "Enabling Higher Speed Storage Applications with SATA Express". SATA-IO. Archived from the original on 27 November 2012. Retrieved 7 December 2012.
  151. ^ "SATA M.2 Card". SATA-IO. Archived from the original on 3 October 2013. Retrieved 14 September 2013.
  152. ^ "SCSI Express". SCSI Trade Association. Archived from the original on 27 January 2013. Retrieved 27 December 2012.
  153. ^ Meduri, Vijay (24 January 2011). "A Case for PCI Express as a High-Performance Cluster Interconnect". HPCwire. Archived from the original on 14 January 2013. Retrieved 7 December 2012.
  154. ^ Evan Koblentz (3 February 2017). "New PCI Express 4.0 delay may empower next-gen alternatives". Tech Republic. Archived from the original on 1 April 2017. Retrieved 31 March 2017.
  155. ^ Cutress, Ian. "CXL Specification 1.0 Released: New Industry High-Speed Interconnect From Intel". www.anandtech.com. Retrieved 9 August 2019.
  156. ^ "Integrators List | PCI-SIG". pcisig.com. Retrieved 27 March 2019.


Further reading

External links