NVLink es una conexión de alta velocidad para GPU y CPU formada por un protocolo de software robusto, que normalmente se monta en varios pares de cables impresos en una placa de ordenador.
Permite que los procesadores envíen y reciban datos de grupos de memoria compartidos a gran velocidad.
Ahora en su cuarta generación, NVLink conecta host y procesadores acelerados a velocidades de hasta 900 gigabytes por segundo (GB/s).
Eso es más de 7 veces el ancho de banda de PCIe Gen 5, la interconexión utilizada en los servidores x86 convencionales. Y NVLink tiene una eficiencia energética 5 veces superior a PCIe Gen 5, gracias a las transferencias de datos que consumen solo 1,3 picojulios por bit.
La historia de NVLink
Presentado por primera vez como una interconexión de GPU con la GPU NVIDIA P100, NVLink ha avanzado a la par con cada nueva arquitectura de GPU NVIDIA.
En 2018, NVLink saltó a la fama en la informática de alto rendimiento cuando debutó conectando GPU y CPU en dos de las supercomputadoras más poderosas del mundo, Cumbre y Sierra.
Los sistemas, instalados en Oak Ridge y Lawrence Livermore National Laboratories, están ampliando los límites de la ciencia en campos como descubrimiento de medicamento, predicción de desastres naturales y más.
El ancho de banda se duplica y luego vuelve a crecer
En 2020, NVLink de tercera generación duplicó su ancho de banda máximo por GPU a 600 GB/s, con una docena de interconexiones en cada GPU NVIDIA A100 Tensor Core.
El A100 impulsa las supercomputadoras de IA en centros de datos empresariales, servicios de computación en la nube y laboratorios de HPC en todo el mundo.
En la actualidad, 18 interconexiones NVLink de cuarta generación están integradas en un solo GPU NVIDIA H100 Tensor Core. Y la tecnología ha asumido un nuevo rol estratégico que habilitará las CPU y aceleradores más avanzados del planeta.
Un enlace de chip a chip
NVIDIA NVLink-C2C es una versión de la interconexión a nivel de placa para unir dos procesadores dentro de un solo paquete, creando un superchip. Por ejemplo, conecta dos chips de CPU para entregar 144 núcleos Arm Neoverse V2 en el CPU NVIDIA Grace Superchip, un procesador creado para ofrecer un rendimiento energéticamente eficiente para usuarios de la nube, empresas y HPC.
NVIDIA NVLink-C2C también se une a una CPU Grace y una GPU Hopper para crear la Superchip Grace Hopper. Incluye computación acelerada para los trabajos de IA y HPC más difíciles del mundo en un solo chip.
Alps es un superordenador de inteligencia artificial planificada para el Centro Nacional de Computación de Suiza, estará entre las primeras en utilizar Grace Hopper. Cuando entre en funcionamiento a finales de este año, el sistema de alto rendimiento funcionará en grandes problemas científicos en campos que van desde la astrofísica hasta la química cuántica.
La CPU Grace incluye 144 núcleos Arm Neoverse V2 en dos matrices conectadas por NVLink-C2C.
Grace y Grace Hopper también son excelentes para llevar la eficiencia energética a las exigentes cargas de trabajo de computación en la nube.
Por ejemplo, Grace Hopper es un procesador ideal para sistemas de recomendación. Estos motores económicos de Internet necesitan un acceso rápido y eficiente a una gran cantidad de datos para brindar billones de resultados a miles de millones de usuarios diariamente.
Además, NVLink se utiliza en un potente sistema en chip para fabricantes de automóviles que incluye procesadores NVIDIA Hopper, Grace y Ada Lovelace. NVIDIA DRIVE Thor es una computadora para automóvil que unifica funciones inteligentes como grupo de instrumentos digitales, infoentretenimiento, conducción automatizada, estacionamiento y más en una sola arquitectura.
Enlaces LEGO de Computación
NVLink también actúa como el enchufe estampado en una pieza de LEGO. Es la base para construir supersistemas para abordar los trabajos más grandes de HPC e IA.
Por ejemplo, NVLinks en las ocho GPU en un Sistema NVIDIA DGX comparta conexiones rápidas y directas a través de chips NVSwitch. Juntos, habilitan una red NVLink donde cada GPU en el servidor es parte de un solo sistema.
Para obtener aún más rendimiento, los sistemas DGX se pueden apilar en unidades modulares de 32 servidores, creando un sistema potente y eficiente. clúster de computación.
Los usuarios pueden conectar un bloque modular de 32 sistemas DGX en una sola supercomputadora de IA usando una combinación de una red NVLink dentro del DGX y NVIDIA Quantum-2 intercambió tejido Infiniband entre ellos. Por ejemplo, un NVIDIA DGX H100 SuperPOD incluye 256 GPU H100 para ofrecer hasta un exaflop del máximo rendimiento de la IA.
Para obtener aún más rendimiento, los usuarios pueden aprovechar las supercomputadoras de IA en la nube, como la que está construyendo Microsoft Azure. decenas de miles de GPU A100 y H100. Es un servicio utilizado por grupos como OpenAI para entrenar algunos de los modelos de IA generativa más grandes del mundo.
Y es un ejemplo más del poder de la computación acelerada.