DGX SuperPOD de Nvidia: Desatando el Poder para Soportar Modelos de IA de un Trillon de Parámetros

Nvidia ha presentado sus sistemas más potentes hasta la fecha con el lanzamiento del DGX SuperPod en la conferencia Nvidia GTC. Este sistema de vanguardia forma parte de un completo despliegue de hardware y software.

En los últimos años, el DGX se ha convertido en un pilar de las ofertas de servidores y nube de Nvidia. El nuevo DGX SuperPod está equipado con las GPU de próxima generación de Nvidia para la aceleración de inteligencia artificial, conocidas como Blackwell, que se presentan como sucesoras de la GPU Hopper. Blackwell está diseñado para soportar modelos de IA con un billón de parámetros.

¿Qué es el DGX SuperPod?

El DGX SuperPod no es solo un servidor único; es una robusta configuración que integra múltiples sistemas DGX GB200. Cada sistema consta de 36 Superchips Nvidia GB200, que incorporan 36 CPUs Nvidia Grace y 72 GPUs Nvidia Blackwell, todos interconectados a través de Nvidia NVLink de quinta generación. Esta plataforma de supercomputación puede escalar para incluir ocho o más sistemas DGX GB200, enlazando decenas de miles de Superchips GB200 mediante Nvidia Quantum InfiniBand.

El sistema cuenta con 240 terabytes de memoria, crucial para entrenar modelos de lenguaje grandes (LLMs) y realizar inferencias de IA generativa a gran escala. Además, el DGX SuperPod ofrece una impresionante potencia de supercomputación de 11.5 exaflops en IA.

Redes y Procesamiento Avanzados

Una característica clave del DGX SuperPod es su arquitectura de computación unificada, facilitada por la nueva tecnología de redes Nvidia Quantum-X800 InfiniBand, que ofrece hasta 1,800 gigabytes por segundo de ancho de banda a cada GPU. El sistema también integra Unidades de Procesamiento de Datos (DPUs) Nvidia BlueField-3 junto con Nvidia NVLink de quinta generación.

Además, el DGX SuperPod incorpora tecnología de cuarta generación Nvidia Scalable Hierarchical Aggregation and Reduction Protocol (SHARP), que proporciona 14.4 teraflops de computación en red, lo que representa un incremento de cuatro veces sobre su predecesor.

Blackwell en la Nube DGX de Nvidia

Los sistemas DGX basados en GB200 estarán disponibles pronto a través del servicio DGX Cloud de Nvidia, inicialmente accesible en plataformas principales como Amazon Web Services (AWS), Google Cloud y Oracle Cloud.

Según Ian Buck, vicepresidente de Hyperscale y HPC de Nvidia, "DGX Cloud está diseñado en colaboración con nuestros socios del sector de la nube para ofrecer la mejor tecnología de Nvidia para nuestra investigación en IA y para nuestros clientes". La nueva arquitectura GB200 también mejorará el superordenador Project Ceiba, que Nvidia está desarrollando con AWS, con el objetivo de crear la plataforma de supercomputación en la nube pública más grande del mundo.

Buck anunció un desarrollo emocionante: "Project Ceiba ha evolucionado, actualizándose ahora a la arquitectura Grace Blackwell que soporta 20,000 GPUs, lo que permite más de 400 exaflops de IA".

Estos avances colocan a Nvidia a la vanguardia de la tecnología de IA, haciendo del DGX SuperPod una herramienta excepcional para las industrias involucradas en la investigación y aplicaciones de IA.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles