A Nvidia Lança GPUs Blackwell de Próxima Geração: Reduza em Até 25 Vezes os Custos e Consumo de Energia!

A Nvidia lançou suas unidades de processamento gráfico (GPUs) Blackwell de próxima geração, oferecendo 25 vezes mais eficiência energética e redução de custos para tarefas de processamento de IA. O novo superchip Nvidia GB200 Grace Blackwell combina vários chips em um único pacote, prometendo até 30 vezes mais desempenho em cargas de trabalho de inferência de modelos de linguagem de grande escala (LLM) em comparação com modelos anteriores. Durante uma apresentação na Nvidia GTC 2024, o CEO Jensen Huang destacou o Blackwell como um avanço crucial na computação, com planos de produtos voltados para jogos a seguir.

Huang comentou de forma bem-humorada que os protótipos apresentados tinham um valor de 10 bilhões e 5 bilhões de dólares, ressaltando a importância do sistema Grace Blackwell. "Por três décadas, buscamos a computação acelerada para possibilitar avanços em aprendizado profundo e IA", afirmou. "A IA generativa está moldando nossa era, e as GPUs Blackwell impulsionarão essa revolução industrial em todos os setores."

A Nvidia garante que os sistemas baseados em Blackwell permitirão que instituições implantem IA generativa em tempo real em modelos de trilhões de parâmetros com 25 vezes menos custo e consumo de energia em comparação com a arquitetura Hopper. As capacidades de processamento se escalarão para modelos com até 10 trilhões de parâmetros.

Enquanto a Nvidia busca manter sua vantagem competitiva contra empresas como a Groq, focada em chips de inferência, e concorrentes de CPU de alto desempenho como Cerebras, AMD e Intel, os avanços do Blackwell apresentam eficiências significativas em custo e energia em relação à sua antecessora. Nomeada em homenagem ao matemático David Harold Blackwell, o primeiro acadêmico negro a ser incluído na Academia Nacional de Ciências, a plataforma Blackwell sucede a arquitetura Hopper da Nvidia, estabelecendo novos padrões em computação acelerada. Originalmente projetadas para gráficos de jogos, as GPUs tornaram-se a espinha dorsal do processamento de IA, elevando a capitalização de mercado da Nvidia para 2,2 trilhões de dólares e atraindo atenção da mídia em eventos como a Nvidia GTC.

A plataforma introduz seis tecnologias inovadoras que podem transformar diversas áreas, incluindo processamento de dados, simulações de engenharia, automação de design eletrônico, design de medicamentos assistido por computador, computação quântica e IA generativa. Huang afirmou que o Blackwell se destacará como o chip mais poderoso do mundo, com 208 bilhões de transistores fabricados com o avançado processo 4NP da TSMC para capacidades de processamento aprimoradas. O motor de transformadores de segunda geração inclui suporte à microescala de tensores e gestão avançada de faixa dinâmica, dobrando a capacidade computacional e introduzindo novas capacidades de inferência de IA em ponto flutuante de 4 bits.

A Nvidia também lançou sua tecnologia de rede NVLink de quinta geração, permitindo alta taxa de transferência para modelos de IA com trilhões de parâmetros. A nova iteração do NVLink fornece 1,8 TB/s de taxa de transferência bidirecional por GPU, facilitando a comunicação entre até 576 GPUs para LLM complexos. Além disso, o RAS Engine integrado nas GPUs Blackwell melhora a confiabilidade do sistema e reduz os custos operacionais por meio de manutenção baseada em IA.

A arquitetura Blackwell será fundamental para grandes sistemas de servidores. Com capacidades avançadas de computação confidencial, protege modelos de IA e dados de clientes enquanto mantém alto desempenho—crucial para indústrias sensíveis à privacidade. O motor de descompressão dedicado acelera consultas de banco de dados, melhorando a análise de dados e o desempenho de processamento.

O Nvidia GB200 NVL72, um sistema de rack que oferece 1,4 exaflops de desempenho em IA e 30 TB de memória rápida, é construído em torno do superchip Blackwell. Principais provedores de nuvem e líderes em IA, incluindo Amazon, Google, Meta, Microsoft e OpenAI, devem adotar esta plataforma, indicando uma grande mudança nas capacidades computacionais.

O superchip GB200 Grace Blackwell conecta duas GPUs Nvidia B200 Tensor Core à CPU Nvidia Grace através de um link de ultra-baixo consumo de 900 GB/s, atingindo um aumento de desempenho de até 30 vezes em relação à GPU Nvidia H100 Tensor Core para inferência de LLM, ao mesmo tempo que reduz custos e consumo de energia em até 25 vezes.

O GB200 é um componente crucial do sistema NVL72, refrigerado a líquido e multi-nó, que combina 36 superchips Grace Blackwell, apresentando 72 GPUs Blackwell e 36 CPUS Grace interconectados via NVLink de quinta geração. Além disso, o sistema integra unidades de processamento de dados Nvidia BlueField-3 para melhorar a rede em nuvem, segurança de armazenamento e flexibilidade de computação GPU para aplicações de IA em escala hiperescalável.

A placa do servidor Nvidia HGX B200 interconecta oito GPUs B200 para suportar as principais plataformas de IA generativa baseadas em x86, oferecendo velocidades de rede de até 400 Gb/s por meio das tecnologias Quantum-2 InfiniBand e Spectrum-X Ethernet da Nvidia. O GB200 também estará disponível na Nvidia DGX Cloud, uma plataforma de IA co-desenvolvida com grandes provedores de serviços em nuvem, fornecendo aos desenvolvedores ferramentas essenciais para a criação de modelos avançados de IA generativa. Empresas como Cisco, Dell Technologies, Hewlett Packard Enterprise, Lenovo e Supermicro, entre outras, devem oferecer uma variedade de servidores baseados na tecnologia Blackwell.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles