De Google a IBM: Como os Principais Gigantes da Tecnologia Estão Aproveitando as Últimas Soluções de Hardware e Software da Nvidia

A Nvidia está fazendo avanços significativos em computação na atual conferência GTC em San Jose. O CEO Jensen Huang, usando um jaqueta de couro preta, cativou um público animado durante seu discurso de abertura. Ele apresentou o aguardado superchip GB200 Grace Blackwell, que promete um aumento de desempenho de até 30 vezes para cargas de trabalho de inferência de grandes modelos de linguagem (LLM). Huang também destacou avanços em setores como automotivo, robótica, Omniverse e saúde, gerando grande expectativa online.

Nenhum evento GTC está completo sem a exibição de parcerias da indústria. A Nvidia revelou como está ampliando suas colaborações com grandes empresas de tecnologia, integrando sua nova infraestrutura de computação em IA, software e serviços. Confira um resumo das principais parcerias anunciadas:

AWS

A Nvidia anunciou que a AWS oferecerá sua nova plataforma Blackwell, com o GB200 NVL72, equipado com 72 GPUs Blackwell e 36 CPUs Grace, em instâncias EC2. Essa integração permitirá que os clientes desenvolvam e realizem inferência em tempo real em LLMs com trilhões de parâmetros de maneira mais eficiente e a um custo menor do que os GPUs Nvidia anteriores. Além disso, as empresas trarão 20.736 superchips GB200 para o Projeto Ceiba, um supercomputador de IA desenvolvido exclusivamente na AWS, e integrarão o Amazon SageMaker com os microserviços de inferência NIM da Nvidia.

Google Cloud

A Google Cloud também incorporará a plataforma Grace Blackwell da Nvidia e os microserviços NIM em sua infraestrutura de nuvem. A empresa anunciou suporte ao JAX, um framework nativo em Python para treinamento de LLMs de alto desempenho em GPUs Nvidia H100, facilitando a implantação do framework Nvidia NeMo através do Google Kubernetes Engine (GKE) e do Google Cloud HPC toolkit. Além disso, o Vertex AI dará suporte às VMs A3 do Google Cloud, potentes GPUs NVIDIA H100, e VMs G2, também com GPUs NVIDIA L4 Tensor Core.

Microsoft

A Microsoft confirmou planos de adicionar microserviços NIM e Grace Blackwell ao Azure, junto com a nova plataforma de rede Quantum-X800 InfiniBand. A empresa está integrando o DGX Cloud ao Microsoft Fabric para simplificar o desenvolvimento de modelos de IA personalizados e disponibilizando as novas APIs de Omniverse Cloud na plataforma Azure Power. Na área da saúde, o Azure usará a suíte de microserviços Clara da Nvidia e o DGX Cloud para apoiar inovações rápidas em pesquisa clínica e entrega de cuidados.

Oracle

A Oracle pretende aproveitar a plataforma de computação Grace Blackwell em supercluster OCI e instâncias OCI Compute, adotando tanto o superchip Nvidia GB200 quanto a GPU Tensor Core B200. Anunciaram que os microserviços NIM e CUDA-X da Nvidia, incluindo o NeMo Retriever para implantações de inferência RAG, aprimorarão a visão e a precisão das aplicações de IA generativa dos clientes do OCI.

SAP

A SAP está se unindo à Nvidia para integrar IA generativa em suas soluções de nuvem, incluindo SAP Datasphere, SAP Business Technology Platform e RISE with SAP. A empresa também está desenvolvendo capacidades adicionais de IA generativa dentro da SAP BTP, utilizando o serviço de fundição de IA generativa da Nvidia, que inclui supercomputação em DGX Cloud e software Nvidia AI Enterprise.

IBM

A IBM Consulting planeja combinar sua tecnologia e expertise de setor com a pilha de software AI Enterprise da Nvidia, incluindo novos microserviços NIM e tecnologias Omniverse. Essa colaboração visa acelerar fluxos de trabalho de IA para os clientes, otimizar casos de uso e facilitar o desenvolvimento de soluções de IA específicas de setor, incluindo aplicações de gêmeos digitais para cadeias de suprimento e manufatura.

Snowflake

A Snowflake expandiu sua parceria com a Nvidia para incluir a integração com o NeMo Retriever, um microserviço de IA generativa que conecta LLMs personalizados a dados corporativos. Essa melhoria aumentará o desempenho e a escalabilidade das aplicações de chatbot desenvolvidas com o Snowflake Cortex. Além disso, a colaboração inclui o software Nvidia TensorRT para aplicações de inferência de deep learning com baixa latência. Além da Snowflake, outros provedores de plataformas de dados, como Box, Dataloop, Cloudera, Cohesity, Datastax e NetApp, comprometeram-se a utilizar microserviços da Nvidia, em particular a nova tecnologia NIM, para otimizar pipelines RAG e integrar dados proprietários em aplicações de IA generativa.

A Nvidia GTC 2024 está programada para ocorrer de 18 a 21 de março em San Jose e online.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles