Microsoft e Nvidia Revelam Novas Integrações e Inovações Empolgantes no GTC

Os anúncios recentes da Microsoft sobre novas colaborações com a parceira de longa data Nvidia posicionaram a empresa no centro da Conferência GTC AI da Nvidia deste ano, realizada em San Jose, de 18 a 21 de março. As atualizações de inovações em IA desta semana abrangeram uma ampla gama de tópicos, desde avanços em infraestrutura e serviços de IA até novas integrações de plataformas e conquistas no setor. Notavelmente, Nidhi Chappell, VP da Azure Generative AI e da Plataforma HPC da Microsoft, participou de uma conversa exclusiva com a escritora Sharon Goldman para discutir a parceria entre Microsoft, OpenAI e Nvidia, além de oferecer insights sobre o futuro do mercado.

"A parceria está no cerne de tudo o que fazemos", destacou Chappell. "Ao treinar grandes modelos fundamentais, você precisa de uma infraestrutura escalável que funcione de maneira confiável ao longo do tempo. Investimos esforços significativos com Nvidia para garantir que nosso serviço Azure OpenAI permita que os clientes empresariais integrem-se perfeitamente em seus fluxos de trabalho atuais ou comecem novos projetos com nossas ferramentas."

Assista à entrevista completa abaixo: Ao Vivo do GTC: Uma Conversa com a Microsoft | NVIDIA On-Demand. Para uma visão mais detalhada dos principais anúncios da conferência, explore a extensa série de painéis e palestras da Microsoft, todas disponíveis para visualização gratuita sob demanda.

Atualizações de Infraestrutura de IA Através de Novas Integrações

À medida que as cargas de trabalho se tornam mais sofisticadas, a Microsoft está atendendo às crescentes demandas com inovações de hardware. A Microsoft é uma das primeiras a utilizar o Nvidia GB200 Grace Blackwell Superchip e a rede Nvidia Quantum-X800 InfiniBand, integrando esses avanços no Azure. Além disso, a nova série de VMs Azure NC H100 v5 agora está acessível para organizações de todos os tamanhos.

O Nvidia GB200 Grace Blackwell Superchip é projetado para gerenciar cargas de trabalho e processamento de dados complexos, com novas instâncias Azure aprimorando o desempenho para modelos fundamentais em processamento de linguagem natural, visão computacional e reconhecimento de voz. Ele oferece até 16 TB/s de largura de banda de memória e até 30 vezes melhor desempenho em inferência para modelos de trilhões de parâmetros em comparação com a geração anterior. A rede Nvidia Quantum-X800 InfiniBand amplifica ainda mais a computação paralela em escalas massivas de GPU.

Descubra mais sobre as integrações da Nvidia e Microsoft aqui.

A série de VMs Azure NC H100 v5 é projetada para treinamento de médio porte, inferência e simulações de computação de alto desempenho (HPC), baseada na plataforma Nvidia H100 NVL. Ela apresenta uma ou duas GPUs Nvidia H100 94GB PCIe Tensor Core conectadas por NVLink, fornecendo 600 GB/s de largura de banda e comunicação bidirecional de 128GB/s para minimizar a latência de transferência de dados, aumentando a eficiência de aplicações de IA e HPC. Com a tecnologia de GPU multi-instância da Nvidia (MIG), os clientes podem dividir cada GPU em até sete instâncias.

Saiba mais sobre as conquistas atuais dos clientes.

Avanços Transformadores em Saúde e Ciências da Vida

A IA catalisou inovações rápidas em medicina e ciências da vida, impactando pesquisas, descoberta de medicamentos e cuidado ao paciente. A colaboração expandida da Microsoft Azure com o Nvidia DGX Cloud e o pacote Nvidia Clara permite que prestadores de serviços de saúde, empresas farmacêuticas e desenvolvedores de dispositivos médicos acelerem inovações em pesquisa clínica e cuidado ao paciente.

As organizações que utilizam computação em nuvem e IA incluem Sanofi, o Broad Institute do MIT e Harvard, Flywheel e Sophia Genetics, junto a centros médicos acadêmicos como a Universidade de Wisconsin. Elas estão promovendo mudanças transformadoras na saúde, aprimorando o cuidado ao paciente e democratizando a IA para profissionais de saúde.

Descubra como a IA está revolucionando a indústria da saúde.

Gêmeos Digitais Industriais Ganham Força com APIs Omniverse no Azure

As APIs Nvidia Omniverse Cloud agora estão integradas ao Microsoft Azure, ampliando as capacidades da plataforma. Os desenvolvedores podem incorporar tecnologias centrais do Omniverse em aplicativos de design e automação existentes para gêmeos digitais, auxiliando o teste e a validação de sistemas autônomos, como robôs e veículos autônomos.

Durante sua apresentação principal no GTC, o CEO da Nvidia, Jensen Huang, apresentou o Teamcenter X conectado às APIs Omniverse, permitindo que o software vincule dados de design às APIs de IA generativa da Nvidia e utilize a renderização Omniverse RTX diretamente no aplicativo.

Explore como as organizações estão usando as APIs Omniverse Cloud no Azure.

Aprimorando a Inteligência Contextual em Tempo Real

O Copilot para Microsoft 365, que estará disponível como uma tecla dedicada no Windows 11, funde as capacidades de grandes modelos de linguagem com dados empresariais proprietários. Alimentado por GPUs Nvidia e pelo Triton Inference Server, ele possibilita inteligência contextual em tempo real, aumentando a criatividade, produtividade e habilidades dos usuários.

Acelerando a Implantação de IA

Os microserviços de inferência Nvidia NIM, parte da plataforma de software Nvidia AI Enterprise, oferecem microserviços nativos em nuvem otimizados para mais de duas dezenas de modelos fundamentais populares. Esses containers pré-construídos, que podem ser executados em qualquer lugar e são impulsionados pelo software de inferência AI Enterprise da Nvidia — incluindo Triton Inference Server, TensorRT e TensorRT-LLM — facilitam uma implantação mais rápida no mercado para aplicações de IA de alto desempenho.

Integração Mais Profunda do Nvidia DGX Cloud com o Microsoft Fabric

A Microsoft e a Nvidia estão aprimorando a integração do Microsoft Fabric, a solução de análise tudo-em-um, com o computação do Nvidia DGX Cloud. Essa melhoria permite que os runtimes otimizados da Nvidia, LLMs e aprendizado de máquina funcionem de forma coesa com o Microsoft Fabric. Com o Fabric OneLake como o armazenamento subjacente, os desenvolvedores podem enfrentar efetivamente desafios intensivos em dados, como gêmeos digitais e previsões meteorológicas. Essa colaboração também permite que o DGX Cloud melhore os processos de ciência e engenharia de dados no Fabric.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles