Dell Technologies Expande Capacidades de IA Generativa Durante o Dell Technologies World Conference
A Dell Technologies está aprimorando suas soluções de IA generativa com uma série de anúncios feitos durante a conferência anual Dell Technologies World.
Apresentando a Dell AI Factory
A Dell AI Factory representa uma nova estratégia focada em simplificar, garantir segurança e tornar a adoção da IA mais econômica para as empresas. Essa iniciativa inclui uma vasta colaboração com a Nvidia, ampliando as soluções anunciadas em julho de 2023. A parceria integra hardware e software da Dell e da Nvidia para apoiar iniciativas de IA generativa, especialmente em Geração Incrementada por Recuperação (RAG) e assistentes digitais. Além disso, a Dell está lançando novos hardwares otimizados para as GPUs Nvidia Blackwell recentemente anunciadas.
Fortalecendo laços com Hugging Face e Meta
A Dell está aprofundando sua integração com a Hugging Face, baseando-se em uma colaboração iniciada em novembro de 2023 para melhorar as ofertas para empresas. Da mesma forma, a Dell continua sua parceria com a Meta para apoiar o Llama 3, expandindo além do trabalho anterior com o Llama 2.
Simplificando a Implementação de IA On-Premises
Diante de diversas opções de IA generativa baseadas em nuvem, a Dell tem como objetivo simplificar a avaliação e a implementação de tecnologias de IA gerativa para empresas em ambientes locais. “Nosso objetivo é ajudar os clientes a obter valor de seus workloads de IA o mais rápido possível,” afirmou Varun Chhabra, Vice-Presidente Sênior da Dell Technologies.
Avanços Além do Projeto Helix
Os anúncios da Dell na conferência marcam uma evolução em relação à iniciativa Projeto Helix do ano passado, que se concentrou fortemente no treinamento. “Quando lançamos o Projeto Helix, era muito centrado no treinamento," declarou Manuvir Das, VP de Computação Empresarial da Nvidia. "Agora, estamos priorizando a inferência e a aplicação prática de modelos."
Microserviços de Inferência da Nvidia
Os recém-lançados Microserviços de Inferência da Nvidia (NIMs) são uma adição significativa à parceria. Esses microserviços facilitam os desafios de implantação para desenvolvedores, configurando automaticamente o ambiente para uma execução de modelo de IA eficiente e segura. Isso permite que os desenvolvedores foquem no desenvolvimento de aplicações sem se preocupar com as complexidades da implantação.
Acelerando implantações de RAG
O cenário da IA generativa evoluiu, especialmente em como as empresas se conectam aos seus dados. O RAG tornou-se essencial para vincular armazenamentos de dados existentes às implantações de IA generativa. Os novos Serviços de Aceleração da Dell para RAG, projetados especificamente para Workstations de IA de Precisão, ajudam os desenvolvedores a criar e testar casos de uso de RAG usando o hardware da Dell em conjunto com a plataforma de desenvolvimento Nvidia AI Workbench. A tecnologia NeMo Retriever da Nvidia faz parte dessa iniciativa, proporcionando flexibilidade para que as organizações selecionem bancos de dados vetoriais essenciais para implementações de RAG.
Colaborando com Parceiros para Aprimorar a IA Generativa
Além da Nvidia, a Dell está colaborando ativamente com diversos parceiros para fortalecer suas capacidades de IA generativa. A empresa está expandindo sua parceria com a Hugging Face para oferecer modelos abertos curados aos usuários empresariais. O Dell Enterprise Hub visa simplificar a implantação desses modelos em ambientes locais.
A Dell continua a trabalhar com a Meta para fornecer guias de implantação e testes de desempenho para os modelos Llama 3. Além disso, uma colaboração com a Microsoft está avançando, oferecendo soluções de Azure AI sobre a infraestrutura da Dell. A nova Solução AI da Dell para os Serviços de Azure AI da Microsoft permite que as empresas utilizem as capacidades do Microsoft Azure localmente, usando as mesmas APIs disponíveis no Azure.
“Essa flexibilidade permite que as organizações integrem diversos serviços de IA do Azure—como processamento de linguagem, tradução, reconhecimento de fala, inteligência de documentos e visão—mais próximo de seus dados, que muitas vezes estão on-premises,” observou Chhabra.