Nvidia lance le Retriever, DGX Cloud et le superordinateur Project Ceiba sur AWS.

Nvidia et Amazon Web Services (AWS) renforcent leur partenariat stratégique avec des annonces majeures lors de la conférence AWS re:Invent.

Nvidia a présenté une nouvelle offre de DGX Cloud, marquant le lancement du superchip Grace Hopper GH200 sur AWS. Ce projet s'inscrit dans le cadre de Project Ceiba, qui vise à créer la plus grande plateforme de supercalcul en cloud publique au monde, avec une puissance impressionnante de 64 exaflops dédiée à l'intelligence artificielle. De plus, AWS élargit son service EC2 en ajoutant quatre nouveaux types d'instances cloud dotés de GPU.

Pour aider les organisations à développer des modèles linguistiques avancés (LLMs), Nvidia a également dévoilé sa technologie NeMo Retriever, une méthode de génération augmentée par la recherche (RAG) qui relie les données d'entreprise à l'IA générative.

Partenaires depuis plus de 13 ans, Nvidia a intégré ses GPU dans les instances de cloud computing d'AWS dès 2010. Lors d'un point presse, Ian Buck, VP Hyperscale et HPC chez Nvidia, a souligné leurs efforts de collaboration pour favoriser l'innovation pour des clients communs tels qu’Anthropic, Cohere et Stability AI. "Il ne s'agit pas seulement du matériel ; c'est aussi du logiciel," a partagé Buck. "Nous collaborons souvent dans les coulisses pour les intégrations logicielles."

DGX Cloud : Puissance de Supercalcul sur AWS

Le DGX Cloud d'Nvidia, annoncé initialement lors de la conférence GPU Technology de mars, vise à offrir des capacités avancées de supercalcul pour l'IA. Bien que le concept ne soit pas entièrement nouveau, la dernière version proposée sur AWS est unique. "Ce DGX Cloud est particulier car il est le premier à être alimenté par NVIDIA Grace Hopper," a expliqué Buck.

Le superchip Grace Hopper intègre le calcul ARM avec des GPU et a principalement été utilisé dans des superordinateurs. La variante AWS du DGX Cloud présente les puces GH200 dans une architecture de rack connue sous le nom de GH200 NVL-32, connectant 32 superchips GH200 via la technologie de mise en réseau NVLink de Nvidia. Cette configuration peut atteindre jusqu’à 128 pétaflops de performance IA, soutenue par 20 téraoctets de mémoire haute vitesse. Buck a souligné, "Cela représente une nouvelle architecture GPU au niveau du rack pour l'ère de l'IA générative."

Project Ceiba : Le Plus Grand Supercalculateur Cloud IA au Monde

Nvidia et AWS ont également lancé Project Ceiba, qui aspire à créer le plus grand supercalculateur cloud dédié à l'IA au monde. Project Ceiba sera composé de 16 000 superchips Grace Hopper, tirant parti de l'Elastic Fabric Adapter (EFA) et du système Nitro d'AWS pour la scalabilité. Ce supercalculateur vise à atteindre une performance incroyable de 64 exaflops en IA, avec un total pouvant aller jusqu'à 9,5 pétaoctets de mémoire.

"Ce supercalculateur sera intégré à l'infrastructure AWS et sera utilisé par les équipes de recherche d'Nvidia pour des avancées en intelligence artificielle liées aux graphiques, aux modèles de langage, au traitement d'images et de vidéos, à l'IA générative, à la biologie numérique, à la robotique, aux voitures autonomes et bien plus," a ajouté Buck.

NeMo Retriever : La Clé pour des LLMs Efficaces

Avec le lancement de NeMo Retriever lors d'AWS re:Invent, Nvidia vise à améliorer la fonctionnalité des chatbots de niveau entreprise. Buck a noté que la plupart des LLMs couramment utilisés s'appuient sur des données publiques, limitant ainsi leur efficacité. Pour accéder à des informations précises et à jour, les organisations doivent intégrer leurs LLMs avec des données propriétaires. "Cette intégration est le Saint Graal pour les chatbots d'entreprise, où réside la majorité des données précieuses," a affirmé Buck. "Allier l'IA aux bases de données d'entreprise améliore la productivité, la précision et l'utilisabilité."

Le NeMo Retriever comprend des modèles d'entreprise préconstruits et des microservices de recherche conçus pour une intégration fluide dans les flux de travail existants. Il propose également des capacités de recherche vectorielle accélérée pour optimiser la performance. Parmi les premiers clients de NeMo Retriever figurent Dropbox, SAP et ServiceNow, témoignant de son efficacité exemplaire et de sa latence minimale dans la génération augmentée par la recherche.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles