Nvidia et Intel lancent des initiatives HPC de pointe pour améliorer les technologies d'IA au SC2023.

Les supercalculateurs les plus rapides au monde évoluent rapidement, avec Nvidia et Intel à la pointe de l'amélioration des capacités de calcul, en particulier pour les applications en intelligence artificielle (IA). Lors de la conférence Supercomputing 2023 (SC23) à Denver, les derniers classements des 500 meilleurs supercalculateurs ont été dévoilés. Il est à noter que tous ces systèmes intègrent des composants de Nvidia ou Intel, souvent les deux. Cette conférence sert également de plateforme pour discuter de la prochaine génération de supercalculateurs, mettant en avant les technologies qu'ils utilisent et leurs applications prévues.

Nvidia présente le supercalculateur JUPITER, hébergé dans le centre de recherche Forschungszentrum Jülich en Allemagne. Avec 24 000 puces Nvidia GH200, il ambitionne de devenir le supercalculateur IA le plus puissant, atteignant plus de 90 exaflops de performance pour l'entraînement d'IA. L'entreprise dévoile également de nouvelles technologies pour accélérer l'IA, notamment le H200 et une configuration avancée en quad du superchip Grace Hopper GH200.

De son côté, Intel promeut son supercalculateur Aurora, développé au Laboratoire national d'Argonne du Département de l'Énergie, qui soutiendra la création d'un modèle de langage large révolutionnaire de 1 trillion de paramètres. Intel dévoile également des avancées en matière d'accélération d'IA et de technologie GPU, se positionnant ainsi fortement face à Nvidia.

Le Superchip Grace Hopper de Nvidia : Un Tournant pour l'IA

Le superchip Grace Hopper de Nvidia, combinant les fonctionnalités CPU et GPU, est entré en production en mai. Ces puces sont désormais essentielles pour les supercalculateurs les plus puissants. « Avec l'introduction de Grace Hopper, une nouvelle vague de supercalculateurs IA émerge », a déclaré Dion Harris, directeur des solutions de produits pour centres de données accélérés chez Nvidia.

Le GH200 Grace Hopper alimente le supercalculateur JUPITER, conçu pour des applications telles que la prévision météorologique, la découverte de médicaments et l'ingénierie industrielle. Construit en collaboration avec ParTec, Eviden et SiPearl, JUPITER utilise une architecture quad GH200 qui améliore considérablement les performances en utilisant quatre puces GH200 par nœud.

« Le quad GH200 présente une architecture de nœud innovante avec 288 cœurs Neoverse ARM, atteignant 16 pétaflops de performance IA et 2,5 téraoctets par seconde de mémoire à haute vitesse », a expliqué Harris. Ce système interconnecte 24 000 puces GH200 grâce au réseau Quantum-2 InfiniBand de Nvidia. Nvidia envisage d'étendre l'architecture quad GH200 à d'autres supercalculateurs également.

Nvidia dévoile également le silicium H200 en standalone, un GPU discret qui sera disponible sur les cartes serveur Nvidia HGX H200. « La plateforme HGX H200, dotée d'une mémoire plus rapide et à haute vitesse, offrira des performances exceptionnelles pour les charges de travail HPC et d'inférence IA », a ajouté Harris.

Les Progrès d'Intel en Supercalculateur

Intel fait d'impressionnants progrès à SC23 avec ses technologies de calcul haute performance et d'IA. Ogi Brkic, vice-président et directeur général des solutions pour centres de données et IA/HPC chez Intel, a discuté des initiatives de l'entreprise en matière d'accélération de l'IA et de HPC.

Brkic a mis en avant la série Intel Data Center GPU Max et l'accélérateur Intel Habana Gaudi 2 comme des composants clés pour des projets majeurs de supercalculateur, tels que le supercalculateur Dawn Phase 1 à l'Université de Cambridge, actuellement le supercalculateur IA le plus rapide du Royaume-Uni. Celui-ci est doté de 512 CPUs Intel Xeon et de 1 024 GPUs de la série Intel Data Center GPU Max.

Aurora, un autre projet ambitieux, est en cours de construction aux États-Unis par Intel, HP Enterprise et le Département de l'Énergie. Ce supercalculateur vise à développer l'un des plus grands modèles de langage large, AuroraGPT, composé de 1 trillion de paramètres pour la recherche scientifique. En cours d'entraînement sur 64 nœuds, l'objectif est d'étendre son utilisation à plus de 10 000 nœuds.

« Nous avons collaboré avec les optimisations Microsoft Deepspeed pour garantir que ce modèle de 1 trillion de paramètres soit accessible à tous », a noté Brkic. « Les applications potentielles de ce modèle couvrent toutes les disciplines scientifiques, y compris la biologie, la chimie, la recherche sur les médicaments et la cosmologie. »

Most people like

Find AI tools in YBX