دي جي إكس سوبر بود من نفيديا: إطلاق العنان للقوة لدعم نماذج الذكاء الاصطناعي ذات تريليون معلمة

أعلنت Nvidia عن إطلاق أنظمتها الأكثر قوة حتى الآن مع تدشين DGX SuperPod في مؤتمر Nvidia GTC. يُعد هذا النظام المتقدم جزءًا من طرح شامل للأجهزة والبرمجيات.

خلال السنوات الأخيرة، أصبحت أنظمة DGX حجر الزاوية في عروض سيرفرات Nvidia وخدمات السحاب. يتميز DGX SuperPod بأحدث وحدات معالجة الرسوميات للجيل القادم من Nvidia والمعروفة باسم Blackwell، والتي كشفت عنها كخلف لشريحة Hopper. تم تصميم Blackwell لدعم نماذج الذكاء الاصطناعي التي تحتوي على تريليون معلمة.

ما هو DGX SuperPod؟

DGX SuperPod ليس مجرد سيرفر فردي؛ بل هو تكوين قوي يتكون من عدة أنظمة DGX GB200. يتضمن كل نظام 36 شريحة Nvidia GB200 Superchips، مدمجة مع 36 وحدة معالجة مركزية Grace و72 وحدة معالجة رسومية Blackwell، جميعها متصلة عبر تقنية Nvidia NVLink من الجيل الخامس. يمكن أن يتوسع هذا النظام فائقة الحوسبة ليشمل ثمانية أنظمة DGX GB200 أو أكثر، موصلًا عشرات الآلاف من شرائح GB200 عبر شبكة Nvidia Quantum InfiniBand.

يمتاز النظام بذاكرة تصل إلى 240 تيرابايت، مما يعد أمرًا بالغ الأهمية لتدريب نماذج اللغة الكبيرة وتنفيذ استنتاجات الذكاء الاصطناعي على نطاق واسع. بالإضافة إلى ذلك، يوفر DGX SuperPod قوة حوسبة فائقة مذهلة تصل إلى 11.5 إكزافلوب.

الشبكات والمعالجة المتقدمة

من أبرز ميزات DGX SuperPod هو هيكله الموحد للحوسبة، الذي يتم تسهيليه من خلال تكنولوجيا الشبكات Nvidia Quantum-X800 InfiniBand، التي توفر عرض نطاق يصل إلى 1800 جيجابايت في الثانية لكل وحدة معالجة رسومية. كما يدمج النظام وحدات معالجة البيانات Nvidia BlueField-3 DPUs مع NVLink من الجيل الخامس.

علاوة على ذلك، يتضمن DGX SuperPod تقنية بروتوكول التجميع والتقليل الهيراركي القابل للتوسع Nvidia SHARP من الجيل الرابع، التي تقدم 14.4 تيرافلوب من الحوسبة داخل الشبكة، مما يمثل زيادة بأربع مرات مقارنة بالجيل السابق.

Blackwell في السحابة الخاصة بـ Nvidia

ستكون أنظمة DGX القائمة على GB200 متاحة قريبًا عبر خدمة DGX Cloud من Nvidia، وستكون متاحة أولاً على منصات رئيسية مثل Amazon Web Services (AWS) وGoogle Cloud وOracle Cloud.

أشار إيان باك، نائب الرئيس لتقنيات القطاعات الفائقة HPC في Nvidia، إلى أن "DGX Cloud مصمم بالتعاون مع شركائنا في السحابة لتقديم أفضل تقنيات Nvidia لأبحاث الذكاء الاصطناعي ولعملائنا." كما ستعمل بنية GB200 الجديدة على تعزيز حاسوب Project Ceiba العملاق، الذي تطوره Nvidia مع AWS، والذي يهدف إلى إنشاء أكبر منصة حوسبة سحابية عامة في العالم.

أعلن باك عن تطور مثير: "لقد تطور Project Ceiba، وتم ترقيته الآن إلى بنية Grace Blackwell التي تدعم 20,000 وحدة معالجة رسومية، مما يمكنه من تحقيق أكثر من 400 إكزافلوب من الذكاء الاصطناعي."

تُعزز هذه التطورات موقع Nvidia في صدارة تكنولوجيا الذكاء الاصطناعي، مما يجعل DGX SuperPod أداة مRemarkable للأبحاث والابتكارات في هذا المجال.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles