أعلنت Nvidia عن إطلاق وحدات معالجة الرسومات (GPUs) من الجيل التالي تحت اسم Blackwell، والتي تتميز بكفاءة طاقة أفضل بمقدار 25 مرة وتكاليف أقل لمهام معالجة الذكاء الاصطناعي. يجمع سوبرشيب GB200 Grace Blackwell الجديد بين عدة شرائح في حزمة واحدة، ويعد بتحسين الأداء بمقدار يصل إلى 30 مرة في استعلامات model كبير اللغة (LLM) مقارنةً بالنماذج السابقة. خلال تقديم رئيسي في Nvidia GTC 2024، أشار الرئيس التنفيذي جنسن هوانغ إلى Blackwell كخطوة حاسمة في مجال الحوسبة، مع خطط لإطلاق منتجات مخصصة للألعاب.
وقال هوانغ مازحًا إن النماذج الأولية التي عرضها كانت قيمتها 10 مليارات دولار و5 مليارات دولار، مما يبرز أهمية نظام Grace Blackwell. "على مدار ثلاثين عامًا، سعينا إلى الحوسبة المعجلة لتمكين الاختراقات في التعلم العميق والذكاء الاصطناعي"، وأضاف: "الذكاء الاصطناعي التوليدي يشكل عصرنا، وستدفع وحدات معالجة الرسومات Blackwell هذه الثورة الصناعية عبر جميع القطاعات".
تؤكد Nvidia أن الأنظمة المعتمدة على Blackwell ستسمح للمؤسسات بنشر الذكاء الاصطناعي التوليدي في الوقت الفعلي على نماذج تحتوي على تريليون معلمة بتكاليف واستهلاك طاقة أقل بمقدار 25 مرة مقارنةً مع بنية Hopper. ستزداد قدرات المعالجة لتناسب نماذج تصل إلى 10 تريليون معلمة.
بينما تسعى Nvidia للحفاظ على ميزتها التنافسية ضد شركات مثل Groq وCerebras وAMD وIntel، تقدم تقنيات Blackwell الجديدة كفاءة كبيرة في التكاليف والطاقة مقارنةً بسابقتها. وسُميت هذه المنصة نسبةً للرياضي ديفيد هارولد بلاكويل، الذي كان أول عالم أسود يُدخل الأكاديمية الوطنية للعلوم، وتعتبر Blackwell تتويجًا لبنية Hopper الخاصة بنفيديا، مما يمهد الطريق لقياسات جديدة في الحوسبة المعجلة.
تقدم المنصة ست تقنيات مبتكرة يمكن أن تحول مجالات متعددة، بما في ذلك معالجة البيانات، والمحاكاة الهندسية، وأتمتة التصميم الإلكتروني، وتصميم الأدوية المعتمدة على الحاسوب، والحوسبة الكمومية، والذكاء الاصطناعي التوليدي. زعم هوانغ أن Blackwell ستصبح أقوى شريحة في العالم، حيث تضم 208 مليارات ترانزستور تم تصنيعها باستخدام عملية 4NP المتقدمة من TSMC لتعزيز قدرات المعالجة. تتضمن محركات النقل من الجيل الثاني دعمًا لزيادة الصغرى للأبعاد وإدارة ديناميكية متقدمة لنطاق الصوت، مما يضاعف القدرة الحاسوبية بينما يقدم ابتكارات جديدة في قدرات الاستدلال باستخدام النقطة العائمة 4 بت.
كما أطلقت Nvidia تكنولوجيا الشبكات من الجيل الخامس NVLink، مما يمكّن التحميل العالي لنماذج الذكاء الاصطناعي ذات الparameters عديدة التريليون. توفر النسخة الأحدث من NVLink عرض نطاق ثنائي الاتجاه يصل إلى 1.8 تيرابايت في الثانية لكل وحدة معالجة رسومات، مما يسهل التواصل السلس بين ما يصل إلى 576 وحدة معالجة رسومات للـ LLMs المعقدة. بالإضافة إلى ذلك، تعزيز محرك RAS المدمج في وحدات معالجة Blackwell موثوقية النظام ويقلل من تكاليف التشغيل من خلال الصيانة المدعومة بالذكاء الاصطناعي.
ستكون بنية Blackwell جزءًا لا يتجزأ من أنظمة الخوادم الكبرى. مع قدرات الحوسبة السرية المتقدمة، تحمي نماذج الذكاء الاصطناعي وبيانات العملاء بينما تحافظ على أداء عالٍ، وهو أمر حاسم للصناعات التي تتطلب الخصوصية. يعزز محرك فك الضغط المخصص استعلامات قواعد البيانات، مما يعزز أداء تحليل البيانات والمعالجة.
نظام GB200 NVL72، وهو نظام بحجم الرف يقدم أداءً يبلغ 1.4 إكسافلوب من الذكاء الاصطناعي وذاكرة سريعة بسعة 30 تيرابايت، مبني حول سوبرشيب Blackwell. من المتوقع أن تعتمد مزودات السحابة الكبرى وقادة الذكاء الاصطناعي، بما في ذلك Amazon وGoogle وMeta وMicrosoft وOpenAI، هذه المنصة، مما يدل على تحول كبير في القدرات الحاسوبية.
يصل نظام GB200 Grace Blackwell Superchip إلى وحدتي معالجة رسومات B200 من Nvidia إلى وحدة المعالجة المركزية Grace من Nvidia من خلال رابط فائق الطاقة بسرعة 900 جيجابايت في الثانية، مما يحقق زيادة في الأداء تصل إلى 30 مرة مقارنةً بوحدة معالجة الرسومات H100 Tensor Core من Nvidia في استعلامات LLM، مع تقليل التكاليف واستهلاك الطاقة بمقدار يصل إلى 25 مرة.
يعتبر GB200 عنصرًا حيويًا في نظام NVL72 متعدد العقد والمزود بتبريد سائل الذي يجمع بين 36 سوبرشيب من Grace Blackwell، مع 72 وحدة معالجة Blackwell و36 وحدة معالجة CPU من Grace متصلة عبر NVLink من الجيل الخامس. بالإضافة إلى ذلك، يدمج النظام وحدات معالجة البيانات BlueField-3 من Nvidia لتعزيز الشبكات السحابية وأمان التخزين ومرونة حساب GPU لتطبيقات الذكاء الاصطناعي الضخمة.
تربط لوحة خادم Nvidia HGX B200 بين ثماني وحدات B200 GPU لدعم منصات الذكاء الاصطناعي التوليدية الرائدة المعتمدة على x86، مقدّمة سرعات شبكة تصل إلى 400 جيجابت في الثانية من خلال تقنيات إنفيني باند Quantum-2 وEthernet Spectrum-X من Nvidia. سيكون GB200 متاحًا أيضًا على منصة Nvidia DGX Cloud، وهي منصة ذكاء اصطناعي تم تطويرها بالتعاون مع مزودي خدمات السحابة الرئيسيين، مما يوفر للمطورين الأدوات الأساسية لبناء نماذج ذكاء اصطناعي توليدية متقدمة. من المتوقع أن تقدم شركات مثل Cisco وDell Technologies وHewlett Packard Enterprise وLenovo وSupermicro، جنبًا إلى جنب مع العديد من الشركات الأخرى، مجموعة متنوعة من الخوادم المعتمدة على تقنية Blackwell.