تعمل Nvidia وAmazon Web Services (AWS) على تعزيز شراكتهما الاستراتيجية من خلال إعلانات هامة في مؤتمر AWS re:Invent. قدمت Nvidia عرضًا جديدًا للخدمات السحابية تحت اسم DGX Cloud، حيث تمثل هذه المبادرة الظهور الأول لشريحة Grace Hopper GH200 على منصة AWS. جزء من مشروع Ceiba، يهدف هذا الجهد إلى إنشاء أكبر منصة حوسبة سحابية عامة في العالم، مع تقديم 64 إكسافلوب من قوة الذكاء الاصطناعي. علاوة على ذلك، تقوم AWS بتوسيع خدمة EC2 بإضافة أربعة أنواع جديدة من وحدات السحابة المدعومة بوحدات المعالجة الرسومية (GPU).
للمساعدة في تطوير نماذج اللغة الكبيرة (LLMs) الأكثر تقدمًا، كشفت Nvidia أيضًا عن تقنية NeMo Retriever، وهي طريقة للتوليد المعزز بالاسترجاع (RAG) لربط بيانات الشركات بالذكاء الاصطناعي التوليدي. بعد شراكة استمرت لأكثر من 13 عامًا، قامت Nvidia بدمج وحدات معالجة الرسومات (GPUs) في مثيلات الحوسبة السحابية لـ AWS منذ عام 2010. خلال إحاطة، أكد إيان باك، نائب الرئيس لقسم Hyperscale وHPC في Nvidia، على جهودهما المشتركة لدفع الابتكار لصالح عملائهما المشتركين مثل Anthropic وCohere وStability AI.
"لم يقتصر الأمر على الأجهزة فقط؛ بل كان هناك أيضًا الجوانب البرمجية"، شارك باك. "نتعاون كثيرًا في الكواليس من أجل تكامل البرمجيات."
DGX Cloud: قوة الحوسبة الفائقة على AWS
يهدف عرض DGX Cloud من Nvidia، الذي تم الإعلان عنه في مؤتمر تكنولوجيا GPU في مارس، إلى توفير قدرات حوسبة فائقة متقدمة للذكاء الاصطناعي. رغم أن الفكرة ليست جديدة تمامًا، إلا أن النسخة الأخيرة القادمة إلى AWS تتميز بكونها فريدة.
"يعد DGX Cloud هذا مميزًا لأنه الأول الذي يعمل بمعمارية NVIDIA Grace Hopper"، شرح باك. تدمج شريحة Grace Hopper الحوسبة من ARM مع وحدات معالجة الرسومات، وقد تم استخدامها أساسًا في الحواسيب الفائقة. تحتوي النسخة السحابية من DGX Cloud على شرائح GH200 في هيكل رف يعرف باسم GH200 NVL-32، حيث تربط 32 شريحة GH200 من خلال تقنية NVLink الخاصة بـ Nvidia. يمكن أن تحقق هذه التهيئة ما يصل إلى 128 بيترفلوب من أداء الذكاء الاصطناعي، مدعومة بـ 20 تيرابايت من الذاكرة عالية السرعة.
أكد باك، "يمثل هذا هيكل GPU جديد على مستوى الرف لعصر الذكاء الاصطناعي التوليدي."
مشروع Ceiba: أكبر حاسوب سحابي للذكاء الاصطناعي في العالم
أطلقت Nvidia وAWS أيضًا مشروع Ceiba، الذي يسعى لإنشاء أكبر حاسوب سحابي للذكاء الاصطناعي على مستوى العالم. سيتكون مشروع Ceiba من 16,000 شريحة Grace Hopper Superchips، مستفيدًا من محول الأنسجة المرن (EFA) ونظام Nitro الخاص بـ AWS لتوسيع نطاق الأداء. يهدف الحاسوب الفائق إلى تحقيق أداء مذهل يبلغ 64 إكسافلوب للذكاء الاصطناعي مع إجمالي يصل إلى 9.5 بيتابايت من الذاكرة.
"سيكون هذا الحاسوب الفائق مقيمًا داخل بنية AWS وستستخدمه فرق البحث في Nvidia لتحقيق تقدم في مجالات الذكاء الاصطناعي المتعلقة بالرسوميات، ونماذج اللغة الكبيرة، ومعالجة الصور والفيديو، والذكاء الاصطناعي التوليدي، والبيولوجيا الرقمية، والروبوتات، والسيارات الذاتية القيادة وغير ذلك"، أضاف باك.
NeMo Retriever: المفتاح لنماذج اللغة الفعالة
من خلال إطلاق NeMo Retriever في مؤتمر AWS re:Invent، تهدف Nvidia إلى تعزيز وظائف الدردشة بمستوى الشركات. أشار باك إلى أن معظم نماذج اللغة الكبرى التي يتم استخدامها تعتمد على البيانات العامة، مما يحد من فعاليتها. للوصول إلى المعلومات الأكثر دقة وحداثة، يجب على المؤسسات دمج نماذجها للذكاء الاصطناعي مع بيانات الشركات الخاصة.
"هذا التكامل هو الكأس المقدسة للدردشة المؤسسية، حيث تتواجد معظم البيانات القيمة"، صرح باك. "يجمع دمج الذكاء الاصطناعي مع قواعد بيانات الشركات بين الإنتاجية والدقة وسهولة الاستخدام."
يتضمن NeMo Retriever نماذج مؤسسية مسبقة البناء وخدمات استرجاع مصممة للتكامل بسلاسة في سير العمل الحالي. تشمل أيضًا قدرات بحث متسارعة لتحسين الأداء. تشمل العملاء الأوائل لـ NeMo Retriever كل من Dropbox وSAP وServiceNow، مما يظهر دقته المتطورة وزمن الانتقال المنخفض لعملية التوليد المعزز بالاسترجاع.