تعمل Nvidia على تعزيز استراتيجيتها في التعاون المشترك مع Microsoft من خلال إطلاق خدمة مصنع الذكاء الاصطناعي، والتي تهدف إلى مساعدة الشركات الناشئة والمؤسسات في تطوير تطبيقات ذكاء اصطناعي مخصصة على السحابة Azure. ستستفيد هذه الخدمة من بيانات الشركات عبر آلية استرجاع معزز للتوليد (RAG).
قال جينسين هوانغ، مؤسس ورئيس شركة Nvidia: "تجمع خدمة مصنع الذكاء الاصطناعي لدينا بين تقنيات الذكاء الاصطناعي التوليدية، وخبرتنا في تدريب النماذج اللغوية الكبيرة، وقدرات مصنع الذكاء الاصطناعي الواسعة، المبنية على منصة Microsoft Azure. مما يمكّن الشركات على مستوى العالم من ربط نماذجها المخصصة مع خدمات السحابة الرائدة من Microsoft."
السمات الرئيسية لخدمة مصنع الذكاء الاصطناعي من Nvidia على Azure
مع خدمة مصنع الذكاء الاصطناعي من Nvidia على Azure، ستحصل الشركات على كافة المكونات اللازمة لتطوير تطبيقات ذكاء اصطناعي توليدية مخصصة تركز على المؤسسات في مكان واحد. تشمل هذه المجموعة الشاملة نماذج AI الأساسية من Nvidia، وإطار NeMo، والوصول إلى موارد الحوسبة السحابية Nvidia DGX.
أضاف مانوفير داس، نائب رئيس قسم الحوسبة المؤسسية في Nvidia: "لأول مرة، يمكن للشركات الوصول إلى مجموعة كاملة من المكونات المطلوبة - من الأجهزة إلى البرمجيات - من البداية إلى النهاية على منصة Microsoft Azure. يمكن للعملاء تنفيذ سير العمل الكامل للذكاء الاصطناعي التوليدي بسلاسة عبر Azure."
لتوسيع خيارات المؤسسات، تقدم Nvidia مجموعة جديدة من نماذج Nemotron-3 8B المصممة لتطبيقات الدردشة المتقدمة والأسئلة والأجوبة في قطاعات مثل الرعاية الصحية، والاتصالات، والمالية. ستتميز هذه النماذج بقدرات متعددة اللغات وستكون متاحة من خلال كتالوج نماذج Azure AI بالإضافة إلى Hugging Face وكاتالوج NGC الخاص بـ Nvidia.
تشمل نماذج أساسية أخرى من كتالوج Nvidia، والتي ستتكامل أيضًا مع Azure، Llama 2 وStable Diffusion XL وMistral 7b. بمجرد أن يختار المستخدمون نموذجهم المفضل، يمكنهم الانتقال إلى مراحل التدريب والنشر لتطبيقات مخصصة باستخدام Nvidia DGX Cloud وبرمجيات AI Enterprise عبر سوق Azure. يوفر DGX Cloud حالات قابلة للتوسع تستفيد من آلاف وحدات معالجة الرسوميات NVIDIA Tensor Core للتدريب، ويأتي مع مجموعة أدوات AI Enterprise لتسهيل تخصيص النماذج اللغوية الكبيرة.
شراكة مع Oracle والتبني المبكر
كما قامت Nvidia بالشراكة مع Oracle، مما يتيح للمؤسسات المؤهلة شراء أدوات من سوق Oracle Cloud لتدريب النماذج على البنية التحتية Oracle Cloud (OCI). تشمل المؤسسات التي تعتمد مبكرًا خدمة المصنع على Azure كلًا من SAP وAmdocs وGetty Images، التي تطور تطبيقات ذكاء اصطناعي مخصصة لاستخدامات متنوعة.
توسيع شراكة Nvidia وMicrosoft
إضافة إلى خدمة الذكاء الاصطناعي التوليدي، أعلنت Microsoft عن إدخال آلات افتراضية جديدة من نوع NC H100 v5 على Azure. تتميز هذه الآلات السحابية المبتكرة بوحدات معالجة رسومات H100 تعتمد على PCIe مرتبطة عبر Nvidia NVLink، مما يوفر قدرة حاسوبية للذكاء الاصطناعي تصل إلى ما يقارب أربعة بيتافلوبس وذاكرة HBM3 عالية السرعة بسعة 188 غيغابايت.
تم تصميم وحدة معالجة الرسومات Nvidia H100 NVL لتحقيق أداء يفوق النماذج السابقة بمعدل يصل إلى 12 ضعفًا على نموذج GPT-3 175B، مما يجعلها مثالية لمهام الاستنتاج والتدريب الرئيسي. علاوة على ذلك، تخطط Nvidia لإدخال وحدة المعالجة Tensor Core الجديدة H200 إلى Azure العام المقبل، والتي توفر ذاكرة HBM3e بسعة 141 غيغابايت وعرض نطاق ذاكرة يصل إلى 4.8 TB/s، مصممة لأحمال عمل الذكاء الاصطناعي الكبيرة.
تحديثات للذكاء الاصطناعي على أجهزة Windows
لتحسين عمليات النماذج اللغوية الكبيرة على أجهزة Windows، كشفت Nvidia أيضًا عن عدة تحديثات، بما في ذلك TensorRT LLM لأجهزة Windows، الذي سيدعم نماذج لغوية كبيرة جديدة مثل Mistral 7B وNemotron-3 8B. من المقرر إصداره في وقت لاحق من هذا الشهر، يعد هذا التحديث بتحقيق أداء استنتاج أسرع بخمس مرات، مما يمكن من تنفيذ أفضل للنماذج على أجهزة الكمبيوتر المكتبية والمحمولة المجهزة بوحدات معالجة الرسوميات GeForce RTX 30 و40 Series، مع حد أدنى من 8 غيغابايت من ذاكرة الوصول العشوائي.
بالإضافة إلى ذلك، سيكون TensorRT-LLM متوافقًا مع واجهة برمجة التطبيقات Chat API من OpenAI عبر وحدة تغليف جديدة، مما يتيح تنفيذ العديد من مشاريع المطورين محليًا على أجهزة Windows 11 المزودة بوحدات معالجة الرسوميات RTX، مما يلغي الحاجة للاعتماد على السحابة.