تستعد Nvidia لتعزيز نشر نماذج الذكاء الاصطناعي التوليدية الكبيرة (LLMs) بشكل كبير من خلال نهج مبتكر يسرع عملية الاستدلال. خلال حدث GTC اليوم، قدمت Nvidia خدمة Nvidia Inference Microservices (NIM)، وهي تقنية برمجية تجمع بين محركات الاستدلال المحسّنة وواجهات برمجة التطبيقات القياسية في الصناعة ودعم نماذج الذكاء الاصطناعي، مما يسهل نشرها في حاويات. لا تقدم NIM نماذج مسبقة البناء فحسب، بل تمكّن المؤسسات أيضًا من دمج بياناتها الخاصة وتسريع نشر تقنية استرجاع المعلومات المعززة (RAG).
تمثل NIM تقدمًا محوريًا في نشر الذكاء الاصطناعي التوليدي، حيث تشكل العمود الفقري لاستراتيجية الاستدلال من الجيل التالي لشركة Nvidia، والتي ستؤثر على كل مطور نماذج تقريبًا ومنصة بيانات في الصناعة. تعاونت Nvidia معvendors 软件 رئيسين مثل SAP وAdobe وCadence وCrowdStrike، بالإضافة إلى مزودي منصات البيانات مثل BOX وDatabricks وSnowflake لدعم NIM.
تعد NIM جزءًا من مجموعة برمجيات NVIDIA Enterprise AI، التي تم إصدارها اليوم في GTC كنسخة 5.0. قال مانوفير داس، نائب رئيس حسابات المؤسسات في Nvidia: "Nvidia NIM هي الحزمة البرمجية الرئيسية والمشغل للمطورين، مما يسمح لهم بالتركيز على تطبيقات المؤسسة."
ما هي Nvidia NIM؟
في جوهرها، تعد NIM حاوية مليئة بالخدمات المصغرة. يمكن أن تستضيف هذه الحاوية نماذج متنوعة - من النماذج المفتوحة إلى الملكية - التي يمكن أن تعمل على أي وحدة معالجة رسومات Nvidia، سواء في السحابة أو على جهاز محلي. يمكن نشر NIM في أي مكان تدعم فيه تقنيات الحاويات، بما في ذلك Kubernetes في السحابة وخوادم Linux أو نماذج Function-as-a-Service بدون خادم. تخطط Nvidia لتقديم نهج الوظائف بدون خادم على موقعها الجديد ai.nvidia.com، مما يمكّن المطورين من البدء في العمل مع NIM قبل النشر.
من المهم أن نلاحظ أن NIM لا تحل محل أساليب توصيل نماذج Nvidia الحالية. بل، إنها تقدم نموذجًا محسنًا بشكل كبير لوحدات معالجة الرسومات Nvidia مع تقنيات أساسية لتحسين الاستدلال. خلال المؤتمر الصحفي، أكدت كاري بريسكي، نائبة رئيس إدارة منتجات البرمجيات للذكاء الاصطناعي التوليدي، التزام Nvidia كأحد شركات المنصة. وأشارت إلى أن الأدوات التي تدعم الاستدلال، مثل TensorRT وTriton Inference Server، لا تزال حيوية.
"جمع هذه المكونات معًا في بيئة الإنتاج لتشغيل الذكاء الاصطناعي التوليدي على نطاق واسع يتطلب خبرة كبيرة، ولهذا قمنا بتغليفها معًا"، أوضحت بريسكي.
نموذج NIM لتعزيز قدرات RAG للمؤسسات
تكمن إحدى التطبيقات الرئيسية لنماذج NIM في تسهيل نماذج نشر RAG. ذكر داس: "تقريبًا كل عميل ناقشنا معه قد نفذ العديد من نماذج RAG." "التحدي هو الانتقال من النمذجة إلى تقديم قيمة تجارية ملموسة في الإنتاج."
تتوقع Nvidia، بالتعاون مع كبار بائعي البيانات، أن توفر NIMs حلاً قابلًا للتطبيق. تعد قدرات قواعد البيانات الاتجاهية أساسية لتمكين RAG، حيث تقوم العديد من الشركات - بما في ذلك Apache Lucene وDatastax وMilvus - بدمج الدعم لنماذج NIM.
سيتم تعزيز نهج RAG بشكل أكبر من خلال دمج خدمات NVIDIA NeMo Retriever المصغرة ضمن نشرات NIM. تم الإعلان عن NeMo Retriever في نوفمبر 2023، وهو مصمم لتحسين استرجاع البيانات لتطبيقات RAG. وأضافت بريسكي: "عندما تقوم بإدراج مستخرج يتم تسريعه وتدريبه على مجموعات بيانات عالية الجودة، فإن التأثير يكون كبيرًا."