في عالم الذكاء الاصطناعي، تواجه الشركات فرصًا وتحديات غير مسبوقة. استجابةً للطلب المتزايد على تطبيقات الذكاء الاصطناعي السريعة والفعالة والمخصصة، أطلقت NVIDIA عدة خدمات مايكرو للذكاء الاصطناعي التوليدي على مستوى المؤسسات في 18 مارس 2024، في مقرها الرئيسي في سان خوسيه، كاليفورنيا. تم تصميم هذه الخدمات لتزويد المطورين بمنصة قوية لإنشاء ونشر مساعدين ذكاء اصطناعي مخصصين، مع ضمان الملكية والسيطرة الكاملة على حقوق الملكية الفكرية للشركات.
تُبنى خدمات الذكاء الاصطناعي التوليدية الجديدة على منصة NVIDIA CUDA، وتتضمن خدمات NIM التي تعزز أداء الاستدلال لأكثر من 20 نموذج ذكاء اصطناعي شائع ضمن نظام NVIDIA البيئي. يمكن للمستخدمين أيضاً الاستفادة من خدمات CUDA-X لاستخدام حزم تطوير البرمجيات المعجلة والمكتبات والأدوات من NVIDIA لمهام مثل تحسين الجيل المعزز بالاسترجاع (RAG)، والحماية، والحوسبة عالية الأداء (HPC). بالإضافة إلى ذلك، قدمت NVIDIA أكثر من 20 خدمة NIM وCUDA-X متخصصة في القطاع الطبي، مما يوسع إمكانيات تطبيقات الذكاء الاصطناعي في الرعاية الصحية.
توفر هذه الخدمات بُعدًا جديدًا لمنصة الحوسبة الشاملة من NVIDIA، مما يربط بشكل وثيق بين مطوري النماذج، ومقدمي المنصات، والشركات لإنشاء نظام بيئي قوي للذكاء الاصطناعي. يمكن للشركات بسهولة نشر نماذج ذكاء اصطناعي مخصصة مصممة للتثبيت على قاعدة NVIDIA CUDA، والتي تتضمن مليارات وحدات معالجة الرسوميات في السحابة ومراكز البيانات ومحطات العمل وأجهزة الكمبيوتر.
أكد المؤسس والرئيس التنفيذي لشركة NVIDIA، جينسين هوانغ، على أن المنصات المؤسسية تمتلك موارد بيانات ضخمة يمكن تحويلها إلى مساعدين للذكاء الاصطناعي التوليدي، مما يعزز القيمة التجارية بشكل كبير. ستعمل خدمات الذكاء الاصطناعي المعبأة التي تم تطويرها بالتعاون مع الشركاء كدعامة اساسية للصناعات التي تنتقل إلى استخدام الذكاء الاصطناعي.
تساهم خدمات استدلال NIM بشكل كبير في تقليل أوقات النشر، حيث تمكنت من اختصار ما كان يستغرق أسابيع في دقائق معدودة. توفر هذه الخدمات حاويات مسبقة البناء تستند إلى برامج استدلال NVIDIA، بما في ذلك خادم الاستدلال Triton وTensorRT-LLM، مما يسمح للمطورين بإنشاء وتوزيع تطبيقات ذكاء اصطناعي بسرعة. علاوةً على ذلك، تقدم خدمات NIM واجهات برمجة التطبيقات المعتمدة في مجالات مثل معالجة اللغة، وتعرف الصوت، واكتشاف الأدوية، مما يمكّن المطورين من استخدام البيانات الخاصة لتطوير تطبيقات ذكاء اصطناعي أكثر أمانًا وكفاءة.
في التطبيقات العملية، بدأت شركات مثل ServiceNow بالفعل باستخدام NIM لتسريع تطوير مساعدين محددين للمنطقة وتطبيقات الذكاء الاصطناعي التوليدية. يمكن للمستخدمين الوصول إلى خدمات NIM من خلال منصات مثل Amazon SageMaker وGoogle Kubernetes Engine وMicrosoft Azure AI، مع دمجها مع أطر عمل الذكاء الاصطناعي الشائعة مثل Deepset وLangChain.
بالإضافة إلى خدمات NIM، توفر خدمات CUDA-X دعمًا كبيرًا لتطوير تطبيقات الذكاء الاصطناعي. تقدم هذه الخدمات وحدات بناء شاملة لإعداد البيانات، والتخصيص، والتدريب، مما يساعد المؤسسات على تسريع تطوير تطبيقات الذكاء الاصطناعي بمستوى الإنتاج. بفضل NVIDIA Riva لتطوير تطبيقات الذكاء الاصطناعي المخصصة في الصوت والترجمة وNVIDIA cuOpt لتحسين التوجيه، يمكن للشركات تحسين أداء ودقة تطبيقات الذكاء الاصطناعي الخاصة بها. علاوةً على ذلك، فإن إطلاق خدمة NeMo Retriever يمكّن المطورين من ربط تطبيقات الذكاء الاصطناعي ببيانات الأعمال بشكل وثيق، مما يحسن من دقة ورؤى مساعدين الذكاء الاصطناعي.
باختصار، تجهيز NVIDIA الشركات بخدمات مايكرو للذكاء الاصطناعي التوليدي على مستوى المؤسسات يوفر لها دعمًا تكنولوجيًا قويًا وزخمًا مبتكرًا. لا تعمل هذه الخدمات على تبسيط عمليات تطوير ونشر تطبيقات الذكاء الاصطناعي فحسب، بل تقدم أيضًا مرونة وأداء متزايدين للمؤسسات. مع استمرار تطور تكنولوجيا الذكاء الاصطناعي، من المتوقع أن تلعب هذه الخدمات دورًا مهمًا في تعزيز انتشار وابتكار تطبيقات الذكاء الاصطناعي.