Nvidia تطلق خدمات الميكروسيرفيسس لتسريع استدلال الذكاء الاصطناعي لنشر التطبيقات بسرعة.

قدّم جنسن هوانغ، الرئيس التنفيذي لشركة إنفيديا، كلمة رئيسية في مؤتمر Computex في تايوان، تناول فيها كيف يمكن لخدمات إنفيديا الصغيرة للتنبؤ (NIM) تحويل نشر نماذج الذكاء الاصطناعي من أسابيع إلى دقائق قليلة.

أوضح هوانغ أن 28 مليون مطور في العالم يمكنهم الآن تحميل NIM، الذي يقدم نماذج ذكاء اصطناعي محسّنة كحاويات للنشر عبر السحب ومراكز البيانات ومحطات العمل. تمكن هذه التقنية المستخدمين من إنشاء تطبيقات ذكاء اصطناعي مولّدة بسرعة، مثل مساعدي الذكاء الاصطناعي والدردشة، مما يعزز الإنتاجية بشكل ملحوظ.

ومع تزايد تعقيد تطبيقات الذكاء الاصطناعي واعتمادها على نماذج متعددة لتوليد النصوص والصور والفيديو والصوت، يعمل NIM على تسهيل دمج الذكاء الاصطناعي المولّد في التطبيقات القائمة. هذه الكفاءة تنعكس على الشركات، مما يتيح لها زيادة الاستفادة من استثمارات البنية التحتية. على سبيل المثال، يمكن أن يؤدي تشغيل نموذج Meta Llama 3-8B عبر NIM إلى إنتاج ثلاثة أضعاف رموز الذكاء الاصطناعي المولّدة مقارنة باستخدامه بدونه، مما يعزز المخرجات دون تكاليف حاسوبية إضافية.

قامت حوالي 200 شركة تقنية، بما في ذلك Cadence وCloudera وDataStax، بدمج NIM في منصاتها لتسريع نشر الذكاء الاصطناعي المولّد لتطبيقات متخصصة، بينما بدأت Hugging Face أيضًا بتقديم NIM، بدءًا من نموذج Meta Llama 3.

قال هوانغ: "تسعى كل شركة إلى دمج الذكاء الاصطناعي المولّد، لكن ليس جميعها تمتلك فرق بحث مخصصة للذكاء الاصطناعي. إن NIM يجعل الذكاء الاصطناعي المولّد متاحًا لجميع المؤسسات من خلال دمجه عبر المنصات في كل مكان".

يسهل NIM نشر تطبيقات الذكاء الاصطناعي عبر منصة إنفيديا للبرمجيات المؤسسية. بدءًا من الشهر المقبل، سيتمكن أعضاء برنامج مطوري إنفيديا من الوصول إلى NIM مجانًا لأغراض البحث والاختبار على البنى التحتية المفضلة لديهم.

يتضمن NIM أكثر من 40 خدمة صغيرة تلبي احتياجات صناعات متنوعة، مثل الرعاية الصحية. تم بناء حاويات NIM مسبقًا للتنبؤ المسرّع بواسطة وحدات معالجة الرسوميات ويمكن دمجها مع برمجيات إنفيديا مثل CUDA وTriton Inference Server وTensorRT-LLM.

يمكن للمطورين الوصول إلى خدمات NIM الصغيرة الخاصة بـ Meta Llama 3 عبر منصة Hugging Face، مما يسمح بنشر نماذج Llama 3 بسهولة وبضغطة زر. ويمكن للشركات الاستفادة من NIM في توليد النصوص والصور والفيديو والصوت وحتى إنشاء الكائنات الرقمية. بالإضافة إلى ذلك، تساعد خدمات NIM الخاصة بـ Nvidia BioNeMo الباحثين في ابتكار هياكل بروتينية جديدة لتسريع اكتشاف الأدوية.

تستفيد العديد من منظمات الرعاية الصحية من NIM في تطبيقات متنوعة، بما في ذلك التخطيط الجراحي وتحسين التجارب السريرية.

تدعم شركات التكنولوجيا الكبرى مثل Canonical وRed Hat وVMware NIM على منصة KServe مفتوحة المصدر، بينما تعمد شركات الذكاء الاصطناعي مثل Hippocratic AI وGlean إلى دمج NIM لتنبؤات الذكاء الاصطناعي المولّد. وتعمل شركات استشارية عالمية رئيسية، بما في ذلك Accenture وDeloitte، على تطوير كفاءات NIM لمساعدة الشركات على إطلاق استراتيجيات الذكاء الاصطناعي بسرعة.

يمكن نشر التطبيقات المدعومة بـ NIM على أنظمة معتمدة من إنفيديا، بما في ذلك أنظمة Cisco وDell Technologies وغيرها من الشركات الكبرى، بالإضافة إلى منصات سحابية مثل AWS وGoogle Cloud. وتقوم شركات بارزة مثل Foxconn وLowe’s بتطبيق NIM في مجالات مثل التصنيع والرعاية الصحية.

تعمل إنفيديا على توسيع برنامج أنظمتها المعتمدة، لضمان تحسين المنصات للذكاء الاصطناعي والحوسبة المسرّعة. تشمل الشهادات الجديدة أنظمة Spectrum-X Ready لمراكز البيانات وأنظمة IGX للحوسبة الطرفية، وكلاهما موثوق من حيث الأداء المؤسسي.

من خلال NIM، تقوم الشركات في جميع أنحاء العالم بإنشاء "مصانع ذكاء اصطناعي" لتبسيط معالجة البيانات وتعزيز إنتاجية الذكاء. سيسهل NIM، جنبًا إلى جنب مع KServe، نشر الذكاء الاصطناعي المولّد، مما يجعله متاحًا عبر منصات من شركاء مثل Canonical وNutanix.

علاوة على ذلك، أكد هوانغ أن Meta Llama 3، وهو نموذج لغوي كبير متطور تم تدريبه باستخدام حوسبة إنفيديا المسرعة، يحسن بشكل كبير من سير العمل في مجالات الرعاية الصحية وعلوم الحياة. النموذج متاح الآن كخدمة تنبؤ NIM من إنفيديا على ai.nvidia.com، حيث يتيح للمطورين الأدوات اللازمة للابتكار بشكل مسؤول عبر تطبيقات متنوعة، بما في ذلك التخطيط الجراحي واكتشاف الأدوية.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles