نvidia تضاعف أداء استنتاج الذكاء الاصطناعي ثلاث مرات، بينما تضاعف intel الأداء في أحدث نتائج معيار MLPerf.

إطلاق MLCommons لمعيار MLPerf 4.0: مرجع لأداء الذكاء الاصطناعي في الاستدلال

كشفت MLCommons عن معايير MLPerf 4.0 للأداء في الاستدلال الذكاء الاصطناعي، مسلطةً الضوء على التقدم السريع في البرمجيات والأجهزة.

مع تطور الذكاء الاصطناعي التوليدي وزيادة اعتماده، أصبح الطلب على إطار مرجعي لأداء محايد للبائعين أكثر أهمية من أي وقت مضى. تلبيةً لهذه الحاجة، توفر معايير MLPerf رؤى قيمة حول قدرات التدريب والاستدلال. تشكل نتائج MLPerf 4.0 أول تحديث منذ نشر نتائج MLPerf 3.1 في سبتمبر 2023.

شهدت التطورات في الذكاء الاصطناعي تقدمًا كبيرًا خلال الأشهر الستة الماضية، حيث عززت شركات الأجهزة الكبرى مثل Nvidia وIntel منتجاتها لتحسين أداء الاستدلال. تظهر نتائج MLPerf 4.0 تحسينات ملحوظة في تقنيات كلا من Nvidia وIntel.

تجدر الإشارة إلى أن معايير الاستدلال في MLPerf قد خضعت لتغييرات أيضًا. بينما كانت MLPerf 3.1 تستخدم نموذج GPT-J بــ 6 مليارات معلمة لتلخيص النصوص، يركز MLPerf 4.0 على نموذج Llama 2 متعدد الاستخدامات بــ 70 مليار معلمة للإجابة على الأسئلة. بالإضافة إلى ذلك، للمرة الأولى، يقدم MLPerf 4.0 معيارًا لإنشاء الصور باستخدام الذكاء الاصطناعي التوليدي من خلال Stable Diffusion.

قال ديفيد كانتر، مؤسس MLCommons ومديرها التنفيذي، خلال مؤتمر صحفي: "تعمل MLPerf كمعيار صناعي لتحسين السرعة والكفاءة والدقة في الذكاء الاصطناعي".

أهمية معايير الذكاء الاصطناعي

تتضمن معايير MLCommons الأخيرة أكثر من 8500 نتيجة أداء، تقيم مجموعة متنوعة من تركيبات الأجهزة والبرمجيات وحالات استخدام الاستدلال الذكاء الاصطناعي. وشدد كانتر على أهمية تأسيس مقاييس موثوقة لقياس أداء الذكاء الاصطناعي.

وأوضح: "الهدف هو إنشاء مقاييس قوية تقيس قدرات الذكاء الاصطناعي، مما يمكّن من تحسينات مستقبلية".

تهدف MLCommons إلى توحيد الصناعة من خلال إجراء اختبارات موحدة باستخدام مجموعات بيانات وتكوينات متسقة عبر أنظمة مختلفة. تتم مشاركة جميع النتائج مع المشاركين، مما يعزز الشفافية والتعاون في التحسين.

في النهاية، تمكّن هذه الطريقة الموحدة المؤسسات من اتخاذ قرارات مستنيرة عند اختيار حلول الذكاء الاصطناعي.

وأشار كانتر: "يساعد ذلك المشترين في تقييم الأنظمة—سواء كانت محلية أو سحابية أو مدمجة—استنادًا إلى أحمال العمل ذات الصلة". "إذا كنت تبحث عن نظام لتشغيل استدلال نموذج اللغة الكبير، يمكن أن تساعدك المعايير في توجيه اختياراتك".

Nvidia تتصدر أداء استدلال الذكاء الاصطناعي

تظهر Nvidia مرة أخرى سيطرتها في معايير MLPerf من خلال نتائج رائعة.

بينما تعزز الأجهزة الجديدة عادةً الأداء، نجحت Nvidia في تحسين قدرات الاستدلال على تقنياتها الحالية. من خلال استخدام تقنية الاستدلال مفتوحة المصدر TensorRT-LLM من Nvidia، زادت الشركة من أداء استدلال بطاقة H100 Hopper تقريبًا ثلاثة أضعاف لتلخيص النصوص باستخدام نموذج GPT-J.

أعرب ديف سالفادور، مدير منتجات الحوسبة المعجلة في Nvidia، عن حماسه بشأن المكاسب في الأداء التي تحقق في غضون ستة أشهر. "لقد قمنا بتحسين الأداء بشكل كبير، بفضل جهود فريق الهندسة لدينا لتحسين بنية Hopper"، قال.

قبل أسبوع فقط في GTC، أعلنت Nvidia عن بطاقة Blackwell، الوريث لبنية Hopper. على الرغم من عدم تأكيد الجدول الزمني لاختبار Blackwell في MLPerf، يأمل سالفادور أن يحدث ذلك قريبًا.

حتى قبل اختبار Blackwell، تتميز نتائج MLPerf 4.0 ببطاقة H200 الجديدة، التي تقدم أداء استدلال أسرع حتى 45% مقارنةً بـ H100 عند تقييمها مع Llama 2.

Intel تعزز أهمية وحدات المعالجة المركزية في استدلال الذكاء الاصطناعي

شاركت Intel بنشاط في معايير MLPerf 4.0، حيث عرضت تقنيات مسرع Habana AI ووحدات المعالجة المركزية Xeon.

على الرغم من أن نتائج أداء Gaudi تتخلف عن بطاقة Nvidia H100، تؤكد Intel أنها تقدم نسب سعر إلى أداء أفضل. والأهم من ذلك، تُظهر معالج Intel Xeon من الجيل الخامس زيادة مثيرة للإعجاب في مهام الاستدلال.

خلال مؤتمر صحفي، أشار روناك شاه، مدير منتجات الذكاء الاصطناعي لـ Xeon في Intel، إلى أن Xeon من الجيل الخامس أسرع بمعدل 1.42 مرة في الاستدلال مقارنةً بالجيل السابق. وبشكل محدد، بالنسبة لمهمة تلخيص النصوص باستخدام GPT-J، حقق Xeon من الجيل الخامس سرعات تصل إلى 1.9 مرة أسرع.

قال شاه: "نفهم أن العديد من المؤسسات تحتاج إلى حلول تجمع بين القدرات العامة والذكاء الاصطناعي". "تم تصميم وحدات المعالجة المركزية لدينا لدمج معالجة قوية للأغراض العامة مع أداء الذكاء الاصطناعي المتقدم من خلال محرك AMX لدينا".

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles