توسّع مايكروسوفت الوصول إلى عائلة نماذج Phi-3 خفيفة الوزن للمطورين، بعد نحو شهر من الإعلان الأول. تشمل هذه العائلة نماذج Phi-3-medium وPhi-3-small وPhi-3-mini، حيث تم دمج الأخير الآن في Azure AI. بالإضافة إلى ذلك، قدّمت مايكروسوفت النسخة المتعددة الوسائط Phi-3-vision والتي تحتوي على 4.2 مليار معلمة.
نظرة عامة على Phi-3
تم تطوير Phi-3 من قِبل مايكروسوفت للبحوث، وهي نموذج لغوي قوي يضم 3 مليارات معلمة، مصمم لتقديم قدرات استدلال قوية يمكن مقارنتها بالنماذج الأكبر، ولكن بتكلفة أقل. تُعتبر هذه النسخة الرابعة من نماذج مايكروسوفت المدمجة، بعد Phi-1 وPhi-1.5 وPhi-2.
الوكلاء الذكاء الاصطناعي والنماذج الأصغر
تُعزّز الطلبات المتزايدة على حلول الذكاء الاصطناعي التي تعمل محليًا أو على الأجهزة رغبة المطورين في استكشاف نماذج أكثر كفاءة وصغر حجمًا. تشمل عائلة Phi-3 ثلاثة خيارات: Phi-3-mini (3.8 مليار معلمة)، وPhi-3-small (7 مليارات معلمة)، وPhi-3-medium (14 مليار معلمة). وفقًا للشركة، يُظهر Phi-3 أداءً يتماشى مع نموذج GPT-3.5 من OpenAI ولكن بشكل أكثر خفة.
يتزامن إصدار Phi-3 مع تقديم قدرات الذكاء الاصطناعي في أجهزة الكمبيوتر. يمكن للمطورين الآن استغلال هذه النماذج لتعزيز وظائف الذكاء الاصطناعي عبر أجهزة اللاب توب والأجهزة المحمولة والأجهزة القابلة للارتداء.
رؤى حول Phi-3-vision
بالإضافة إلى نماذج Phi-3، تكشف مايكروسوفت عن Phi-3-vision، التي تدعم مهام الاستدلال البصري العامة، بما في ذلك تحليل المخططات والرسوم البيانية والجداول. مع 4.2 مليار معلمة، يمكن للمستخدمين التفاعل مع Phi-3-vision من خلال طرح أسئلة حول تصورات البيانات أو صور معينة.
ومن الجدير بالذكر أن جوجل قدّمت أيضًا نموذجها الخفيف المتعدد الوسائط PaliGemma في مؤتمر المطورين الأخير، الذي يحتوي على 3 مليارات معلمة، وهو أقل بقليل من نموذج مايكروسوفت.
إن قدرة الذكاء الاصطناعي على معالجة أنواع مختلفة من الإدخالات أمر حاسم للمطورين. يمكن أن يُعزز نموذج يجمع بين كفاءة التصميم الخفيف وأداء النماذج اللغوية الأكبر من إمكانية التبني بشكل كبير.
بينما يُعتبر Phi-3-vision حاليًا في مرحلة المعاينة، لم تعلن مايكروسوفت بعد عن توفره للجمهور.