تدشّن آبل دخولها إلى عالم الذكاء الاصطناعي التوليدي من خلال OpenELM، وهي مجموعة جديدة من نماذج اللغة الكبيرة مفتوحة المصدر (LLMs) التي تم تصميمها للعمل بشكل كامل على الأجهزة المستقلة دون الحاجة إلى الاتصال السحابي. تم إطلاق OpenELM مؤخرًا على مجتمع برمجة الذكاء الاصطناعي Hugging Face، وهي تشمل نماذج صغيرة مُحسّنة لمهام توليد النصوص بكفاءة.
نظرة عامة على OpenELM
تتضمن عائلة OpenELM ثمانية نماذج—أربعة تم تدريبها مسبقًا وأربعة تم ضبطها بناءً على التعليمات—تتفاوت أحجامها من 270 مليون إلى 3 مليارات معلمة. تمثل هذه المعلمات الاتصالات بين الخلايا العصبية الاصطناعية في النموذج، حيث يشير العدد الأكبر عمومًا إلى تحسين الأداء. يسمح التدريب المسبق للنموذج بتوليد نصوص متماسكة، لكن تركيزه الأساسي يكون على توقع النصوص استنادًا إلى الموجهات. بالمقابل، يساعد ضبط التعليمات النموذج على تقديم استجابات أكثر صلة وخصوصية. على سبيل المثال، عند طلب "علّمني كيف أخبز الخبز"، قد يرد النموذج المدرب مسبقًا بشكل غير كافٍ بـ "في فرن منزلي"، بينما سيقدم النموذج المضبط تعليمات شاملة.
قدمت آبل أوزان نماذج OpenELM بموجب "رخصة نموذجية للشفرة"، مما يسمح بالاستخدام التجاري والتعديل، بشرط أن تحتفظ أي توزيعات غير معدلة بالإشعارات والتنبيهات المصاحبة. ومع ذلك، تحذر آبل المستخدمين من أن هذه النماذج قد تنتج مخرجات غير دقيقة أو ضارة أو متحيزة أو غير مقبولة.
الميزات الأساسية لـ OpenELM
تستهدف OpenELM، التي تعني نماذج اللغة الفعّالة مفتوحة المصدر، التطبيقات التي تعمل على الأجهزة، متوازية مع استراتيجيات المنافسين مثل Google وSamsung وMicrosoft. على سبيل المثال، يعمل نموذج Phi-3 Mini الأخير من Microsoft بشكل كامل على الهواتف الذكية، مما يبرز الاتجاه نحو حلول الذكاء الاصطناعي المحمولة.
تم تطوير OpenELM بقيادة ساشين مهتا، مع مساهمات هامة من محمد راستغاري وبيتر زاتلوبكال. تأتي النماذج بأربعة أحجام: 270 مليون، 450 مليون، 1.1 مليار، و3 مليارات معلمة—كلها أصغر من العديد من النماذج الرائدة، التي عادة ما تتجاوز 7 مليارات معلمة. تم تدريبها على مجموعة بيانات ضخمة تتكون من 1.8 تريليون توكن مأخوذة من منصات مثل Reddit وWikipedia وarXiv.org، لضمان فهم لغوي متنوع.
رؤى أداء OpenELM
تشير مقاييس أداء OpenELM إلى نتائج قوية، خاصة من نموذج التعليم بــ 450 مليون معلمة. يُظهر نموذج OpenELM بــ 1.1 مليار معلمة أداءً متفوقًا على OLMo، وهو إصدار حديث من معهد ألين للذكاء الاصطناعي، مُثبتًا فعالية بينما يتطلب عددًا أقل بكثير من التوكينات للتدريب المسبق.
على مقاييس مختلفة، أظهر نموذج OpenELM-3B المدرب مسبقًا الدقة التالية:
- ARC-C: 42.24%
- MMLU: 26.76%
- HellaSwag: 73.28%
تشير تعليقات المستخدمين الأولية إلى أن OpenELM ينتج مخرجات موثوقة ومتوافقة، لكنه يفتقر إلى الإبداع، ومن غير المرجح أن يستكشف مواضيع غير تقليدية أو غير مناسبة. بالمقارنة، يتفوق Phi-3 Mini من Microsoft بأدائه نظرًا لعدد معلماته الأكبر وطول السياق.
خاتمة
بينما يتم اختبار نماذج OpenELM وتحسينها، تحمل هذه النماذج وعودًا لتعزيز تطبيقات الذكاء الاصطناعي على الأجهزة. سيكون من المثير للاهتمام مراقبة كيفية استفادة المجتمع من هذه المبادرة مفتوحة المصدر، خاصة مع الإثارة المحيطة بالتزام آبل بالشفافية والتعاون في مجال الذكاء الاصطناعي.