أعلنت اليوم Cohere for AI (C4AI)، القسم البحثي غير الربحي لشركة Cohere الكندية الناشئة في مجال الذكاء الاصطناعي، عن إصدار الأوزان المفتوحة لعائلة نماذج اللغة المتعددة اللغات Aya 23. تتوفر Aya 23 في نسختين: 8B و35B من المعلمات. في هذا السياق، تمثل المعلمات قوة الروابط بين الخلايا العصبية الاصطناعية، حيث تشير الأرقام الأكبر إلى نموذج أكثر قوة وقدرة. يأتي هذا الإصدار كجزء من مبادرة Aya التابعة لـ C4AI، والتي تهدف إلى تعزيز القدرات اللغوية المتعددة.
لقد جعلت C4AI أوزان Aya 23 مفتوحة المصدر، مما يتيح للباحثين الخارجيين ضبط النموذج ليتناسب مع احتياجاتهم الخاصة. ومع أن هذا لا يمثل إصدارًا كاملًا مفتوح المصدر (والذي يشمل بيانات التدريب وتفاصيل المعمارية)، إلا أنه يوفر مرونة كبيرة، مشابهة لنماذج Llama من Meta.
بناءً على سابقتها، Aya 101، تدعم Aya 23 ثلاث وعشرين لغة: العربية، الصينية (المبسطة والتقليدية)، التشيكية، الهولندية، الإنجليزية، الفرنسية، الألمانية، اليونانية، العبرية، الهندية، الإندونيسية، الإيطالية، اليابانية، الكورية، الفارسية، البولندية، البرتغالية، الرومانية، الروسية، الإسبانية، التركية، الأوكرانية، والفيتنامية.
تدعي Cohere for AI أن هذه النماذج توسع قدرات نمذجة اللغة المتطورة لتغطي تقريبًا نصف سكان العالم. بالإضافة إلى ذلك، تتفوق Aya 23 ليس فقط على Aya 101 ولكن أيضًا على نماذج مفتوحة أخرى مثل Gemma من Google وعروض Mistral، حيث تقدم ردودًا ذات جودة أعلى عبر اللغات المدعومة.
تجاوز حواجز اللغة مع Aya
بينما اكتسبت نماذج اللغة الكبيرة (LLMs) شعبية في السنوات الأخيرة، ركز معظمها بشكل أساسي على اللغة الإنجليزية، مما أدى إلى صعوبة العديد من النماذج مع اللغات الأقل موارد. حدد باحثو C4AI مشكلتين رئيسيتين: نقص النماذج متعددة اللغات المدربة مسبقًا بشكل قوي، وغياب بيانات تدريب ذات أنماط تعليم متنوعة. للتغلب على هذه التحديات، أطلقت C4AI مبادرة Aya، بالتعاون مع أكثر من 3,000 باحث مستقل من 119 دولة. كان إنجازهم الأول هو مجموعة Aya، وهي مجموعة بيانات ضخمة بأسلوب تعليمي متعددة اللغات تحتوي على 513 مليون موجه وكمال، والتي استخدمت لاحقًا لإنشاء نموذج LLM مطابق للتعليم يشمل 101 لغة.
أصدر Aya 101 في فبراير 2024، وكان خطوة كبيرة في نمذجة اللغة المتعددة اللغات. ومع ذلك، فقد تم بناؤه على قاعدة بيانات mT5، التي أصبحت الآن قديمة، وتصميمه الواسع أدى إلى ضعف الأداء عبر اللغات الفردية. مع تقديم Aya 23، انتقلت Cohere for AI نحو نهج متوازن، بالتركيز على 23 لغة لتعزيز الأداء. تعمل هذه النماذج، المستندة إلى سلسلة Command من Cohere ومجموعة Aya، على تحسين جودة التوليد من خلال تكثيف الموارد على عدد أقل من اللغات.
تشير نتائج التقييم إلى أن Aya 23 تتفوق على Aya 101 ونماذج مستخدمة بشكل واسع مثل Gemma وMistral في مهام تمييزية وتوليدية متنوعة. تشمل التحسينات حتى 14% في المهام التمييزية، و20% في المهام التوليدية، و41.6% تحسن في MMLU متعدد اللغات. ومن الجدير بالذكر أن Aya 23 تحقق زيادة بنسبة 6.6 مرة في التفكير الرياضي المتعدد اللغات مقارنةً بـ Aya 101.
متاحة الآن
اتخذت Cohere for AI خطوة مهمة أخرى نحو نماذج متعددة اللغات عالية الأداء. الأوزان المفتوحة لنماذج 8B و35B متاحة الآن على منصة Hugging Face بموجب ترخيص المشاعات الإبداعية للنسب-غير التجارية 4.0.
قال الباحثون: "من خلال إصدار أوزان عائلة نموذج Aya 23، نهدف إلى تمكين الباحثين والممارسين من تعزيز نماذج وتطبيقات متعددة اللغات". يمكن للمستخدمين أيضًا تجربة النماذج الجديدة مجانًا على Cohere Playground.