ميتا تطلق نموذج لاما 3.1: نموذج مفتوح المصدر القوي الذي يتحدى هيمنة OpenAI

أطلقت شركة ميتا مؤخرًا نموذج Llama 3.1، الذي تم تسويقه كـ "أقوى نموذج أساسي مفتوح المصدر" متاح اليوم. وفقًا لتدوينة رسمية، يُمثل هذا الإصدار لحظة محورية في تقدم النماذج الكبيرة مفتوحة المصدر، معلنًا عن بداية حقبة جديدة في الذكاء الاصطناعي.

تحتل سلسلة Llama باستمرار الصدارة في مجال النماذج الكبيرة مفتوحة المصدر، حيث تقف ميتا إلى جانب OpenAI لتقديم مستقبل التكنولوجيات المفتوحة والمملوكة. خلال إطلاق Llama 3.1، أكد مارك زوكربيرغ، الرئيس التنفيذي لشركة ميتا، على الدور الحيوي للمصدر المفتوح في تعزيز التطور الإيجابي للذكاء الاصطناعي، معلنًا عن خطط لجعل الذكاء الاصطناعي مفتوح المصدر معيار الصناعة.

يتوفر Llama 3.1 بثلاثة أحجام من المعلمات: 8B، 70B و 405B، مما يلبي احتياجات تطبيقات متنوعة مثل الوكلاء متعدد اللغات، والقدرات المعقدة على التفكير، ودعم الترميز. يتميز النموذج بنافذة سياق موسعة تصل إلى 128K، وهو زيادة ملحوظة من 8K السابقة، ويدعم عدة لغات بما في ذلك الإنجليزية والألمانية والفرنسية. بالإضافة إلى ذلك، يحتوي على قدرات أدوات محسّنة، مما يتيح التكامل مع محركات البحث والتفكير الرياضي عبر Wolfram Alpha، مع تقديم نموذج ترخيص أكثر مرونة يسمح للمستخدمين باستخدام Llama 3.1 لتحسين نماذج اللغة الكبيرة الأخرى.

تشير التقييمات المرجعية إلى أن نموذج Llama 3.1 بـ 405B ينافس النماذج الرائدة مثل GPT-4o وClaude 3.5 Sonnet وGemini Ultra، مما يعزز مركزه كنموذج الأقوى الذي أطلقته ميتا حتى الآن. قبل الإطلاق الرسمي، تم تسريب نتائج تقييم مرجعية داخل مجتمع التكنولوجيا، مما أثار مناقشات واسعة واعترفات بقدرات Llama 3.1 المثيرة للإعجاب.

من الجدير بالذكر أن ميتا نشرت أيضًا ورقة تقنية شاملة من 92 صفحة توضح تطوير وتدريب Llama 3.1، الذي تم تدريبه باستخدام أكثر من 150 تريليون رمز و16,000 من وحدات معالجة الرسوميات NVIDIA H100. لضمان استقرار التدريب، اعتمدت ميتا فقط على هيكل نموذج Transformer، متجنبة النموذج الشائع حاليًا المسمى مزيج الخبراء (MoE).

بعد إطلاق Llama 3.1، سارعت ميتا للتعاون مع عدة شركات لتعزيز نظام بيئي أوسع. بدأت شركات مثل أمازون وDatabricks وNVIDIA بتقديم الدعم لمساعدة المطورين في تحسين وتدريب نماذجهم. في الصين، دمجت Tencent Cloud Llama 3.1 في منصتها TI، وأجرت التعديلات والاختبارات اللازمة.

في حديثه عن أهمية المصدر المفتوح، ذكر زوكربيرغ أنه يمنح المطورين السيطرة على نماذجهم، ويضمن أمان البيانات، ويقلل من تكاليف التطوير. بالنسبة لميتاج، يعد المصدر المفتوح أمرًا حيويًا للحفاظ على القدرة التنافسية التكنولوجية. وأكد أن نظامًا بيئيًا مفتوحًا سيمكن المزيد من الأفراد من الاستفادة من تكنولوجيا الذكاء الاصطناعي، مما يمنع تركيز التكنولوجيا في أيدي بعض الشركات الكبرى.

بينما تواصل الشركات الكبرى الاستثمار بكثافة في قطاع الذكاء الاصطناعي، تقوم ميتا بتحويل تركيزها استراتيجيًا من العالم الافتراضي إلى الذكاء الاصطناعي، مع plans لتعديل ميزانية قسم Reality Labs الخاص بها لدعم فريق أوسع في مجال الذكاء الاصطناعي التوليدي. بالمثل، أكدت Alphabet، الشركة الأم لجوجل، التزامها بالاستثمار في الذكاء الاصطناعي في تقاريرها المالية، مما يدل على أن الشركات الكبرى تتنافس جميعها من أجل الابتكار والانتصارات في مجال الذكاء الاصطناعي.

مع إطلاق Llama 3.1، من المتوقع أن تشتد المنافسة في تكنولوجيا الذكاء الاصطناعي مفتوحة المصدر، حيث تسعى الشركات التكنولوجية الرائدة للتوجه نحو مستقبل التطوير في هذا المجال.

Most people like

Find AI tools in YBX