ظهر ChatGPT في أواخر عام 2022 ليشعل سباقًا تنافسيًا بين شركات الذكاء الاصطناعي والعمالقة التكنولوجيين، جميعهم يسعون لقيادة السوق المتوسع بسرعة لنماذج اللغة الكبيرة (LLMs). في مواجهة هذه المنافسة الشديدة، اختارت العديد من الشركات تقديم نماذجها اللغوية كخدمات مملوكة، مع توفير الوصول إلى واجهات برمجة التطبيقات بينما تخفي تفاصيل النموذج وبيانات التدريب الخاصة بها.
على عكس الاتجاه نحو النماذج المملوكة، شهد عام 2023 نمواً ملحوظاً في نظام LLM مفتوح المصدر، مع تسليط الضوء على إصدار نماذج يمكن تحميلها وتخصيصها لتطبيقات محددة. هذا التطور أعطى نظام المصدر المفتوح مكانة بارزة في مشهد LLM، مما جعله ينافس بفاعلية الحلول المملوكة.
هل الحجم أكبر يعني الأفضل؟
قبل عام 2023، كان الاعتقاد السائد هو أن زيادة حجم LLMs أمر ضروري لتحسين الأداء. كانت النماذج مفتوحة المصدر مثل BLOOM وOPT، والتي تعادل نموذج GPT-3 من OpenAI بـ 175 مليار معلمة، تمثل هذا النهج. ومع ذلك، كانت هذه النماذج الكبيرة تتطلب موارد حسابية وخبرات كبيرة للتشغيل بشكل فعال.
تغير هذا النمط بشكل كبير في فبراير 2023 عندما أطلقت Meta Llama، وهي سلسلة من النماذج تتراوح من 7 إلى 65 مليار معلمة. أثبتت Llama أن النماذج الأصغر يمكن أن تساوي أداء نظرائها الأكبر، مما يدعم الفكرة القائلة بأن حجم النموذج ليس العامل الوحيد الذي يؤثر على الفاعلية.
كان مفتاح نجاح Llama هو تدريبها على مجموعة بيانات أكبر بكثير. في حين استخدم GPT-3 حوالي 300 مليار رمز، تناولت نماذج Llama حتى 1.4 تريليون رمز، مما يظهر أن تدريب النماذج الصغيرة على مجموعة أكثر اتساعاً من الرموز يمكن أن يكون نهجاً فعالاً.
فوائد النماذج مفتوحة المصدر
استمدت Llama شعبيتها من ميزتين رئيسيتين: قدرتها على العمل على وحدة معالجة رسومات واحدة وإصدارها كمصدر مفتوح. سمحت هذه السهولة للمجتمع البحثي بالاستفادة بسرعة من هيكلها ونتائجها، مما أدى إلى ظهور عدد من نماذج LLM مفتوحة المصدر الملحوظة، مثل Cerebras-GPT من Cerebras، وPythia من EleutherAI، وMPT من MosaicML، وX-GEN من Salesforce، وFalcon من TIIUAE.
في يوليو 2023، أصدرت Meta Llama 2، التي أصبحت بسرعة أساسًا للعديد من النماذج المشتقة. كما أثارت Mistral.AI ضجة بإطلاق نماذجها الاثنين - Mistral وMixtral - وحازت على إشادة من حيث الأداء وتوفير التكاليف.
قال جيف بوديير، رئيس الإنتاج والنمو في Hugging Face: "منذ إصدار Llama الأصلية، تسارع مشهد LLM مفتوح المصدر، حيث تم التعرف على Mixtral كنموذج ثالث الأكثر فائدة في التقييمات البشرية، بعد GPT-4 وClaude."
تم تطوير نماذج إضافية مثل Alpaca وVicuna وDolly وKoala باستخدام هذه النماذج الأساسية، مخصصة لتطبيقات معينة. تكشف بيانات Hugging Face أن المطورين أنشأوا آلاف النسخ المخصصة. وتجدر الإشارة إلى أن هناك أكثر من 14,500 نتيجة لـ "Llama"، و3,500 لـ "Mistral"، و2,400 لـ "Falcon". على الرغم من إصدار Mixtral في ديسمبر 2023، إلا أنه قد تم استخدامه كأساس لـ 150 مشروعًا بالفعل.
تشجع الطبيعة مفتوحة المصدر لهذه النماذج على الابتكار من خلال تمكين المطورين من إنشاء نماذج جديدة ودمج النماذج القائمة بتكوينات متنوعة، مما يعزز فاعلية LLMs.
مستقبل النماذج مفتوحة المصدر
بينما تستمر النماذج المملوكة في التطور، تبقى المجتمع مفتوح المصدر منافساً قوياً. الشركات الكبرى تتبنى بشكل متزايد نماذج مفتوحة المصدر في منتجاتها، مدركةً قيمتها. أصدرت Microsoft، الداعم الرئيسي لـ OpenAI، نموذجين مفتوحين المصدر، Orca وPhi-2، وقدمت تحسينات في تكامل النماذج مفتوحة المصدر ضمن منصتها Azure AI Studio. بالمثل، قدمت Amazon خدمة Bedrock، وهي خدمة سحابية مصممة لاستضافة كل من النماذج المملوكة ومفتوحة المصدر.
لاحظ بوديير: "في عام 2023، تفاجأ الكثير من الشركات بقدرات LLMs، خصوصاً بعد نجاح ChatGPT." وأضاف: "كلف الرؤساء التنفيذيون فرقهم بتحديد حالات استخدام الذكاء الاصطناعي التوليدي، مما أدى إلى تجارب سريعة وتجارب إثبات المفهوم باستخدام واجهات برمجة التطبيقات للنماذج المغلقة."
ومع ذلك، فإن الاعتماد على واجهات برمجة التطبيقات الخارجية للتقنيات الحيوية يمثل مخاطر، بما في ذلك التعرض المحتمل لرمز المصدر الحسّاس وبيانات العملاء - وهي استراتيجية غير مستدامة على المدى الطويل للشركات التي تركز على خصوصية البيانات والأمان.
يوفر النظام المفتوح المصدر الناشئ مسارًا واعدًا للشركات التي تسعى لتنفيذ الذكاء الاصطناعي التوليدي بينما تعالج احتياجات الخصوصية والامتثال.
وختم بوديير قائلاً: "مع تحول الذكاء الاصطناعي في تطوير التكنولوجيا، كما هو الحال مع الابتكارات السابقة، ستحتاج المؤسسات إلى إنشاء وإدارة حلول الذكاء الاصطناعي داخليًا، لضمان الخصوصية والأمان والامتثال التنظيمي المطلوب لمعلومات العملاء." وأضاف: "استنادًا إلى الاتجاهات التاريخية، يبدو أن ذلك سيعني تبني المصدر المفتوح."