أعلنت Google DeepMind اليوم عن إطلاق Gemma، نماذجها الجديدة للذكاء الاصطناعي مفتوحة المصدر التي تتوفر بمعايير 2B و7B. تستفيد هذه النماذج من نفس الأبحاث والتكنولوجيا التي دعمت نماذج Gemini التي تم الكشف عنها مؤخرًا.
ستأتي Gemma بإصدارات مدربة مسبقًا ومدربة على التعليمات، وستتضمن رخصة تجارية مرنة وأداة للذكاء الاصطناعي التوليدي المسؤول. بالإضافة إلى ذلك، توفر Google DeepMind أدوات دعم للتقدير والتدريب المشرف (SFT) تتوافق مع الأطر الرئيسية: JAX وPyTorch وTensorFlow عبر Keras 3.0. يمكن للمطورين الوصول إلى دفاتر Colab وKaggle الجاهزة للاستخدام، كما أن Gemma متوافقة مع Hugging Face وMaxText وNVIDIA NeMo. يمكن تشغيل النماذج المدربة مسبقًا والمدربة على التعليمات على أجهزة اللابتوب والمحطات العمل أو Google Cloud، مع خيارات نشر على Vertex AI وGoogle Kubernetes Engine.
تعاونت NVIDIA أيضًا مع Google لتعزيز تحسينات الأداء عبر جميع منصات الذكاء الاصطناعي الخاصة بها، بما في ذلك أجهزة RTX AI المحلية، لتحسين أداء Gemma.
أشارت جانين بانكس، نائبة رئيس Google ومديرة قسم Developer X، إلى أن نماذج Gemma تمثل استمرارًا لالتزام Google بتكنولوجيا المصدر المفتوح في تطوير الذكاء الاصطناعي، البناء على أدوات مثل TensorFlow وJAX، ونماذج مثل PaLM2 وAlphaFold. وأوضحت أن المطورين غالباً ما يستخدمون كلاً من النماذج المفتوحة وواجهات برمجة التطبيقات (APIs) في مراحل مختلفة من سير العمل. وقالت بانكس: "نهدف لأن نكون المورد الوحيد لكلا من واجهات برمجة التطبيقات والنماذج المفتوحة، مما يوفر أوسع نطاق من القدرات لمجتمعنا".
أعلن تريس وركنتين، مدير إدارة المنتجات في Google DeepMind، أن الشركة ستقوم بإصدار معايير شاملة تقيم Gemma إلى جانب نماذج أخرى، والتي ستكون متاحة على لوحات القادة OpenLLM. وأعرب عن فخره بالنهج الشفاف والموجه نحو المجتمع الذي تم اتخاذه خلال تطوير النماذج، قائلاً: "نتعاون مع NVIDIA وHugging Face لضمان تشغيل جميع المعايير العامة ضد هذه النماذج".
وصفت Gemma بأنها "مسؤولة بالفعل". وأكد وركنتين أن هذه النماذج قد خضعت لتقييمات شاملة لضمان السلامة. وأوضح منشور مدونة Google DeepMind أن Gemma تتماشى مع مبادئ الذكاء الاصطناعي، حيث تشمل تقنيات آلية لتصفية المعلومات الشخصية من مجموعات البيانات التدريبية واستخدام التعلم المعزز من ردود الفعل البشرية (RLHF) لتعزيز السلوك المسؤول. تم إجراء تقييمات صارمة، بما في ذلك الاختبار اليدوي و الاختبار الآلي المعادي، لتقييم ملفات مخاطر النماذج.
كما أكد وركنتين على أهمية وجود نظام مفتوح لتعزيز الذكاء الاصطناعي المسؤول. وقال: "نعتقد أن وجهات النظر المتنوعة من المطورين والباحثين حول العالم ضرورية للحصول على ملاحظات فعالة وأنظمة سلامة محسّنة". وأشار إلى أن "دمج هذه الملاحظات والتواصل مع المجتمع هو المفتاح لقيمة هذا المشروع".