عندما قدمت Google DeepMind Gemma في فبراير الماضي، أطلقت نموذجين مفتوحين المصدر يحتويان على 2 مليار و7 مليار متغير. في مؤتمر المطورين Google I/O لهذا العام، كشفت الشركة عن سلسلة Gemma 2، بدءًا بنموذج خفيف الوزن يضم 27 مليار متغير. ومن المقرر إصدار هذا النموذج في يونيو.
وقال جوش وودوارد، نائب رئيس Google Labs، خلال مناقشة مستديرة حديثة: "تم اختيار هذا النموذج البالغ 27 مليار متغير بشكل مقصود. إنه مُحسّن لأحدث وحدات معالجة الرسوميات من Nvidia أو وحدة TPU واحدة في Vertex AI، مما يجعله سهل الاستخدام. نرى بالفعل جودة ممتازة، حيث تتجاوز الأداء النماذج التي ضعف حجمه."
تم تصميم Gemma للمطورين الذين يسعون لدمج الذكاء الاصطناعي في التطبيقات والأجهزة دون الحاجة لموارد كبيرة في الذاكرة أو القدرة على المعالجة. وهذا يجعلها مثالية للبيئات ذات الموارد المحدودة، مثل الهواتف الذكية، وأجهزة إنترنت الأشياء، وأجهزة الكمبيوتر الشخصية. منذ الإطلاق الأول، قدمت Google عدة نسخ، بما في ذلك CodeGemma لإكمال الكود، وRecurrentGemma لتحسين كفاءة الذاكرة، وPaliGemma الذي تم إطلاقه مؤخرًا لمهام الرؤية واللغة.
مع 27 مليار متغير، من المتوقع أن يقدم Gemma 2 دقة وأداء محسّنين لمهام أكثر تعقيدًا مقارنةً بسابقيه. يمنح الوصول إلى مجموعة بيانات تدريبية أكبر الذكاء الاصطناعي القدرة على إنتاج استجابات عالية الجودة بسرعة أكبر.
بينما أشار وودوارد إلى أن Gemma 2 مصمم للعمل على وحدة TPU واحدة، فقد أشار تحديدًا إلى TPUv5e، شريحة Google من الجيل الأخير التي أُطلقت في أغسطس الماضي. وهذا يعني أن Gemma 2 سيحتاج إلى شريحة ذكاء اصطناعي متخصصة واحدة لتحسين الحسابات، مما يؤدي إلى تقليل زمن الاستجابة وزيادة الكفاءة في المهام مثل التعرف على الصور ومعالجة اللغة الطبيعية. تترجم هذه الكفاءة إلى توفير التكاليف للمطورين، مما يتيح لهم إعادة استثمار الموارد في تطبيقاتهم.
يتزامن إطلاق Gemma 2 مع إطلاق OpenAI لـ GPT-4o، نموذجها متعدد الوسائط، ويُعتبر "ترقية كبيرة"، خاصة لمستخدمي ChatGPT المجاني.