توسّع جوجل مجموعة نماذج الذكاء الاصطناعي الخاصة بها لمواجهة التحديات الحرجة في هذا المجال. اليوم، قدمت الشركة DataGemma، وهي مجموعة من النماذج مفتوحة المصدر المعدلة لمساعدتها على تقليل حالات الهَلْوَسَة، حيث تنتج نماذج اللغة الكبيرة (LLMs) استجابات غير دقيقة، وذلك بشكل خاص في الاستفسارات الإحصائية.
تتوفر هذه النماذج الجديدة على منصة Hugging Face لأغراض البحث والعلوم الأكاديمية، وهي تستند إلى بيانات حقيقية واسعة من منصة Data Commons الخاصة بجوجل. تحتوي هذه المنصة العامة على رسم معرفي مفتوح يضم أكثر من 240 مليار نقطة بيانات مستمدة من منظمات موثوقة عبر قطاعات مختلفة، بما في ذلك الاقتصاد والعلوم والصحة.
معالجة الهَلْوَسَات الواقعية
حدثت نماذج اللغة الكبيرة ثورة في التكنولوجيا، مدعومةً بتطبيقات تتراوح بين توليد الشفرات إلى دعم العملاء وتحسين استخدام الموارد للمؤسسات. ورغم تلك التطورات، لا تزال مشكلة الهَلْوَسَة، خصوصًا المتعلقة بالبيانات العددية والإحصائية، قائمة.
وفقًا للباحثين في جوجل، تشمل العوامل المُساهمة في هذه الظاهرة الطبيعة الاحتمالية لمخرجات LLM والافتقار الكافي للتغطية الواقعية في بيانات التدريب. عانت تقنيات الربط التقليدية مع الاستفسارات الإحصائية بسبب تنوع الأنماط والصيغ في البيانات العامة، مما يتطلب سياقًا كبيرًا للتفسير الدقيق.
لتعويض تلك الفجوات، دمج الباحثون Data Commons، أحد أكبر مستودعات البيانات الإحصائية العامة الموحدة، مع عائلة نماذج Gemma اللغوية، مما أدى إلى إنشاء DataGemma.
أساليب مبتكرة لزيادة الدقة
يستخدم DataGemma طريقتين مميزتين لتحسين الدقة الواقعية:
1. توليد متداخل مع الاسترجاع (RIG): تتكامل هذه الطريقة مع الدقة الواقعية من خلال مقارنة النتيجة الأصلية لنموذج LLM مع الإحصائيات ذات الصلة من Data Commons. يتم生成 استفسارات وصفية بلغة طبيعية، تُحوَّل بعدها إلى استفسارات بيانات هيكلية، لاسترجاع الإجابات ذات الصلة إحصائيًا، بما في ذلك الاقتباسات.
2. توليد معزز بالاسترجاع (RAG): تعزز هذه الطريقة النماذج باستخدام الأسئلة الإحصائية الأصلية لاستخراج المتغيرات ذات الصلة وتشكيل استفسارات بلغة طبيعية موجهة إلى Data Commons. تُستخدم البيانات المستخرجة مع السؤال الأصلي لتحفيز نموذج LLM ذو السياق الطويل (هنا، Gemini 1.5 Pro) لتوليد إجابات دقيقة.
نتائج واعدة في الاختبارات
في اختبارات أولية شملت 101 استفسار، حسّنت نماذج DataGemma المعدلة باستخدام RIG الدقة الواقعية بحوالي 5-17% عن الخط الأساسي، محققةً دقة تقارب 58%. رغم أن RAG حققت نتائج أقل قليلاً، إلا أنها تفوقت على النماذج الأساسية.
نجح DataGemma في الإجابة عن 24-29% من الاستفسارات باستخدام الإجابات الإحصائية من Data Commons، مع الحفاظ على دقة تبلغ 99% مع القيم العددية. ومع ذلك، واجهت تحديات في استنتاج المعاني الدقيقة من الأرقام بين 6-20% من الوقت.
تظهر كل من تقنيتي RIG وRAG فعاليتها في تعزيز دقة النموذج للاستفسارات الإحصائية، لا سيما في أوساط البحث واتخاذ القرار. توفر RIG السرعة بينما توفر RAG بيانات أكثر شمولاً لكنها تعتمد على توفر المعلومات وقدرات معالجة السياق الكبير.
تسعى جوجل لتعزيز البحث حول هذه الأساليب من خلال الإطلاق العام لـ DataGemma باستخدام RIG وRAG. وأكدت الشركة، "أبحاثنا مستمرة، ونحن ملتزمون بتحسين هذه المنهجيات بينما نوسع نطاق هذا العمل، مع ضمان إجراء اختبارات صارمة، ودمج هذه الوظائف المحسّنة في كل من نماذج Gemma وGemini عبر نهج مقيد بمرحلته."