تعتمد نماذج اللغة الكبيرة (LLMs) بشكل أساسي على جودة وكمية البيانات المستخدمة في تدريبها. سعى الباحثون لفترة طويلة إلى إيجاد طرق فعالة تتيح لهذه النماذج تصحيح الأخطاء أثناء إنتاجها للنتائج. وقد أظهرت المبادرات المبكرة، مثل النهج متعدد الوكلاء الذي تم تطويره في MIT، وعدًا مشجعًا في هذا المجال. ومع ذلك، تكشف النتائج الحديثة من Google DeepMind أن LLMs قد تعاني بالفعل من تراجع في الأداء عند محاولة التصحيح الذاتي بشكل مستقل.
في ورقتهم البحثية المعنونة "نماذج اللغة الكبيرة لا تستطيع تصحيح تفكيرها ذاتيًا بعد"، أجرت مجموعة من الباحثين في Google DeepMind تجارب شاملة لتوضيح محدوديات قدرات التصحيح الذاتي لدى LLMs. وأبرز تحليلهم تحديًا كبيرًا: عندما تحاول هذه النماذج تصحيح أخطائها استنادًا فقط إلى الحكم الداخلي—بدون أي توجيه خارجي—تميل إلى الفشل. هذه نقطة تحول ملحوظة عن الأبحاث السابقة التي أشارت إلى أن التصحيح الذاتي الداخلي يمكن أن يكون فعالًا عندما يكون مرشدًا بـ "الأوراكل"—أو التصنيفات الصحيحة المسبقة. غياب هذه الأوراكل يؤدي إلى عدم تحسين دقة النماذج.
أشارت الفرق إلى أن LLMs يجب أن تمتلك قدرات تصحيح ذاتي، خاصةً وأن التغذية المرتدة "غير متاحة في العديد من التطبيقات الواقعية."
التحديات في التصحيح الذاتي
تمثل الهلاوس، وهي مخرجات زائفة تنتجها LLMs، أحد التحديات المختلفة التي تواجه هذه النماذج. على الرغم من أنه لا توجد أنظمة خالية من مثل هذه الأخطاء، إلا أن هناك استراتيجيات للتخفيف، مثل طريقة شجرة AST التي اقترحها Gorilla، ونموذج المجتمع متعدد الوكلاء الذي يستكشفه باحثو MIT.
تخيل سيناريو حيث يدرك روبوت دردشة خدمة العملاء القائم على LLM أنه قدم إجابة غير صحيحة ويقوم بتصحيح الخطأ بشكل مستقل. يركز مجتمع أبحاث الذكاء الاصطناعي بشكل متزايد على جعل هذا السيناريو واقعًا. وقد ناقش باحثو Google هذه الهدف، لكنهم أشاروا إلى أن العديد من التحسينات التي تُنسب إلى التصحيح الذاتي قد تكون نتيجة لمشغلات أولية بشكل ضعيف ثم overshadowed by التغذية الراجعة المصممة بشكل جيد. "في مثل هذه الحالات"، قالوا، "يمكن أن يؤدي دمج التغذية الراجعة في التعليمات الأولية أو تحسين الموجه الأولي إلى نتائج أفضل وتكاليف أقل."
ومع ذلك، لا يلبي هذا التعديل الطموح لتمكين LLMs من التصحيح الذاتي بالكامل. على سبيل المثال، توجيه نموذج إلى "مراجعة إجابتك السابقة وتحديد الأخطاء" قد يؤدي إلى نتائج غير صحيحة، حتى وإن كانت الاستجابة الأولية دقيقة.
استكشاف الاتساق في المخرجات
تضمنت الأبحاث نماذج متنوعة، بما في ذلك ChatGPT من OpenAI، في اختبارات معيارية حيث تم تكليفهم بتوليد البرمجيات. تم تقييم هذه الاستجابات من قِبَل أنظمة قائمة على الوكلاء بحثًا عن الأخطاء لتسهيل التصحيح الذاتي. أوضحت هذه العملية أنه رغم عدم إنتاج أي نموذج ذكاء اصطناعي مخرجات متطابقة بشكل ثابت، يمكن أن تحقق عدة LLMs توافقًا جماعيًا حول استجابة متسقة.
تشدد الأبحاث على مفهوم الاتساق الذاتي، مؤكدين أن التحسينات الملحوظة لا تنبع من التصحيح الذاتي، بل من زيادة الاتساق بين مخرجات النماذج. يكمن الفرق فيما إذا كانت آلية التصويت تعتمد على رؤى مدفوعة بالنموذج أو على مجرد حسابات للردود. لذلك، لتصنيف شيء ما على أنه تصحيح ذاتي، من الضروري استبعاد تأثيرات الاختيار الناتجة عن إنتاج مخرجات متعددة.
الطريق نحو تصحيح ذاتي فعّال
يبقى السؤال: متى ستصبح القدرة على التصحيح الذاتي الحقيقي في LLMs ممكنة؟ تقترح Google DeepMind أن القدرات التصحيح الذاتي قد تكون مفيدة بشكل خاص في التطبيقات التي تتطلب توليد استجابات أكثر أمانًا. تشير الدراسة إلى النماذج التي تتضمن تسميات صحيحة، مثل نظام "الذكاء الدستوري" من Claude، الذي قد يساعد LLMs في تجنب الاستجابات غير الصحيحة خلال عملية التفكير.
حاليًا، تفتقر LLMs إلى القدرة على تصحيح تفكيرها بشكل مستقل دون مدخلات خارجية. يعبر الباحثون عن أن الاعتقاد بأن هذه النماذج ستطور في النهاية قدرات تصحيح ذاتية مستقلة هو أمر متفائل للغاية. بدلاً من ذلك، يدعون إلى تحسين النماذج الحالية من أجل إعدادها بشكل أفضل للتصحيح الذاتي في المستقبل.
للتقدم في هذا المجال المهم، يدعو الباحثون إلى تبني وجهة نظر دقيقة بشأن التصحيح الذاتي—تقدير إمكاناته مع فهم حدوده. سيوفر هذا النهج المتوازن موقعًا أفضل لـ LLMs من أجل تحسينات في الدقة والموثوقية، مما يوجه تطورها كأدوات دقيقة وموثوقة في مختلف التطبيقات.