مكافحة المعلومات المضللة من الروبوتات الدردشة: Google DeepMind وجامعة ستانفورد تطلقان أداة للتحقق من الحقائق باستخدام الذكاء الاصطناعي

في 31 مارس، كشفت تقارير حديثة أن التكنولوجيا المتقدمة لروبوتات الدردشة لا تزال تواجه مشكلة شائعة: غالبًا ما تقدم هذه الأنظمة إجابات غير دقيقة. يُعرف هذا الظاهرة بـ"الهلاوس"، حيث تنتج الذكاء الاصطناعي معلومات تبدو موثوقة لكنها في الواقع خاطئة.

لمواجهة هذا التحدي، طور باحثون من Google DeepMind وجامعة ستانفورد أداة تُدعى "مقياس الحقيقة المعزز بالبحث" (SAFE). تستخدم هذه الأداة نماذج لغة ضخمة للتحقق من صحة الردود المطولة التي генرها روبوتات الدردشة. وقد تم إتاحة نتائج أبحاثهم، الكود التجريبي، ومجموعات البيانات للجمهور.

يقوم نظام SAFE بالتحقق من دقة وأصالة الردود التي تنتجها الذكاء الاصطناعي من خلال عملية من أربع خطوات: أولاً، يقوم بتقسيم الرد إلى ادعاءات فردية تحتاج إلى التحقق. ثانياً، يصحح هذه الادعاءات عند الحاجة. ثالثاً، يقارن هذه الادعاءات مع نتائج بحث Google. وأخيراً، يقيم مدى صلة كل حقيقة بالسؤال الأصلي.

لتقييم فعالية النظام، أنشأ الباحثون مجموعة بيانات تُدعى LongFact، تحتوي على حوالي 16,000 حقيقة، واختبروا SAFE عبر 13 نموذج لغة كبيرة، بما في ذلك Claude وGemini وGPT وPaLM-2. وأظهرت النتائج أنه عند تحليل 100 حقيقة مثيرة للجدل، حقق SAFE معدل دقة قدره 76% بعد مراجعة إضافية. علاوة على ذلك، يظهر الإطار كفاءة تكلفة كبيرة، حيث كانت النفقات أقل من 20 مرة مقارنةً بالتعليق اليدوي. هذا التقدم يُعَد خطوة حاسمة نحو تعزيز موثوقية روبوتات الدردشة المدعومة بالذكاء الاصطناعي.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles