يُحدث باحثو Google ثورة في مجال الذكاء الاصطناعي من خلال تعليم الذكاء الاصطناعي كيفية الرد بعبارة "لا أعرف". هذه الطريقة الرائدة، المعروفة باسم ASPIRE، قد تُغير كيف نتفاعل مع مساعدينّنا الرقميين من خلال تشجيعهم على التعبير عن عدم اليقين عند عدم توفر إجابة واضحة.
تم الكشف عن ASPIRE في مؤتمر EMNLP 2023، وهو اختصار لعبارة "التكيف مع التقييم الذاتي لتحسين التنبؤ الانتقائي في نماذج اللغة الكبيرة"، ويعمل كعداد داخلي للثقة في الذكاء الاصطناعي. هذه الابتكار يمكّن الذكاء الاصطناعي من تقييم ردوده قبل تقديمها.
تخيل أنك تسأل هاتفك الذكي عن نصيحة بشأن مسألة صحية. بدلاً من تقديم معلومات قد تكون خاطئة، يمكن أن يجيب الذكاء الاصطناعي، "لست متأكدًا"، بفضل ASPIRE. تُدرب هذه الطريقة الذكاء الاصطناعي على منح تقييم الثقة لإجاباته، مما يساعد المستخدمين على قياس مدى الثقة التي يمكنهم وضعها في ردوده.
يقود فريق البحث، بما في ذلك جيفنغ تشين وجنسونغ يونس من Google، حركة نحو اتخاذ قرارات رقمية أكثر موثوقية. ويؤكدون على أهمية اعتراف الذكاء الاصطناعي بحدوده، خاصةً عند تقديم معلومات حيوية.
يقول تشين، الباحث في جامعة ويسكونسن-ماديسون ومؤلف مشارك في الدراسة، "يمكن لنماذج اللغة الكبيرة الآن فهم وتوليد اللغة بمستويات غير مسبوقة، لكن استخدامها في التطبيقات ذات المخاطر العالية محدود لأنها أحيانًا ترتكب أخطاء بثقة عالية".
تشير نتائجهم إلى أن النماذج الأصغر من الذكاء الاصطناعي المزودة بـ ASPIRE يمكن أن تتفوق على النماذج الأكبر التي تفتقر إلى هذه الميزة في التقييم الذاتي. يساهم إطار عمل ASPIRE في تطوير ذكاء اصطناعي أكثر حذرًا، وبشكل متناقض، أكثر موثوقية، قادر على التعرف على متى ينبغي أن يكون الإنسان هو الأنسب لتقديم الإجابة.
من خلال إعطاء الأولوية للصدق على التخمين، يهدف ASPIRE إلى تعزيز موثوقية التفاعلات مع الذكاء الاصطناعي. هذا يمهد الطريق لمستقبل يكون فيه مساعدك الذكي بمثابة مستشار مدروس، يحتفل بقوة قول "لا أعرف" كعلامة حقيقية على الذكاء.