تذكير حول الدردشة المدعومة بالذكاء الاصطناعي
يمكن للدردشة المدعومة بالذكاء الاصطناعي، مثل ChatGPT، أن تقدم معلومات مختلقة بثقة، تمامًا كما قد يوجهك نظام GPS بشكل خاطئ لعبور بحيرة. يأتي هذا التذكير من تجربة حديثة أجراها مختبر Nieman، والتي عُقدت لتحديد ما إذا كان بإمكان ChatGPT توفير روابط دقيقة لمقالات من منظمات إخبارية لديها عقود مربحة مع OpenAI.
كانت النتائج مقلقة. بدلاً من تقديم عناوين URL صحيحة، أنتج ChatGPT روابط وهمية تمامًا أدت إلى صفحات خطأ 404. يُشار إلى هذه الظاهرة في صناعة الذكاء الاصطناعي باسم "الهلاوس"، وهو مصطلح يصف بشكل دقيق نظامًا يُخطئ بتمثيل المعلومات بثقة. طلب أندرو ديك من مختبر Nieman من ChatGPT إنشاء روابط لمقالات حصرية من عشرة ناشرين كبار. وكانت النتائج مشابهة للاختبارات السابقة، بما في ذلك واحدة مع Business Insider، التي أنتجت أيضًا عناوين URL غير صحيحة.
أكد أحد ممثلي OpenAI لمختبر Nieman أن الشركة لا تزال تطور نظامًا مصممًا لدمج قدرات الذكاء الاصطناعي المحادثاتي مع محتوى الأخبار اللحظي. يهدف هذا النظام إلى ضمان الإشارة الصحيحة والربط الدقيق بالمواد المصدر، لكن التفاصيل حول الجدول الزمني للإصدار والموثوقية لا تزال غير واضحة.
على الرغم من هذه الشكوك، تستمر المنظمات الإخبارية في إدخال محتوى كبير في نماذج OpenAI مقابل تعويض مالي، مما يسبب غالبًا تضحيات في نزاهتها. في الوقت نفسه، تستفيد شركات الذكاء الاصطناعي من محتوى غير متعاقد عليه من مصادر متنوعة لتدريب نماذجها. وصف مصطفى سليمان، رئيس الذكاء الاصطناعي في مايكروسوفت، كل محتوى الإنترنت المنشور بأنه "مجاني"، مما يعزز ثقافة الاستغلال. بلغت قيمة سوق مايكروسوفت 3.36 تريليون دولار في وقت كتابة هذه السطور.
الاستنتاج الرئيسي واضح: إذا كان ChatGPT يقوم بتزيف عناوين URL، فمن المحتمل أيضًا أنه يزيف الحقائق. في جوهره، يعمل الذكاء الاصطناعي التوليدي كأداة إكمال تلقائية متقدمة، تتنبأ فقط بالكلمة التالية المنطقية في تسلسل دون فهم حقيقي. على سبيل المثال، عندما اختبرت الروبوتات للدردشة الرائدة لمساعدتي في حل لعبة Spelling Bee لموقع نيويورك تايمز، واجهت صعوبة كبيرة. وهذا يدل على أن الاعتماد على الذكاء الاصطناعي التوليدي للمعلومات الواقعية ينطوي على مخاطر في أفضل الأحوال.