لماذا الذكاء الاصطناعي هو قائد مغشوش مفرط الثقة: استكشاف حدوده وفجوات معرفته

ثقة في الذكاء الاصطناعي: أهمية التبرير في مخرجات الذكاء الاصطناعي

يعتمد أكثر من 500 مليون شخص شهريًا على Gemini وChatGPT للحصول على معلومات تتراوح بين كيفية طهي المعكرونة إلى التعامل مع مواضيع الواجبات المعقدة. ومع ذلك، إذا أوصى الذكاء الاصطناعي بطهي المعكرونة في البنزين، فمن الصعب الثقة في موثوقيته في مجالات أخرى مثل وسائل منع الحمل أو علم الجبر.

في المنتدى الاقتصادي العالمي هذا يناير، أكد سام ألتمان، المدير التنفيذي لشركة OpenAI، على أهمية الشفافية في مخرجات الذكاء الاصطناعي: "لا يمكنني النظر في عقلك لفهم أفكارك، ولكن يمكنني أن أطلب منك توضيح reasoning الخاصة بك وتحديد ما إذا كانت معقولة. أعتقد أن أنظمة الذكاء الاصطناعي لدينا ستتمكن من فعل الشيء نفسه."

المعرفة تتطلب تبريرًا

يسعى ألتمان إلى تعزيز الثقة في نماذج اللغة الكبيرة (LLMs) مثل ChatGPT من خلال اقتراح أنها يمكن أن تقدم تفسيرات واضحة لمخرجاتها. بدون تبرير سليم، لا يمكن اعتبار المعتقدات معرفة. متى نشعر بأن لدينا ما يبرر ما نعرفه؟ عادةً عندما تدعم معتقداتنا أدلة موثوقة أو حجج منطقية أو شهادة مصادر موثوقة.

تم تصميم نماذج اللغة الكبيرة لتكون مصادر موثوقة للمعلومات، ولكن بدون القدرة على تفسير reasoning الخاصة بها، نفتقر إلى الاطمئنان بأن ادعاءاتها تلبي معايير التبرير الخاصة بنا. على سبيل المثال، إذا زعمت أن ضباب اليوم في تينيسي ناتج عن حرائق الغابات في كندا، قد أقبل بيانك. ولكن إذا زعمت سابقًا أن قتال الثعابين شائع في دفاعات الرسائل العلمية، تتعرض مصداقيتك للخطر. سأبحث حينها عن توضيح reasoning لديك بخصوص الضباب.

قيود فهم الذكاء الاصطناعي

لا يمكن لنظم الذكاء الاصطناعي اليوم كسب ثقتنا من خلال reasoning، لأنها تفتقر إلى القدرة على ذلك. بدلاً من ذلك، يتم تدريب نماذج اللغة على مجموعات بيانات واسعة لاكتشاف الأنماط اللغوية. عند إعطاء تنبيه، تولد الأداة استجابة بناءً على هذه الأنماط، غالبًا بطريقة تقليد الكلام البشري البارع. ومع ذلك، لا يضمن هذا العملية دقة أو تبرير المحتوى. كما يؤكد هيكس وهامفريز وسلايتر في "ChatGPT هراء"، فإن نماذج اللغة تنتج نصًا يبدو مقنعًا ولكنه يفتقر إلى اهتمام حقيقي بالحقيقة.

إذا لم تكن المحتويات التي ينتجها الذكاء الصناعي تعادل المعرفة البشرية، فما هي؟ قد يبدو غير دقيق تصنيف جميع المخرجات كـ "هراء"، ولكن العديد من ردود LLM صحيحة من الناحية الواقعية، مما يؤدي إلى ما يسميه الفلاسفة "حالات جيتير". تحدث هذه الحالات عندما توجد معتقدات صحيحة إلى جانب نقص في الفهم حول تبريرها.

مخرجات الذكاء الاصطناعي كأوهام

لتوضيح ذلك، لنفترض سيناريو مستوحى من الفيلسوف الهندي البوذي من القرن الثامن، دارموتارا: تخيل البحث عن الماء في يوم مُشمس. ترى ما يبدو كالماء، لكنك تكتشف أنه سراب. عند وصولك إلى تلك النقطة، تجد الماء الحقيقي تحت صخرة. هل يمكنك الادعاء بأن لديك معرفة حقيقية بنوع الماء الذي كنت تبحث عنه؟

سيتفق معظم الناس على أن هؤلاء المسافرين لا يمتلكون أي معرفة حقيقية، إنهم ببساطة وجدوا الماء رغم عدم وجود reasoning قوي يتوقع وجوده.

عندما ندعي أن لدينا معرفة بشيء تعلمناه من LLM، فإننا نضع أنفسنا في وضع مشابه لوضع مسافري دارموتارا. إذا تم تدريب LLM بشكل فعال، فمن المحتمل أن تكون مخرجاته صحيحة، مماثلة لاكتشاف الماء في المكان المتوقع. ومع ذلك، فإن التبرير الذي يدعم الادعاء موجود somewhere داخل مجموعة البيانات ولكنه لا يلعب أي دور في توليد المخرجات.

لذا، فإن تأكيدات ألتمان قد تكون مضللة. إذا طلبت من LLM تبرير مخرجاته، فإنه سيخلق تبريرًا مقنعًا ولكنه سطحي - "تبرير جيتير"، كما يصفه هيكس وآخرون. هذا التقليد للتبرير يفتقر إلى أساس حقيقي.

خطر التبريرات المضللة

حاليًا، غالبًا ما تسيء نظم الذكاء الاصطناعي تفسير أو "تخيل" المعلومات الواقعية، مما يؤدي إلى تناقض. مع استمرار تزايد وهم التبرير إقناعًا، نواجه نتيجتين محتملتين:

1. مستخدمون مطلعون: أولئك الذين يدركون القيود الفطرية للذكاء الاصطناعي سيتعرفون على أن LLM تنتج ادعاءات مضللة.

2. مستخدمون غير مطلعين: الأفراد الذين لا يفهمون طبيعة مخرجات الذكاء الاصطناعي قد يتم تضليلهم، مما يجعل من الصعب التمييز بين الحقيقة والخيال.

الحاجة إلى التبرير في مخرجات الذكاء الاصطناعي

بينما تعتبر LLM أدوات قوية، فإنها تنتج مخرجات تستلزم التدقيق. يعتمد المستخدمون، وخاصة أولئك الذين لا يمتلكون خبرة، على الذكاء الاصطناعي للحصول على معرفة حاسمة - كالمراهقين الباحثين عن المساعدة في علم الجبر أو النصائح حول ممارسة الجنس الآمن. لضمان المساءلة والثقة في مخرجات الذكاء الاصطناعي، يجب علينا فهم التبرير وراء كل ادعاء.

لحسن الحظ، يعرف الكثيرون أن زيت الزيتون هو خيار أفضل من البنزين لطهي المعكرونة. لكن كم من الوصفات الضارة المحتملة للواقع قبلناها بلا تساؤل من الذكاء الاصطناعي دون استجواب تبريرها؟

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles