أظهرت أبحاث حديثة أجرتها جامعة نورث كارولينا في تشابل هيل بالتعاون مع معهد ألين للذكاء الاصطناعي أن روبوت الدردشة الأحدث من OpenAI، GPT-4o، يتفوق على الخبراء البشر في القدرة على استنتاج القضايا الأخلاقية وتقديم المشورة، مما أثار مناقشات واسعة حول تطبيقات الذكاء الاصطناعي في هذا المجال.
نفذت فريق البحث تجربتين مقارنة لاستكشاف الفروقات في قدرات التفكير الأخلاقي بين نموذج GPT والمشاركين البشريين. في التجربة الأولى، قارن 501 بالغ أمريكي التفسيرات الأخلاقية التي قدمها نموذج GPT-3.5-turbo مع تلك التي قدمها البشر. أظهرت النتائج أن تفسيرات الذكاء الاصطناعي كانت تُعتبر أكثر عقلانية وموثوقية وتفكيرًا، حيث اعتبر المشاركون تقييمات الذكاء الاصطناعي أكثر موثوقية من تلك التي قدمها الخبراء البشر. على الرغم من أن الفروقات كانت طفيفة، تشير هذه النتائج إلى أن أداء الذكاء الاصطناعي في التفكير الأخلاقي قد يكون مشابهًا للبشر.
في التجربة الثانية، قُورنت الاقتراحات التي أُنتجت بواسطة GPT-4o بتلك المقدمة من الأخلاقي المعروف كوامي أنطوني أبيا، الذي كان ظهوره في عمود "الأخلاقيات" في صحيفة نيويورك تايمز. من بين 50 معضلة أخلاقية تم تقييم جودة النصيحة فيها، حصل GPT-4o على تقييمات أعلى من الخبراء البشر في جميع المعايير تقريبًا. وقد اعتبر المشاركون بشكل ساحق التوصيات التي أنتجها الذكاء الاصطناعي أكثر دقة أخلاقية وموثوقية وتفكيرًا. النقطة الوحيدة التي لم تُظهر فارقًا كبيرًا كانت في إدراك الفروق الدقيقة، حيث كانت أداء الذكاء الاصطناعي والبشر متشابهًا.
يبرز الباحثون أن هذه النتائج تشير إلى أن GPT-4o قد اجتاز "اختبار تيرينغ الأخلاقي المقارن" (cMTT). تشير التحليلات الإضافية إلى أن GPT-4o يستخدم لغة أكثر أخلاقية وإيجابية عند تقديم النصيحة مقارنةً بالخبراء البشر، مما قد يسهم في ارتفاع تقييماته. ومع ذلك، ليس هذا هو العامل الوحيد، إذ يجب على الدراسات المستقبلية المزيد من التحقيق في إمكانات الذكاء الاصطناعي في التفكير الأخلاقي.
من المهم ملاحظة أن هذه الأبحاث كانت محدودة بالمشاركين الأمريكيين، مما يستدعي الحاجة لإجراء دراسات مستقبلية لاستكشاف وجهات النظر حول التفكير الأخلاقي للذكاء الاصطناعي عبر سياقات ثقافية متنوعة. ومع ذلك، توفر هذه النتائج دعمًا قويًا لدور الذكاء الاصطناعي في اتخاذ القرارات الأخلاقية، مما قد يؤدي إلى مناقشات عميقة حول المسؤوليات الأخلاقية والتنظيم الخاص بالذكاء الاصطناعي.
مع استمرار تقدم تكنولوجيا الذكاء الاصطناعي، ستصبح تطبيقاته في التفكير الأخلاقي شائعة بشكل متزايد. ستؤثر قدرة الذكاء الاصطناعي على اتخاذ القرارات الأخلاقية بشكل كبير على مجالات متنوعة، بما في ذلك التشخيصات الطبية، المركبات الذاتية القيادة، وإدارة محتوى وسائل التواصل الاجتماعي. لذلك، من الضروري معالجة الآثار الأخلاقية للذكاء الاصطناعي وإرساء سياسات ومعايير مناسبة لضمان سلامته وموثوقيته.