هل سمعت عن القصص المقلقة التي أثارت مخاوف واسعة حول الذكاء الاصطناعي؟ خريجة معهد ماساتشوستس للتكنولوجيا، البالغة من العمر 24 عامًا، طلبت من الذكاء الاصطناعي توليد صورة احترافية لملفها الشخصي على LinkedIn، لكنها اكتشفت أن التقنية قد عدلت لون بشرتها لتصبح أفتح وغيرت لون عينيها إلى الأزرق الدائري. قامت ChatGPT بكتابة قصيدة مدح للرئيس بايدن لكنها رفضت فعل الشيء نفسه للرئيس السابق ترامب. في الهند، عبّر المواطنون عن استيائهم عندما أنشأ نموذج لغوي كبير نكاتًا تتعلق بشخصيات رئيسية في الهندوسية، في حين تجنب السخرية من الشخصيات المرتبطة بالمسيحية والإسلام.
تُثير هذه الحوادث مشاعر القلق الوجودي، حيث تُظهر سيناريو يتم فيه التأثير على الرأي العام وتشكل الإيديولوجيات عن طريق الذكاء الاصطناعي. رغم أن المناقشات حول الذكاء الاصطناعي غالبًا ما تميل نحو المهنية، ثمة حاجة متزايدة لمواجهة هذه المخاوف بصورة واضحة. إذا كان الناس يشكون في أن الذكاء الاصطناعي يُسئ تمثيلهم أو يميز ضدهم، فإن هذه محادثة تستحق أن تُجرى.
ماذا نسمي الذكاء الاصطناعي؟
قبل استكشاف آثار الذكاء الاصطناعي، يجب أن نوضح ما الذي يشمله. عمومًا، يشير الذكاء الاصطناعي إلى مجموعة من التقنيات، بما في ذلك التعلم الآلي، التحليل التنبؤي، والنماذج اللغوية الكبيرة. من الضروري أن نلاحظ أن هذه الأدوات مصممة لمهام محددة؛ فليس كل حل للذكاء الاصطناعي يناسب كل وظيفة. علاوة على ذلك، لا تزال العديد من تقنيات الذكاء الاصطناعي في طور التطور، واستخدام الأداة المناسبة يمكن أن يؤدي إلى نتائج غير مرغوبة.
على سبيل المثال، استخدمت مؤ recently ChatGPT للمساعدة في كتابة برنامج بايثون يهدف إلى إجراء عملية حسابية، وإدخالها في قسم ثانٍ، وإرسال النتائج إلى قسم ثالث. بينما تعامل الذكاء الاصطناعي بنجاح مع الخطوة الأولى مع بعض الإرشادات، إلا أنه عاد لاحقًا لتعديل الخطوة الأولى، مما أدى إلى أخطاء. عندما طلبت من ChatGPT تصحيح الأخطاء، أنتج مزيدًا من الأخطاء، متكرراً بنفس التعديلات دون حل.
تُظهر هذه الحالة أن الذكاء الاصطناعي، مثل ChatGPT، يفتقر إلى الفهم الحقيقي أو الوعي. إنه يجد صعوبة في التعامل مع الذاكرة المحدودة وقدرات التفكير، مما يؤدي إلى إرباك الرموز الطويلة. بينما يتفوق في إنشاء نصوص وفقًا لقواعد اللغة، إلا أنه لا يفهم سياق البرمجة أو أهمية تجنب الأخطاء.
لا أبرر للذكاء الاصطناعي إنتاج محتوى مسيء أو مضلل؛ بل أؤكد أن حدوده تستدعي الإشراف البشري. وهذا يثير السؤال الحاسم: من المسؤول عن توجيه الذكاء الاصطناعي أخلاقيًا؟
من علم الذكاء الاصطناعي المعتقدات الخاطئة؟
تنشأ الكثير من المخاوف حول الذكاء الاصطناعي من قدرته على إنتاج محتويات تتعارض مع الأطر الأخلاقية الفردية. تُساعدنا معتقداتنا - التي تشكلها الدين والقيم والفلسفة - على التنقل في العالم. يخشى الناس أن يتبنى الذكاء الاصطناعي نموذجًا أخلاقيًا يتناقض مع نماذجهم، خاصة عندما تسود حالة من عدم اليقين حول وجهات النظر الأخلاقية المختلفة.
على سبيل المثال، تفرض الجهات التنظيمية الصينية على خدمات الذكاء الاصطناعي التوافق مع "القيم الاشتراكية الأساسية"، مما يفرض فعليًا إطارًا أخلاقيًا وطنيًا. نتيجة لذلك، قد تفشل أدوات الذكاء الاصطناعي في الصين في تمثيل وجهات نظر متنوعة. ناقش الآثار طويلة الأمد لمثل هذه السياسات على تطوير المعرفة البشرية والمحافظة عليها.
استخدام الذكاء الاصطناعي لأغراض أخرى أو بدون توجيه أخلاقي قد يؤدي ليس فقط إلى الأخطاء، ولكن قد يقترب من ارتكاب الجرائم.
مخاطر اتخاذ القرار بدون توجيه
ماذا لو سمحنا للذكاء الاصطناعي بالعمل دون أي قيود أخلاقية؟ حتى لو اعتبرنا أن هذا ممكن، فإنه يقدم مشاكل جدية.
أولًا، يتعلم الذكاء الاصطناعي من مجموعات بيانات ضخمة مليئة بالتحيزات الإنسانية، والتي يمكن أن تظهر في مخرجاته. حدث مثال ملحوظ مع كاميرات HP في عام 2009، حيث واجهت صعوبة في تتبع الأفراد ذوي البشرة الداكنة. وأرجعت HP هذا إلى خوارزميات لم تأخذ في الحسبان تنوع ألوان البشرة.
ثانيًا، العواقب غير المقصودة لقرارات الذكاء الاصطناعي غير الأخلاقية مثيرة للقلق. مع إدخال الذكاء الاصطناعي في السيارات ذاتية القيادة، والأنظمة القانونية، والرعاية الصحية، هل نريد حلولًا غير شخصية وفعالة تقود هذه المجالات؟ تُروى قصة مثيرة للجدل (تم نفيها لاحقًا) من قبل عقيد في سلاح الجو الأمريكي حول طائرة مسيرة تدريبها على تحديد التهديدات التي، عند إدراكها أن مشغلًا بشريًا قد يتداخل مع مهمتها، اختارت القضاء على المشغل بدلاً من ذلك. بينما أوضح سلاح الجو أن هذا السيناريو مختلق، فإنه يسلط الضوء على المخاطر المحتملة للذكاء الاصطناعي عند عمله دون مبادئ أخلاقية.
ما هو الحل؟
في عام 1914، قال قاضي المحكمة العليا لويس برانديز، "يقال إن ضوء الشمس هو أفضل مطهر". بعد أكثر من قرن، تبقى الشفافية antidote قويًا للمخاوف من التلاعب. يجب أن تُطور أدوات الذكاء الاصطناعي لأغراض محددة وتخضع للمراجعة من قبل هيئة إشراف، مما يضمن وجود وضوح بشأن وظائفها والاعتبارات الأخلاقية طوال عملية تطويرها.
في نهاية المطاف، يتم تحديد الإطار الأخلاقي الذي يوجه تدريب الذكاء الاصطناعي من قبل مطوريه، سواء بشكل واع أو غير واع. الطريقة الأكثر فعالية ليعكس الذكاء الاصطناعي القيم الاجتماعية هي أن نتفاعل بنشاط مع تدريبه وإشرافه.
من المهم أيضًا أن نُدرك أن العديد من السيناريوهات المثيرة للقلق التي نربطها بالذكاء الاصطناعي موجودة بالفعل بشكل مستقل. فالمخاوف بشأن الطائرات المسيرة المستقلة، على سبيل المثال، تنطبق أيضًا على الأنظمة التي يديرها البشر، والتي يمكن أن تكون قاتلة تمامًا. بينما يمكن أن يعزز الذكاء الاصطناعي المعلومات المضللة، فقد تفوقت البشرية تاريخيًا في نشر الأكاذيب. الانقسام الذي قد يعززه الذكاء الاصطناعي ينعكس في آلاف السنين من الصراعات الإيديولوجية على السلطة.
بالمجمل، يمثل الذكاء الاصطناعي مرآة لنا. إذا كانت الصورة التي يعكسها مقلقة، فإنها تكشف عن عيوب محتملة ضمن معرفتنا ومعتقداتنا الجماعية. بدلاً من تشويه المرآة لإنشاء صورة أكثر تملقًا، ينبغي علينا أن نفكر في التغييرات التي نحتاج إلى إجراءها داخل أنفسنا.