أكد رئيس وزراء المملكة المتحدة، ريشي سوناك، على ضرورة تبني منظور متوازن حول الذكاء الاصطناعي (AI) بينما يستعد لقمة سلامة الذكاء الاصطناعي التي ستعقد في 1 و2 نوفمبر. وفي حديثه في الجمعية الملكية، المؤسسة العلمية الرائدة في البلاد، اعترف بالمخاطر الكبيرة المرتبطة بالذكاء الاصطناعي، وخاصة احتمال إساءة استخدامه من قبل جهات خبيثة. ومع ذلك، حث على عدم التبني موقف متشائم بشكل مفرط.
قال سوناك: "في الوقت الحالي، الكيانات التي تطور الذكاء الاصطناعي هي أيضًا المسؤولة عن اختبار سلامته، وحتى هم غالبًا ما يفتقرون إلى فهم كامل لقدرات نماذجهم المستقبلية. هناك حوافز قوية للتنافس من خلال إنشاء النماذج الأكثر تقدمًا بسرعة، مما يدفعنا للتساؤل عما إذا كان ينبغي علينا الوثوق بهم في تقييم نتائجهم."
عارض سوناك اتخاذ تدابير تنظيمية متسرعة قد تعيق الابتكار، مشيرًا إلى: "كيف يمكننا إنشاء قوانين فعالة حول شيء لا نفهمه تمامًا؟ بدلاً من ذلك، نحن نشجع تطوير قدرات رائدة عالميًا في الحكومة لفهم وتقييم سلامة نماذج الذكاء الاصطناعي." كانت نهج الحكومة البريطانية تجاه تشريعات الذكاء الاصطناعي أقل صرامة بشكل ملحوظ مقارنة بالاتحاد الأوروبي، حيث حددت متطلباتها في ورقة بيضاء وحرّرت عملية صنع القوانين للجهات التنظيمية في مجالات محددة.
في يونيو، خلال مؤتمر قمة الذكاء الاصطناعي لندن، أشار وزير الذكاء الاصطناعي في البلاد إلى أن التشريعات المقبلة ستكمل المعايير الفنية وتقنيات التأمين، مما يشير إلى تحسينات محتملة في الرقابة.
نهج تعاوني لسلامة الذكاء الاصطناعي
عبر سوناك عن نيته العمل بشكل تعاوني مع دول أخرى حول سلامة الذكاء الاصطناعي، بدلًا من تبني موقف عدائي. يتجلى هذا الروح التعاونية في دعوة الصين للمشاركة في القمة، على الرغم من التوترات القائمة مع الولايات المتحدة. وأكد على أهمية الانخراط في وجهات نظر متنوعة، قائلاً: "يجب أن تتضمن الاستراتيجية الجادة للذكاء الاصطناعي حوارات مع جميع القوى الكبرى في الذكاء الاصطناعي بالعالم."
فرضت الصين تنظيمات صارمة على شركات الذكاء الاصطناعي الخاصة بها، تت要求 مراجعة أمنية من الهيئة الوطنية لمراقبة البيانات قبل إصدار نماذج جديدة من الذكاء الاصطناعي العام. ومع ذلك، أبدت الحكومة الصينية استعدادها للمشاركة في النقاشات الدولية حول الرقابة على الذكاء الاصطناعي، على الرغم من أن الرئيس شي جين بينغ ركز على أهمية الأمن الوطني.
أكد نائب رئيس الوزراء، أوليفر داودن، أن الصين قبلت دعوة القمة، على الرغم من ضرورة انتظار تأكيد جميع المشاركين المحتملين.
يهدف سوناك إلى تعزيز فهم مشترك للمخاطر المرتبطة بالذكاء الاصطناعي والسعي للتوصل إلى توافق حول أول بيان دولي بشأن هذه التحديات في القمة. ويتصور إنشاء "لجنة خبراء عالمية حقيقية" في مجال الذكاء الاصطناعي، تتكون من ترشيحات من الدول والمنظمات المشاركة، على أن تُعنى بإصدار تقرير شامل عن "حالة علم الذكاء الاصطناعي".
وأضاف: "نجاحنا يعتمد على التعاون مع شركات الذكاء الاصطناعي. مع تقدم التكنولوجيا، يجب أن نضمن أن فهمنا الجماعي للمخاطر يتكيف مع هذا التقدم." تتماشى هذه المبادرة مع دعوات من شخصيات بارزة، بما في ذلك الأمين العام للأمم المتحدة أنطونيو غوتيريش، لإنشاء هيئة تنظيمية عالمية لمراقبة سلامة الذكاء الاصطناعي، مشابهة للوكالة الدولية للطاقة الذرية.
وجهات نظر الصناعة والمخاوف
بينما يروج سوناك لرؤية المملكة المتحدة كقوة عظمى في الذكاء الاصطناعي، خصصت الحكومة 120 مليون دولار لمجموعة ستقدم المشورة بشأن شؤون الذكاء الاصطناعي، تضم بين أعضائها الحائز على جائزة تورينغ يوسف بنغيو. ستستضيف القمة زعماء بارزين من الصناعة، بما في ذلك الرئيس التنفيذي لـ OpenAI سام التمان والرئيس التنفيذي لـ Google DeepMind ديميس هاسابيس، إلى جانب شخصيات سياسية رفيعة مثل نائب الرئيس الأمريكي كامالا هاريس.
شددت مايا ديلون، رئيسة قسم الذكاء الاصطناعي في Cambridge Consultants، على ضرورة التعاون وسط ثورة الذكاء الاصطناعي، قائلة: "التحدي هو ليس فقط احتضان الذكاء الاصطناعي، بل توجيه مساره بشكل مدروس. يجب أن ترتبط هذه الثورة بنجاح الأعمال ورفاهية المجتمع، مما يتطلب تعاونًا حقيقيًا."
وأشار بول هينينجر، رئيس تكنولوجيا الاتصال في KPMG المملكة المتحدة، إلى أن القمة قد تثير استراتيجيات تعاون لتقييم المخاطر، ولكن المنظمات ستتوقع أيضًا تحديثات منتظمة مع استمرار تطور التكنولوجيا.
رغم الأهداف الطموحة المحددة للقمة، اعتبر كريس رويليس، CTO في Cloudera لمنطقة EMEA، أن السعي نحو تنظيم شامل يعد طموحًا عالى. واقترح أن تركز الشركات على تدريب نماذج الذكاء الاصطناعي الخاصة بها باستخدام مصادر بيانات موثوقة. وبالمثل، دعا فابيان ريش، المدير العام في Trellix، إلى إعطاء الأولوية لتدابير الأمان في تطوير الذكاء الاصطناعي لتعزيز الثقة والحماية من التهديدات السيبرانية.
تسليط الضوء على مخاطر الذكاء الاصطناعي
قبل خطاب سوناك، أصدرت الحكومة البريطانية ورقة تحدد المخاطر المحتملة للذكاء الاصطناعي، والتي شملت:
- الأضرار الاجتماعية: توليد المعلومات المضللة والعمليات العميقة، الاضطرابات الوظيفية نتيجة للأتمتة، والتحيزات الخوارزمية التي قد تؤدي إلى نتائج غير عادلة.
- مخاطر الاستخدام المسيء: احتمال استخدام تقنيات الذكاء الاصطناعي في تسهيل إنشاء الأسلحة أو تعزيز فعالية الهجمات السيبرانية وجهود التضليل.
- مخاطر فقدان السيطرة: القلق بشأن تخلي البشر عن صلاحيات اتخاذ القرار لنظم ذكاء اصطناعي غير متوافقة وعوامل متقدمة تسعى لزيادة نفوذها.
كما استعرض التقرير التحديات المستمرة التي قد تعزز هذه المخاطر، مثل تعقيدات تصميم نظم الذكاء الاصطناعي الآمنة، وتقييم سلامتها، وضمان المساءلة في نشرها.
وفي رده على التقرير، أثنى سجوول فان دير ليو، الرئيس التنفيذي لشركة Deployteq، على نهج الحكومة البريطانية الجاد في سلامة الذكاء الاصطناعي، معترفًا بالفرص الكبيرة التي توفرها تقنيات الذكاء الاصطناعي عبر مختلف الصناعات، والتي تعتمد على التنظيم الفعال وإرشادات من صانعي السياسات.