قادة العالم يتسابقون لوضع أنظمة لتنظيم الذكاء الاصطناعي من أجل مستقبل أكثر أماناً

تسارعت وتيرة تطوير الذكاء الاصطناعي بشكل ملحوظ خلال العام الماضي. لقد نقلت التقدُّمات التكنولوجية فكرة تفوُّق الذكاء الاصطناعي على الذكاء البشري من نطاق الخيال العلمي إلى واقع محتمل قريب. صرح جيفري هينتون، الحائز على جائزة تورينغ، في مايو أن التوقعات تشير إلى أن الذكاء الاصطناعي قد يحقق مستوى الذكاء البشري بحلول عام 2028، بدلاً من التوقعات السابقة التي كانت تمتد على 50 إلى 60 عاماً. وقد اعتقد شين ليغ، أحد مؤسسي DeepMind، أن هناك فرصة بنسبة 50% للوصول إلى الذكاء العام الاصطناعي بحلول عام 2028، مما يعني أن الذكاء الاصطناعي سيكون قادرًا على أداء أي مهمة فكرية بكفاءة تعادل الذكاء البشري أو تتجاوزها، متجاوزًا تركيزه الضيق الحالي.

هذه الإمكانية الوشيكة أثارت نقاشات حامية حول الجوانب الأخلاقية والرقابية للذكاء الاصطناعي، كما نقلت النقاشات من الأوساط الأكاديمية إلى مجالات السياسة الدولية. أصبحت الحكومات، وقادة الصناعة، والجمهور العام يتعاملون مع أسئلة حاسمة قد تؤثر على مسار البشرية.

تم الإعلان عن العديد من الإجراءات التنظيمية لمواجهة هذه المخاوف، لكن لا تزال هناك العديد من الغموض حول التأثيرات المحددة وفعالية هذه الإجراءات.

المخاطر الوجودية للذكاء الاصطناعي

في حين لا يوجد إجماع حول مدى التغييرات المحتملة الناتجة عن الذكاء الاصطناعي، ظهرت نقاشات حول المخاطر التي قد يشكلها. وقد عبّر سام التمان، الرئيس التنفيذي لشركة OpenAI، عن مخاوفه خلال جلسة استماع في الكونغرس في مايو، مشددًا على أنه "إذا ساءت هذه التكنولوجيا، فقد تسير الأمور بصورة خاطئة تمامًا"، مؤكدًا على ضرورة التعاون الحكومي لمنع هذه النتائج.

تتوافق آراء التمان مع مركز سلامة الذكاء الاصطناعي، الذي أكد في مايو أن تقليل مخاطر الانقراض التي قد ينجم عنها الذكاء الاصطناعي ينبغي أن يكون له الأولوية عالميًا، تمامًا مثل مكافحة الأوبئة والتهديدات النووية. وقد ازداد هذا المنظور انتشارًا في وقت ارتفعت فيه المخاوف بشأن المخاطر الوجودية للذكاء الاصطناعي.

الشكوك في الصناعة

على الجانب الآخر، يعبر بعض قادة الصناعة عن شكوكهم بشأن السيناريوهات الكارثية المتطرفة. انتقد أندرو إنغ، المدير السابق لـ Google Brain، فكرة أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشرية، مشيرًا إلى أن ذلك قد يكون مجرد ستار للشركات الكبرى لفرض تنظيمات ثقيلة يمكن أن تقيد المنافسة. وحذر إنغ من أن هذا النوع من الاستحواذ التنظيمي قد يؤثر بشكل غير عادل على الشركات الصغيرة.

واصل يان ليكون، كبير علماء الذكاء الاصطناعي في ميتا والحائز على جائزة تورينغ، هذا النقد متهمًا التمان وغيرهم من قادة التكنولوجيا بانتهاج "لوبيات شركات ضخمة" بناءً على مخاوف مبالغ فيها، مما سيؤدي إلى تنظيمات تعود بالنفع على عدد قليل من الشركات الكبرى على حساب مشاريع المصادر المفتوحة.

الدفع نحو التنظيم

رغم وجهات النظر المتنوعة، تسارعت خطوات التنظيم. في يوليو، أعلن البيت الأبيض عن التزام قادة الذكاء الاصطناعي، بما في ذلك OpenAI وAnthropic وAlphabet وMeta وMicrosoft، بتطوير بروتوكولات اختبار الأمان قبل إطلاق أدواتهم للجمهور. بحلول سبتمبر، وقعت 15 شركة على هذا الالتزام.

في خطوة مهمة، أصدر البيت الأبيض مؤخرًا أمرًا تنفيذيًا يركز على "الذكاء الاصطناعي الآمن والموثوق"، يهدف إلى تحقيق توازن بين الابتكار والرقابة. هذا الأمر يفرض على الوكالات الفيدرالية اتباع توجيهات واسعة بخصوص مختلف القطاعات، بما في ذلك الأمن القومي والرعاية الصحية، بينما يُطلب من شركات الذكاء الاصطناعي مشاركة نتائج اختبارات الأمان.

المبادرات العالمية في سياسة الذكاء الاصطناعي

جدير بالذكر أن حوكمة الذكاء الاصطناعي في الولايات المتحدة هي جزء من حوار دولي أوسع. مؤخرًا، قدمت مجموعة الدول السبع G7 11 مبدأ غير ملزم للذكاء الاصطناعي، داعية المنظمات التي تطور أنظمة ذكاء اصطناعي متقدمة إلى الالتزام بمدونة سلوك دولية لـ "الذكاء الاصطناعي الآمن والموثوق".

كما استضافت المملكة المتحدة قمة سلامة الذكاء الاصطناعي، التي جمعت الجهات المعنية العالمية لمواجهة مخاطر الذكاء الاصطناعي، خصوصًا حول أنظمة الذكاء الاصطناعي المتطورة. اختتم الحدث بـ "إعلان بلتشلي" الذي وقعه ممثلون من 28 دولة، بما في ذلك الولايات المتحدة والصين، محذرين من المخاطر التي تشكلها الأنظمة المتقدمة من الذكاء الاصطناعي ومرتبطين بتطوير ذكاء اصطناعي مسؤول.

بينما لم تحدد هذه الإعلانات أهداف سياسية محددة، ينظر إليها الخبراء كأساس واعد للتعاون الدولي حول قضية ملحة عالمياً.

تحقيق التوازن بين الابتكار والتنظيم

بينما نقترب من المعالم المنتظرة التي حددها الخبراء، يتضح أن المخاطر المتعلقة بتطوير الذكاء الاصطناعي آخذة في الارتفاع. من الولايات المتحدة إلى دول مجموعة السبع وما بعدها، يعد إنشاء الأطر التنظيمية أولوية قصوى. تهدف هذه الجهود الأولية إلى تقليل المخاطر مع تعزيز الابتكار، رغم أن الأسئلة حول الفعالية والعدالة تبقى قائمة.

يمثل الذكاء الاصطناعي قضية حيوية عالمياً. ستكون السنوات المقبلة حاسمة في تجاوز تعقيدات الاستفادة من الإمكانيات الإيجابية للذكاء الاصطناعي، مثل التقدم في الرعاية الصحية والعمل المناخي، مع ضمان المعايير الأخلاقية والضمانات الاجتماعية. في هذه التحديات المتعددة الأبعاد، سيكون التعاون بين الحكومات، والشركات، والأوساط الأكاديمية، وحركات القاعدة الشعبية ضرورياً لتشكيل مستقبل الذكاء الاصطناعي، مما يؤثر على القطاع التكنولوجي وعلى المسار العام للبشرية.

Most people like

Find AI tools in YBX