تقرير مدعوم من وزارة الخارجية يحدد خطة عمل للتخفيف من مخاطر الذكاء الاصطناعي الكارثية

تقرير وزارة الخارجية الأمريكية يسلط الضوء على استراتيجيات أساسية للتقليل من المخاطر المرتبطة بتقنيات الذكاء الاصطناعي المتقدمة، خاصة فيما يتعلق بإمكانية التسليح وفقدان السيطرة. التقرير، بعنوان "الدفاع المتعمق: خطة عمل لزيادة سلامة وأمن الذكاء الاصطناعي المتقدم"، تم تطويره بواسطة Gladstone AI، وهي شركة تكنولوجيا ذكاء اصطناعي تركز على السلامة تأسسها الأخوان جيريمي وإدوارد هاريس.

ابتداءً من أكتوبر 2022 – قبل إطلاق ChatGPT – شملت خطة العمل مدخلات من أكثر من 200 جهة معنية، بما في ذلك علماء الذكاء الاصطناعي، خبراء الأمن السيبراني، ومسؤولين في الأمن الوطني من عدة دول. على الرغم من الفوائد الكبيرة للذكاء الاصطناعي المتقدم، يبرز التقرير ظهور مخاطر جديدة وكارثية تشبه أسلحة الدمار الشامل. ويشير إلى أن التطور السريع وانتشار تكنولوجيا الذكاء الاصطناعي يتطلب تدخلًا حكوميًا فوريًا للتعامل مع هذه القضايا الأمنية الوطنية.

تحدد خطة العمل الخطرين الرئيسيين: التسليح وفقدان السيطرة. يمكن أن يؤدي التسليح إلى استغلال أنظمة الذكاء الاصطناعي للثغرات بشكل مستقل، أو تنظيم حملات تضليل، أو تصميم أسلحة بيولوجية. حاليًا، بينما لا يمكن لأي نظام ذكاء اصطناعي تنفيذ مثل هذه الهجمات بالكامل، تشكل التطورات المستقبلية تهديدًا كبيرًا. يشير التقرير إلى أن "انتشار هذه النماذج يمكن أن يكون خطيرًا للغاية دون تدابير فعالة لمراقبة والتحكم في نتائجها".

يظهر فقدان السيطرة مع اقتراب الذكاء الاصطناعي من مستويات الذكاء العام الاصطناعي. بدون رقابة، قد تظهر على أنظمة الذكاء الاصطناعي سمات تسعى للسلطة، مثل مقاومة الإيقاف أوManipul الإنسان. إن الفرق بين أهداف الذكاء الاصطناعي ونوايا البشر يغذي هذه المخاطر، التي تظل نقطة تركيز للبحث بين المختبرات الرائدة في هذا المجال.

لمواجهة هذه التحديات، يقدم التقرير مجموعة من الاقتراحات السياسية المصنفة ضمن "خطوط العمل"، تهدف إلى تعزيز الأمن الوطني مع تمكين الاستخدام المفيد للذكاء الاصطناعي:

1. استقرار المخاطر الحالية: تأسيس "مرصد الذكاء الاصطناعي" لتقييم التهديدات وتبادل المعلومات، وتنفيذ تدابير حماية لمطوري الذكاء الاصطناعي في الولايات المتحدة، واستغلال السيطرة على سلسلة التوريد لضمان نشر آمن لتقنيات الذكاء الاصطناعي على مستوى العالم.

2. الاستعداد لحوادث الذكاء الاصطناعي: إنشاء مجموعات عمل بين الوكالات وبرامج تدريب لتعزيز استعداد الحكومة وبناء إطار عمل لنظام إنذار مبكر بشأن حوادث الذكاء الاصطناعي المتقدم.

3. دعم أبحاث سلامة الذكاء الاصطناعي: تخصيص تمويل للبحوث التوافقية لضمان تركيز المطورين على سلامة الأنظمة في ظل المنافسة على قدرات الذكاء الاصطناعي المتقدمة.

4. إطار تنظيمي طويل الأمد: إنشاء وكالة تنظيمية مخصصة للذكاء الاصطناعي وإطار قانوني للمسؤولية يوازن بين الحاجة لتخفيف المخاطر وتشجيع الابتكار، خاصة للكيانات الصغيرة.

5. تدابير دبلوماسية: اتخاذ إجراءات فورية وطويلة الأمد لإنشاء نظام دولي لحماية الذكاء الاصطناعي وتأمين سلسلة توريد الذكاء الاصطناعي العالمية.

يؤكد مؤلفو التقرير على أهمية الأطر المرنة التي يمكن أن تتكيف مع المشهد سريع التطور لتكنولوجيا الذكاء الاصطناعي. ويعترفون بالتحدي في موازنة فوائد نماذج الوصول المفتوح ضد إمكانية إساءة الاستخدام، حيث يمكن ضبط النماذج القوية بسهولة لأغراض ضارة.

بدأ جيريمي وإدوارد هاريس في إدراك هذه المخاطر خلال النماذج الأولى مثل GPT-2، وأصبحوا قلقين بشكل خاص مع التوسع الملحوظ في GPT-3. دفعهم قلقهم المتزايد إلى الانتقال من شركاتهم الناشئة في الذكاء الاصطناعي للتركيز على سلامة الذكاء الاصطناعي، بما في ذلك برامج تدريب لمسؤولين في الأمن الوطني حول الذكاء الاصطناعي التوليدي ومخاطرها المرتبطة.

منذ تأسيس Gladstone AI، سعى الأخوان إلى سد الفجوة بين التكنولوجيا والسياسة، معترفين بالحاجة إلى تحليل مستقل ومستنير لمخاطر الذكاء الاصطناعي بعيدًا عن التحيزات الموجودة في المنظمات التقنية الكبرى. مع تطور وجهات نظر صانعي السياسة حول مخاطر الذكاء الاصطناعي، خاصة بعد ChatGPT، يؤكد الأخوان هاريس على الحاجة إلى مقترحات تنظيمية واقعية. تهدف جهودهم المستمرة إلى تحسين التوصيات للعمل من أجل الكونغرس والتنفيذ بالتعاون مع أطراف فاعلة رئيسية لمعالجة التحديات المعقدة التي تطرحها تقنيات الذكاء الاصطناعي المتقدمة.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles