أكد القادة العالميون التزامهم بالتعامل مع المخاطر والفرص المرتبطة بالذكاء الاصطناعي (AI). أعلنت مجموعة السبع (G7)، وهي ائتلاف من الدول الصناعية الكبرى بما في ذلك الولايات المتحدة، والاتحاد الأوروبي، والمملكة المتحدة، وكندا، وفرنسا، وألمانيا، وإيطاليا، واليابان، عن "مدونة سلوك دولية للمنظمات التي تطور أنظمة الذكاء الاصطناعي المتقدمة". يعد هذا الإطار الطوعي امتدادًا لعملية "الذكاء الاصطناعي في هيروشيما" التي تم تقديمها في مايو، وتهدف إلى تعزيز الذكاء الاصطناعي الآمن والموثوق.
في الوقت نفسه، أصدر الرئيس الأمريكي جو بايدن أمرًا تنفيذيًا بشأن "الذكاء الاصطناعي الآمن والموثوق"، بينما قام الاتحاد الأوروبي بإكمال مشروع قانون الذكاء الاصطناعي. بالإضافة إلى ذلك، أنشأ الأمين العام للأمم المتحدة مجلس استشاري جديد للذكاء الاصطناعي يتكون من أكثر من ثلاثين قائدًا من الحكومة والتكنولوجيا والأوساط الأكاديمية لدعم الحوكمة العالمية للذكاء الاصطناعي.
ذكرت مجموعة السبع: "نؤكد على الفرص الابتكارية والإمكانات التحويلية للأنظمة المتقدمة للذكاء الاصطناعي، وخاصة النماذج الأساسية والذكاء الاصطناعي التوليدي. ومع ذلك، نعترف أيضًا بأهمية إدارة المخاطر لحماية الأفراد والمجتمع والالتزامات المشتركة لنا تجاه سيادة القانون والقيم الديمقراطية، مع إبقاء الإنسانية في المركز."
لمواجهة هذه التحديات، يدعو قادة مجموعة السبع إلى "حوكمة شاملة" للذكاء الاصطناعي.
إطار عمل شامل من 11 نقطة
أصدرت مجموعة السبع إطار عمل يتكون من 11 نقطة لتوجيه التطوير والنشر المسؤول للأنظمة الذكية. تحث المجموعة المنظمات على الالتزام بهذه المدونة مع الاعتراف بأن الولايات القضائية قد تتبنى أساليب تنفيذ فريدة.
النقاط الـ 11 هي كالتالي:
1. تحديد المخاطر والتخفيف منها: تنفيذ تدابير خلال مرحلة التطوير لتحديد وتقييم والتقليل من المخاطر، مما يضمن موثوقية الأنظمة وأمانها.
2. مراقبة ما بعد النشر: تحديد ومعالجة الثغرات وسوء الاستخدام من خلال مراقبة مستمرة وإبلاغ شفاف.
3. تقرير الشفافية: الكشف علنًا عن القدرات والقيود والاستخدامات المناسبة للأنظمة المتقدمة للذكاء الاصطناعي، مدعومًا بوثائق قوية.
4. تبادل المعلومات بشكل مسؤول: مشاركة تقارير التقييم والمعلومات المتعلقة بمخاطر الأمان والسلامة بشكل مفتوح.
5. سياسات الحوكمة: تطوير وكشف استراتيجيات حوكمة الذكاء الاصطناعي وإدارة المخاطر المتعلقة بالبيانات الشخصية والمخرجات.
6. ضوابط الأمان: الاستثمار في الأمان البدني وأمان المعلومات، واتخاذ احتياطات ضد التهديدات الداخلية.
7. توثيق المحتوى: تنفيذ أساليب موثوقة لتوثيق المحتوى وكشف التفاعلات مع أنظمة الذكاء الاصطناعي بوضوح للمستخدمين.
8. التخفيف من المخاطر الاجتماعية: إعطاء الأولوية للأبحاث التي تهدف إلى تقليل المخاطر الاجتماعية والأمنية.
9. مواجهة التحديات العالمية: توجيه تطوير الذكاء الاصطناعي لحل القضايا العالمية الملحة مثل تغير المناخ والأزمات الصحية والتعليم، مع تعزيز محو الأمية الرقمية.
10. المعايير الدولية: تعزيز إنشاء واعتماد المعايير التقنية الدولية والممارسات الأفضل.
11. حماية بيانات الإدخال: ضمان حماية قوية للبيانات الشخصية والملكية الفكرية، مع التركيز على الشفافية فيما يتعلق بمجموعات بيانات التدريب.
وثيقة حية لمشهد ديناميكي
أكدت مجموعة السبع على أهمية الالتزام بسيادة القانون وحقوق الإنسان والعدالة والقيم الديمقراطية في نشر الذكاء الاصطناعي. يجب ألا تعرض الأنظمة المتقدمة مبادئ الديمقراطية للخطر أو تعرض السلامة والحقوق لمخاطر كبيرة.
للحفاظ على الصلة، ستتطور مدونة السلوك بناءً على ردود الفعل من الحكومات والأوساط الأكاديمية والصناعة، مصنفة هذه المبادئ كوثيقة "غير شاملة" وحية. يسعى قادة مجموعة السبع إلى تعظيم فوائد الذكاء الاصطناعي مع التقليل من المخاطر من أجل المنفعة العامة، خاصة للدول النامية لخفض الفجوات الرقمية وتعزيز الشمولية.
دعم من القادة العالميين
تلقت مدونة السلوك تأييدًا من مسؤولين عالميين آخرين، بما في ذلك فيرا جوروفا، نائب رئيس المفوضية الأوروبية للقيم والشفافية. حيث صرحت جوروفا: "الذكاء الاصطناعي التوليدي الذي نحتاجه يجب أن يكون موثوقًا وأخلاقيًا وآمنًا. ستساعد هذه المدونة الاتحاد الأوروبي وحلفاءنا في ضمان تقديم الذكاء الاصطناعي للفوائد مع معالجة المخاطر الكامنة".
كما شجعت رئيسة المفوضية الأوروبية أورسولا فون دير لاين المطورين على توقيع وتنفيذ المدونة بسرعة، مشددةً على الفوائد الكبيرة التي يمكن أن يقدمها الذكاء الاصطناعي للمواطنين والاقتصاد رغم التحديات التي يثيرها.