تقرير حديث لشركة إرنست ويونغ (EY) عن المشهد التنظيمي العالمي للذكاء الاصطناعي (AI) جذب انتباهًا متجددًا بعد الأمر التنفيذي الذي أصدره الرئيس بايدن لمراقبة وتنظيم مخاطر الذكاء الاصطناعي مع تعظيم فوائده.
حمل التقرير عنوان "المشهد التنظيمي العالمي للذكاء الاصطناعي: التوجهات السياسية والاعتبارات لبناء الثقة في الذكاء الاصطناعي"، وتم نشره الشهر الماضي. ويعمل كدليل شامل لصانعي السياسات والشركات، موضحًا البيئة التنظيمية العالمية المعقدة للذكاء الاصطناعي.
يحلل التقرير الأنشطة التنظيمية لثماني مناطق كبيرة: كندا، الصين، الاتحاد الأوروبي، اليابان، كوريا، سنغافورة، المملكة المتحدة، الولايات المتحدة الأميركية. رغم اختلاف سياقاتهم التنظيمية، تشترك هذه المناطق في أهداف مشتركة في حكم الذكاء الاصطناعي - تقليل المخاطر مع تعزيز المنافع الاجتماعية. كما تتماشى مع مبادئ منظمة التعاون والتنمية الاقتصادية (OECD) المتعلقة بالذكاء الاصطناعي التي أكد عليها مجموعة العشرين في عام 2019، والتي تبرز حقوق الإنسان، الشفافية، إدارة المخاطر، والاعتبارات الأخلاقية.
ومع ذلك، يبرز التقرير اختلافات وتحديات كبيرة في تنظيم الذكاء الاصطناعي عالميًا. فقد اتخذ الاتحاد الأوروبي موقفًا استباقيًا، مقترحًا قانون الذكاء الاصطناعي الذي يفرض متطلبات إلزامية لتطبيقات الذكاء الاصطناعي عالية المخاطر، بما في ذلك التعرف على الهوية البيومترية والبنية التحتية الحيوية. بالمقابل، تتجه الصين لتنظيم الوظائف الأساسية للذكاء الاصطناعي مثل التوصيات المحتوى والتعرف على الوجوه، بينما اعتمدت الولايات المتحدة بشكل تاريخي نهجًا تنظيميًا أخف يركز على الإرشادات الطوعية واللوائح الخاصة بالقطاعات.
إن المشهد التنظيمي للذكاء الاصطناعي عالميًا في تطور مستمر. بعد نشر تقرير EY، غير الأمر التنفيذي الأخير للرئيس بايدن بشكل جذري الإطار التنظيمي في الولايات المتحدة، مintroducingًا متطلبات إلزامية للكشف عن اختبارات السلامة للأنظمة القوية للذكاء الاصطناعي، وفرض إلزامية إخطار الحكومة الفيدرالية بالمخاطر المحتملة، بما في ذلك المخاوف المتعلقة بالأمن القومي والصحة. يمثل هذا تحولًا عن الإرشادات الطوعية التي تم تناولها سابقًا.
بالإضافة إلى ذلك، قدمت الحكومة البريطانية ورقة عمل بشأن الذكاء الاصطناعي تقترح إطارًا تنظيميًا قائمًا على أربعة مبادئ: التناسب، المساءلة، الشفافية، والأخلاق، مما يتماشى بشكل وثيق مع نهج الاتحاد الأوروبي.
تشير هذه التطورات إلى مشهد تنظيمي عالمي يتغير بسرعة، مما يبرز الحاجة للمسؤولين في السياسة والشركات للبقاء على اطلاع والتكيف مع اللوائح الجديدة. بينما لا يزال تقرير EY مصدرًا حيويًا لفهم هذا المشهد، يمكن أن يتطلب تحديثات مع ظهور قواعد ومبادرات جديدة.
يحدد تقرير EY عدة توجهات رئيسية وأفضل الممارسات في تنظيم الذكاء الاصطناعي التي لا تزال ذات صلة:
- نهج قائم على المخاطر يتناسب مع حالة الاستخدام المحددة وملف المخاطر للأنظمة.
- اعتبار المخاطر الخاصة بكل قطاع، مثل تلك الموجودة في الرعاية الصحية، التمويل، والنقل.
- مبادرات تتناول آثار الذكاء الاصطناعي على المجالات السياسة ذات الصلة، بما في ذلك خصوصية البيانات والأمن السيبراني.
- استخدام صناديق الرمل التنظيمية لتشكيل قواعد الذكاء الاصطناعي بالتعاون مع الأطراف المعنية.
في الختام، يبرز تقرير EY أهمية الحوار المستمر بين المسؤولين الحكوميين، قادة الشركات، وأصحاب المصلحة لتحقيق توازن بين التنظيم والابتكار. يوفر خريطة طريق لتوجيه التعقيدات المتعلقة بتنظيم الذكاء الاصطناعي ويشجع على التعاون لسد فجوة الثقة في الذكاء الاصطناعي، ومنع تجزئة السياسات، وإطلاق العنان للإمكانات الكاملة للذكاء الاصطناعي. هذا التقرير ضروري لأي شخص مهتم بفهم التحديات الأخلاقية والمشهد السياسي الديناميكي المحيط بالذكاء الاصطناعي على نطاق عالمي.