تقرير يكشف عن عيوب شائعة في أدوات حوكمة الذكاء الاصطناعي: العديد منها يتضمن حلولاً غير فعالة للذكاء الاصطناعي.

أظهر تقرير حديث من منتدى الخصوصية العالمي رؤى حيوية حول أدوات إدارة الذكاء الاصطناعي المستخدمة من قبل الحكومات والمنظمات متعددة الأطراف. وقد وجدت مراجعة لـ 18 أداة من هذا النوع أن أكثر من ثلثها (38%) يحتوي على "إصلاحات معيبة". فهذه الأدوات، المصممة لتقييم أنظمة الذكاء الاصطناعي من حيث العدالة والشفافية، غالباً ما تفتقر إلى آليات ضمان الجودة الأساسية أو تستخدم طرق قياس تعتبر غير مناسبة خارج سياقاتها الأصلية.

تم تطوير العديد من هذه الأدوات من قبل شركات التكنولوجيا الكبرى مثل Microsoft وIBM وGoogle، التي تخلق أيضاً أنظمة الذكاء الاصطناعي التي تقيمها. على سبيل المثال، يُبرز التقرير أداة IBM's AI Fairness 360، التي أوصت بها مكتب المساءلة الحكومية الأمريكية لإدماجها لمبادئ أخلاقية في الذكاء الاصطناعي. ومع ذلك، فقد واجهت الأبحاث الأساسية وراء خوارزمية "إزالة الأثر غير المتناسب" انتقادات قوية في الدوائر الأكاديمية.

صرحت بام ديكسون، مؤسسة ومديرة منتدى الخصوصية العالمي، بأن "معظم أدوات إدارة الذكاء الاصطناعي المستخدمة حالياً تعمل دون معايير مناسبة." وأشارت إلى أن غياب متطلبات ضمان الجودة المعتمدة يمثل مشكلة كبيرة. يمكن أن تؤدي الأدوات المخصصة لسياقات معينة إلى سوء استخدام، مما يترتب عليه تأثيرات غير متوقعة.

يعرّف التقرير أدوات إدارة الذكاء الاصطناعي على أنها آليات لتقييم وقياس جوانب أنظمة الذكاء الاصطناعي بما في ذلك الشمولية والعدل والشفافية والخصوصية والسلامة. وعلى الرغم من أن هذه الأدوات قد تقدم طمأنينة للجهات التنظيمية والجمهور، إلا أنها قد تعزز عن غير قصد شعوراً زائفاً بالأمان، وتثير مشكلات غير مقصودة، وتقلل من إمكانيات تقنيات الذكاء الاصطناعي.

مع اعتماد قانون الذكاء الاصطناعي للاتحاد الأوروبي وأمر الرئيس بايدن التنفيذي بشأن الذكاء الاصطناعي، هناك فرصة ملائمة لتعزيز مشهد إدارة الذكاء الاصطناعي، كما ذكرت كيت كاي، نائبة مدير منتدى الخصوصية العالمي. وأشارت إلى أنه "على الرغم من أننا حددنا بعض العيوب، فإن هناك إمكانيات كبيرة للتحسين في نظام إدارة الذكاء الاصطناعي". وأضافت: "تمثل هذه الأدوات كيفية تنفيذ الحكومات للسياسات المتعلقة بالذكاء الاصطناعي وستلعب أدواراً حاسمة في تنفيذ القوانين واللوائح المستقبلية."

كما شاركت كاي مثالاً على كيفية أن النوايا الحسنة يمكن أن تؤدي إلى نتائج سيئة: تُستخدم قاعدة الأربعة أخماس أو 80% في قانون العمل الأمريكي بشكل غير صحيح في أدوات إدارة الذكاء الاصطناعي على مستوى العالم. هذه القاعدة تقيس ما إذا كانت عمليات الاختيار تؤدي إلى تأثيرات سلبية على مجموعات معينة، لكنها تم تحريفها لتستخدم في سياقات غير مرتبطة بالتوظيف، مما يؤدي إلى تطبيقات غير مناسبة.

في ظل الضغوط لوضع لوائح للذكاء الاصطناعي، حذرت كاي من تضمين مناهج معيبة في السياسات. وأكدت على خطر استمرارية المشكلات الموجودة نتيجة للتطبيقات المتعجلة.

مع اقتراب عام 2024، يشعر كل من ديكسون وكاي بالتفاؤل بشأن تقدم أدوات إدارة الذكاء الاصطناعي. ذكرت ديكسون أن منظمة التعاون والتنمية الاقتصادية (OECD) حريصة على التعاون لتحسين هذه الأدوات، مما يشير إلى اتجاه إيجابي. كما أعرب المعهد الوطني للمعايير والتكنولوجيا (NIST) عن اهتمامه بتطوير معايير صارمة تستند إلى الأدلة. مع جهود مركزة، يعتقدان أنه يمكن تحقيق تحسينات معنوية في مشهد إدارة الذكاء الاصطناعي خلال ستة أشهر.

Most people like

Find AI tools in YBX