طريقان واضحان وفعالان لتنظيم تكنولوجيا الذكاء الاصطناعي بسرعة

لقد غير الذكاء الاصطناعي بشكل جذري مشهد التكنولوجيا، خاصة بعد الإطلاق العام لـ ChatGPT. ومع ذلك، فإن التقدم السريع للذكاء الاصطناعي يثير مخاوف كبيرة. تحذر المؤسسات الرائدة، مثل مختبر البحث في الذكاء الاصطناعي Anthropic، من قدراته التدميرية المحتملة، خاصة مع تزايد المنافسة من أنظمة مثل ChatGPT. تشمل القضايا الرئيسية فقدان ملايين الوظائف، وانتهاكات خصوصية البيانات، وانتشار المعلومات المضللة، وهو ما لفت انتباه الجهات المعنية عالميًا، وخاصة الكيانات الحكومية.

في الولايات المتحدة، كثف الكونغرس تركيزه على تنظيم الذكاء الاصطناعي، وقدم العديد من مشاريع القوانين التي تهدف إلى تعزيز الشفافية وتطوير إطار عمل قائم على المخاطر، وغيرها. في شهر أكتوبر، أصدرت إدارة بايدن-هاريس أمرًا تنفيذيًا حول تطوير واستخدام الذكاء الاصطناعي بشكل آمن وآمن وموثوق. يحدد هذا الأمر إرشادات في مجالات متعددة، بما في ذلك الأمن السيبراني، والخصوصية، والتحيز، وحقوق الإنسان، والتمييز القائم على الخوارزميات، والتعليم، وحقوق العمال، والبحث. بالإضافة إلى ذلك، كجزء من مجموعة السبع، قدمت الإدارة مؤخرًا مدونة سلوك للذكاء الاصطناعي.

على نفس المنوال، يحقق الاتحاد الأوروبي تقدمًا من خلال تشريعاته المقترحة حول الذكاء الاصطناعي، وهي قانون الذكاء الاصطناعي في الاتحاد الأوروبي. تستهدف هذه اللائحة أدوات الذكاء الاصطناعي عالية المخاطر التي قد تنتهك حقوق الأفراد، خاصة في قطاعات مثل الطيران. يركز قانون الذكاء الاصطناعي في الاتحاد الأوروبي على السيطرة الأساسية لأدوات الذكاء الاصطناعي عالية المخاطر، بما في ذلك القوة، والخصوصية، والسلامة، والشفافية. ستُمنع الأنظمة التي يُعتبر أنها تشكل خطرًا غير مقبول من دخول السوق.

على الرغم من استمرار المناقشات حول دور الحكومة في تنظيم الذكاء الاصطناعي، إلا أن الحكم الفعال يعود بالنفع أيضًا على الأعمال. إن إيجاد توازن بين الابتكار والتنظيم يمكن أن يحمي المؤسسات من المخاطر غير الضرورية ويوفر لها ميزة تنافسية.

دور الأعمال في إدارة الذكاء الاصطناعي

تتحمل الشركات مسؤولية التخفيف من المخاطر المرتبطة بتقنيات الذكاء الاصطناعي. إن اعتماد الذكاء الاصطناعي التوليدي على كميات هائلة من البيانات يثير قضايا خصوصية مهمة. دون وجود حوكمة مناسبة، قد تتراجع الثقة والولاء لدى المستهلكين مع قلق العملاء بشأن كيفية استخدام معلوماتهم الحساسة.

علاوة على ذلك، يجب على الشركات أن تكون على وعي بالمسؤوليات المحتملة المرتبطة بالذكاء الاصطناعي التوليدي. إذا كانت المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي تشبه الأعمال الموجودة، فقد تواجه الشركات دعاوى انتهاك حقوق الطبع والنشر، ما يعرضها لعواقب قانونية ومالية.

من المهم أن ندرك أن ناتج الذكاء الاصطناعي يمكن أن يعكس تحيزات مجتمعية، حيث يتم تضمينها في أنظمة اتخاذ القرار التي تؤثر على توزيع الموارد ورؤية وسائل الإعلام. تتطلب الحوكمة الفعالة إنشاء عمليات قوية لتقليل مخاطر التحيز. ويتضمن ذلك إشراك الأطراف المعنية في مراجعة المعايير والبيانات، وتعزيز القوة العاملة المتنوعة، وتنقيح مجموعات البيانات لتوليد ناتج يُنظر إليه على أنه عادل.

في المستقبل، يعد وضع حوكمة قوية أمرًا أساسيًا لحماية حقوق الأفراد مع تعزيز تقدم تقنيات الذكاء الاصطناعي التحويلي.

إطار للعملية التنظيمية

يمكن أن يخفف تطبيق العناية الواجبة من المخاطر، لكن إنشاء إطار تنظيمي قوي مهم أيضًا. يجب على الشركات التركيز على الجوانب الرئيسية التالية:

تحديد ومعالجة المخاطر المعروفة

رغم أن الآراء تختلف حول أكثر التهديدات إلحاحًا التي يسببها الذكاء الاصطناعي غير المنضبط، إلا أن هناك توافقًا حول العديد من المخاوف، مثل فقدان الوظائف، وانتهاك الخصوصية، وحماية البيانات، وعدم المساواة الاجتماعية، وقضايا الملكية الفكرية. يجب على الشركات تقييم المخاطر المحددة ذات الصلة بعملياتها. من خلال الوصول إلى توافق حول هذه المخاطر، يمكن للمنظمات وضع إرشادات للتعامل معها بفاعلية.

على سبيل المثال، قامت شركتي Wipro بتطوير إطار عمل قائم على أربعة أعمدة يهدف إلى تعزيز مستقبل مسؤول يقوده الذكاء الاصطناعي، مع التركيز على الاعتبارات الفردية والاجتماعية والتقنية والبيئية. يعد هذا الإطار نهجًا واحدًا للشركات لوضع إرشادات قوية لتفاعلاتها مع أنظمة الذكاء الاصطناعي.

تعزيز ممارسات الحوكمة

يجب على المنظمات التي تستخدم الذكاء الاصطناعي إعطاء الأولوية للحوكمة لضمان المسؤولية والشفافية طوال دورة حياة الذكاء الاصطناعي. يساعد تنفيذ هيكل حوكمة في توثيق عمليات تدريب النماذج، مما يقلل من المخاطر المرتبطة بعدم موثوقية النماذج، وإدخال التحيزات، والتغيرات في العلاقات بين المتغيرات.

تعتبر أنظمة الذكاء الاصطناعي اجتماعية تقنية بطبيعتها، تتكون من بيانات وخوارزميات ومشاركة بشرية. لذلك، من الضروري دمج كل من الاعتبارات التكنولوجية والاجتماعية في الأطر التنظيمية. التعاون بين الشركات والجامعات والحكومة والمجتمع ضروري لمنع تطوير حلول الذكاء الاصطناعي من قبل مجموعات متجانسة، مما قد يؤدي إلى تحديات غير متوقعة.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles