رؤى الخبراء: ما تحتاج لمعرفته حول الامتثال لقانون الذكاء الاصطناعي في الاتحاد الأوروبي

في 8 ديسمبر، حقق صانعو السياسات في الاتحاد الأوروبي إنجازًا مهمًا من خلال وضع اللمسات الأخيرة على قانون الذكاء الاصطناعي، مما يجعله أول إطار تنظيمي شامل في العالم للذكاء الاصطناعي. بصفته قائدًا في حوكمة البيانات الرقمية العالمية، وضع الاتحاد الأوروبي معايير في العديد من القضايا، بما في ذلك خصوصية البيانات وممارسات الإعلان المستهدف. بعد مسيرة تشريعية طويلة بدأت في أبريل 2021، يتوقع أن يُحدث قانون الذكاء الاصطناعي تحولًا في حوكمة الذكاء الاصطناعي، ممهدًا لـ "أثر بروكسل" الذي سيرتقي بمعايير الذكاء الاصطناعي في الاقتصاد العالمي.

النص الرسمي في مراحل المراجعة النهائية حاليًا، لكن من المتوقع أن يتم اعتماد قانون الذكاء الاصطناعي التاريخي رسميًا في أبريل 2024، مع بدء تنفيذ تدريجي في عام 2026.

ما هو قانون الذكاء الاصطناعي في الاتحاد الأوروبي؟

يمثل قانون الذكاء الاصطناعي إطارًا قانونيًا مبتكرًا قدمته المفوضية الأوروبية في أبريل 2021، يهدف إلى ضمان سلامة وشفافية أنظمة الذكاء الاصطناعي في السوق الأوروبية. يعتمد القانون نهجًا قائمًا على المخاطر، حيث يشرف على مطوري وموزعي واستيراد وتطبيقات الذكاء الاصطناعي، مع تقييم الآثار السلبية المحتملة لهذه الأنظمة بدقة. كلما زادت المخاطر المحتملة لتطبيق الذكاء الاصطناعي، كانت متطلبات الإشراف أكثر صرامة.

يتشابه هذا التشريع مع اللائحة العامة لحماية البيانات (GDPR) التي أثرت على المعايير العالمية للخصوصية منذ بدء تطبيقها في 2016.

من المتأثر بقانون الذكاء الاصطناعي؟

يحدد قانون الذكاء الاصطناعي تعريفات وواجبات محددة للكيانات المختلفة المعنية في نظام الذكاء الاصطناعي، بما في ذلك المطورين والموزعين والمستخدمين. تجدر الإشارة إلى أن الشركات التي تتخذ من خارج الاتحاد الأوروبي مقرًا لها قد تخضع للقانون إذا كانت أنظمة الذكاء الاصطناعي الخاصة بها تنتج مخرجات تُستخدم داخل الاتحاد الأوروبي. على سبيل المثال، قد تخضع شركة أمريكية جنوبية تطور نظام ذكاء اصطناعي يؤثر على سكان الاتحاد الأوروبي للقانون.

لن ينطبق قانون الذكاء الاصطناعي على التطبيقات العسكرية أو الأمنية، ولكنه يحدد شروطًا صارمة لاستخدام أنظمة التعرف البيومتري عن بعد من قبل جهات إنفاذ القانون.

يسلط مشروع قانون الذكاء الاصطناعي، الذي اعتمده البرلمان الأوروبي في يونيو 2023، الضوء على فئتين رئيسيتين من المشاركين:

- المزود: يشير هذا المصطلح إلى المطورين الذين يقدمون أنظمة الذكاء الاصطناعي تحت علاماتهم التجارية، سواء كانت مجانية أو مدفوعة. مثال على المزود هو OpenAI مع ChatGPT في سوق الاتحاد الأوروبي.

- المنفذ: كان يُعرف سابقًا بـ "المستخدم" ولكنه يُستخدم الآن لوصف الكيانات التي تستخدم أنظمة الذكاء الاصطناعي لأغراض مهنية أو تجارية.

تتوزع التزامات الامتثال أساسًا على المزود للذكاء الاصطناعي، مما يعكس كيف تضع اللائحة العامة لحماية البيانات المساءلة على المتحكمين في البيانات. ومع ذلك، سيتجاوز عدد مستخدمي الذكاء الاصطناعي (المنفذين) عدد المزودين بشكل كبير، خاصة فيما يتعلق بالأنظمة عالية المخاطر، حيث سيكون للمنفذين دور محوري في إدارة المخاطر المرتبطة بالذكاء الاصطناعي.

تصنيف مخاطر ممارسات الذكاء الاصطناعي

مع التركيز على حماية حقوق وسلامة المستخدمين النهائيين، يصنف قانون الذكاء الاصطناعي أنظمة الذكاء الاصطناعي إلى أربع فئات مخاطر:

1. الذكاء الاصطناعي غير المقبول: تحظر هذه الفئة بشكل قاطع استخدام تقنيات الذكاء الاصطناعي التي تهدد القيم الديمقراطية أو حقوق الإنسان، مثل أنظمة الائتمان الاجتماعي والمراقبة البيومترية intrusive.

2. الذكاء الاصطناعي عالي المخاطر: تعتبر أنظمة الذكاء الاصطناعي التي قد تسبب أضرارًا كبيرة لقطاعات حيوية — مثل البنية التحتية والتوظيف والصحة العامة — عالية المخاطر. يجب على مطوري هذه الأنظمة الامتثال لمتطلبات صارمة، بما في ذلك تقييم المطابقة، التسجيل، حوكمة البيانات، وبروتوكولات الأمن السيبراني.

3. الذكاء الاصطناعي منخفض المخاطر: تتطلب الأنظمة التي تشكل مخاطر بسيطة، مثل برامج الدردشة الأساسية، تدابير للشفافية، مما يُلزم المستخدمين بإخطارهم عند كون المحتوى منتجًا بواسطة الذكاء الاصطناعي.

4. الذكاء الاصطناعي ذو المخاطر القليلة أو المُعدومة: تغطي هذه الفئة التطبيقات منخفضة المخاطر، بما في ذلك الملخصات الآلية ومرشحات البريد العشوائي، والتي لا تشكل عادة مخاطر كبيرة للمستخدمين.

العقوبات على عدم الامتثال

يمكن أن تؤدي انتهاكات أحكام قانون الذكاء الاصطناعي إلى عقوبات كبيرة. وتتراوح العقوبات بين 7.5 مليون يورو أو 1.5% من العائدات السنوية العالمية إلى 35 مليون يورو أو 7% من العائدات العالمية، حسب شدة الانتهاك. مقترح برلمان 2023 يتضمن الغرامات المحتملة التالية:

- الذكاء الاصطناعي غير المقبول: يصل إلى 7% من العائدات السنوية العالمية، بزيادة عن 6% السابقة.

- الذكاء الاصطناعي عالي المخاطر: تصل الغرامات إلى 20 مليون يورو أو 4% من العائدات العالمية.

- الذكاء الاصطناعي للاستخدام العام (مثل ChatGPT): غرامات تصل إلى 15 مليون يورو أو 2% من العائدات العالمية، مع أحكام خاصة لتطبيقات الذكاء الاصطناعي التوليدية.

- تقديم معلومات غير صحيحة: غرامات تصل إلى 7.5 مليون يورو أو 1.5% من الإيرادات العالمية.

الاستعداد لقانون الذكاء الاصطناعي

للتنقل بفعالية في قانون الذكاء الاصطناعي، يجب على المؤسسات اعتماد استراتيجية شاملة للحوكمة تشمل ضوابط داخلية قوية وإدارة سلسلة التوريد. يجب على الشركات التي تطور أو تنفذ أنظمة الذكاء الاصطناعي عالية المخاطر إجراء تقييمات شاملة لعملياتها ومراعاة الأسئلة التالية:

- ما هي الأقسام التي تستخدم أدوات الذكاء الاصطناعي؟

- هل تقوم هذه الأدوات بمعالجة معلومات ملكية أو بيانات شخصية حساسة؟

- هل تقع هذه الاستخدامات ضمن فئات غير مقبولة أو عالية أو منخفضة إلى معدومة المخاطر كما هو محدد في قانون الذكاء الاصطناعي؟

- هل تعمل الشركة كمزود للذكاء الاصطناعي أم كمنفذ للذكاء الاصطناعي؟

- ما هي الشروط الموجودة في اتفاقيات الموردين فيما يتعلق بحماية البيانات والامتثال؟

يمكن أن يؤدي تقدم الاتحاد الأوروبي في قانون الذكاء الاصطناعي إلى تحولات كبيرة في المناهج التشريعية العالمية لإدارة مخاطر الذكاء الاصطناعي. ومرتبطًا بأمر الرئيس التنفيذي الأمريكي للذكاء الاصطناعي الذي أُعلن عنه في أكتوبر، تشير هذه الاتفاقية المحورية إلى عصر تحولي في كيفية استخدام الشركات لتكنولوجيا الذكاء الاصطناعي بشكل مسؤول وفعال.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles