73٪ من المنظمات تتبنى الذكاء الاصطناعي التوليدي، لكن القليل منها يقيم المخاطر المرتبطة به.

أظهر استبيان حديث أجرته PwC شمل 1,001 من كبار التنفيذيين في قطاعات الأعمال والتكنولوجيا في الولايات المتحدة، أن 73% من المشاركين يستخدمون أو يخططون لتطبيق الذكاء الاصطناعي التوليدي في منظماتهم. ورغم تزايد هذا الاهتمام، فإن 58% فقط بدأوا في تقييم المخاطر المرتبطة بالذكاء الاصطناعي. تؤكد PwC على ضرورة أن يركز الذكاء الاصطناعي المسؤول على القيمة والأمان والثقة، مع دمج هذه العناصر في عمليات إدارة المخاطر داخل الشركة.

سلطت Jenn Kosar، قائدة ضمان الذكاء الاصطناعي في PwC الولايات المتحدة، الضوء على أنه رغم قبول الشركات سابقًا بدء مشاريع الذكاء الاصطناعي بدون استراتيجيات قوية للمسؤولية، إلا أن هذا قد انتهى. وقالت: "لقد تقدمنا في هذه الدورة، لذا فإن الوقت الآن لبناء الذكاء الاصطناعي المسؤول". وأشارت إلى أن المشاريع السابقة كانت عادةً تقتصر على فرق صغيرة، لكننا نشهد الآن اعتمادًا واسع النطاق على الذكاء الاصطناعي التوليدي. تلعب المشاريع التجريبية للذكاء الاصطناعي دورًا حاسمًا في تشكيل استراتيجيات الذكاء الاصطناعي المسؤول، حيث توفر رؤى حول كيفية دمج الفرق واستخدام أنظمة الذكاء الاصطناعي بشكل فعال.

مخاوف ناشئة

أصبح التركيز على الذكاء الاصطناعي المسؤول وتقييم المخاطر محط اهتمام كبير بعد تنفيذ نموذج xAI Grok-2 لإيلون ماسك على منصة التواصل الاجتماعي X (المعروفة سابقًا باسم تويتر). تشير التعليقات الأولية إلى أن هذه الخدمة لتوليد الصور تفتقر إلى القيود الكافية، مما يسهل إنشاء محتوى مثير للجدل وخادع، بما في ذلك التزييف العميق لشخصيات عامة في سيناريوهات حساسة.

أولويات رئيسية للذكاء الاصطناعي المسؤول

طرحت الاستبانة على المشاركين 11 قدرة حددتها PwC، بما في ذلك:

- تطوير المهارات

- تضمين متخصصين في مخاطر الذكاء الاصطناعي

- التدريب الدوري

- خصوصية البيانات

- إدارة البيانات

- الأمن السيبراني

- اختبار النماذج

- إدارة النماذج

- إدارة مخاطر الأطراف الثالثة

- برامج متخصصة لإدارة مخاطر الذكاء الاصطناعي

- المراقبة والتدقيق

أفاد أكثر من 80% من المشاركين بتقدم في هذه المجالات، بينما ادعى 11% فقط أنهم نفذوا جميع القدرات الـ11 بالكامل. وحذرت PwC من أن العديد من المنظمات قد تبالغ في تقدير تقدمها، مشيرة إلى أن تعقيدات إدارة الذكاء الاصطناعي المسؤول يمكن أن تعيق التنفيذ الكامل. على سبيل المثال، تعتبر إدارة البيانات الفعالة ضرورية لتعريف الوصول الذي تمتلكه نماذج الذكاء الاصطناعي للبيانات الداخلية بينما يتم وضع تدابير حماية. علاوة على ذلك، قد لا تكفي الأساليب التقليدية للأمن السيبراني لحماية ضد الهجمات المعقدة مثل تسميم النماذج.

المسؤولية في الذكاء الاصطناعي المسؤول

لمساعدة الشركات في التنقل خلال تحولها نحو الذكاء الاصطناعي، تنصح PwC بإعطاء الأولوية لاستراتيجية شاملة للذكاء الاصطناعي المسؤول. من التوصيات الرئيسية هو تحديد مسؤولية واضحة لممارسات الذكاء الاصطناعي المسؤول، يُفضل أن تكون تحت إشراف مدير تنفيذي واحد. شددت Kosar على أهمية اعتبار سلامة الذكاء الاصطناعي أولوية تنظيمية، مقترحة تعيين مدير للذكاء الاصطناعي أو قائد مخصص للذكاء الاصطناعي المسؤول للتعاون مع مختلف المعنيين.

قالت Kosar: "ربما يكون الذكاء الاصطناعي هو المحفز لتوحيد المخاطر التكنولوجية والتشغيلية".

تواصل PwC اقتراح أن تأخذ المنظمات في اعتبارها دورة حياة أنظمة الذكاء الاصطناعي بالكامل. وهذا يتطلب الانتقال من الاعتبارات النظرية إلى التنفيذ الفعلي لسياسات الأمان والثقة في جميع أنحاء المؤسسة. يتطلب الاستعداد للتنظيمات المستقبلية الالتزام بممارسات الذكاء الاصطناعي المسؤول، بالإضافة إلى خطط للشفافية مع المعنيين.

أعربت Kosar عن دهشتها من استجابات الاستبيان التي تشير إلى أن العديد من التنفيذيين يعتبرون الذكاء الاصطناعي المسؤول ميزة تجارية. وقالت: "الذكاء الاصطناعي المسؤول ليس مجرد إدارة للمخاطر؛ بل يجب أن يخلق قيمة أيضًا. ترى المنظمات فيه ميزة تنافسية ترتكز على الثقة".

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles