توجيه تدقيقات الذكاء الاصطناعي: معالجة التحيز والأداء والأخلاقيات
تُعدّ تحديات تدقيق نماذج الذكاء الاصطناعي من حيث التحيز والأداء والامتثال الأخلاقي قضية ملحة تواجه المؤسسات. في جولة تأثير الذكاء الاصطناعي التي نظمتها VB مؤخراً في مدينة نيويورك، ناقش قادة الصناعة منهجيات فعالة، وأفضل الممارسات، ودراسات حالة من العالم الحقيقي. من بين المتحدثين البارزين كان مايكل راج، نائب رئيس الذكاء الاصطناعي وتمكين الشبكة البيانية في Verizon Communications؛ وريبيكا تشيان، المؤسِّسة المشاركة ورئيسة التقنية في Patronus AI؛ ومات تيرك، المدير العام في FirstMark. وفي ختام الفعالية، أجرى الرئيس التنفيذي لـ VB، مات مارشال، حواراً مع جاستن غرينبرغر، نائب الرئيس الأول لنجاح العملاء في UiPath، مُركّزاً على عناصر نجاح تدقيق الذكاء الاصطناعي وكيفية بدء هذه العملية.
أكد غرينبرغر على ضرورة اتخاذ نهج استباقي في تقييم المخاطر: "كان يتم تقييم بيئة المخاطر سنوياً. الآن، يجب إعادة تقييمها تقريباً كل شهر. هل تفهم مخاطرَك وإجراءات التحكم المتبعة للتخفيف منها؟ قامت مؤسسة المدققين الداخليين (IIA) بتحديث إطارها الخاص بالذكاء الاصطناعي، لكنه يغطي بشكل أساسي الجوانب الأساسية. تشمل الأسئلة الهامة: ما مؤشرات الأداء الرئيسية لمراقبتك؟ هل هناك شفافية في مصادر بياناتك؟ هل توجد بروتوكولات للمساءلة؟ يجب أن يكون دورة التقييم أكثر تكراراً."
استشهد بغرينبرغر باللائحة العامة لحماية البيانات (GDPR) كدليل على تجاوز التنظيمات الذي أقام في النهاية أساساً قوياً لأمان البيانات في جميع الأعمال. ومن المثير للاهتمام أن صعود الذكاء الاصطناعي التوليدي يشهد تكيّف الأسواق العالمية بمعدلات مماثلة، مما يخلق مستوىً منافساً متساوياً بينما تقيم المؤسسات قدرتها على تحمل المخاطر المتعلقة بهذه التكنولوجيا.
تجاوز تحديات المشاريع التجريبية وإشراك الموظفين
بينما لا يزال اعتماد الذكاء الاصطناعي على مستوى المؤسسات يتطور، تقوم العديد من الشركات بتشغيل مشاريع تجريبية أولية لاستكشاف إمكانياته. تشمل بعض التحديات المستمرة تحديد الخبراء في الموضوع الذين يمتلكون المعرفة السياقية والمهارات النقدية اللازمة لتعريف حالات الاستخدام بشكل فعال. علاوة على ذلك، فإن تعزيز فهم الموظفين وإشراكهم أمر بالغ الأهمية. وذكر غرينبرغر أن الفهم الواضح لما يجب على الموظفين تعلمه عن تقنيات الذكاء الاصطناعي، وخاصة فيما يتعلق بالاستخدام الأخلاقي ومخاطر الملفات الزائفة، لا يزال يتطور.
تقوم المؤسسات بشكل أساسي بإدماج الذكاء الاصطناعي التوليدي ضمن سير العمل القائم بدلاً من إعادة تصميم العمليات بالكامل. وبالتالي، يجب أن تتطور التدقيقات لمراقبة كيفية استخدام البيانات الخاصة ضمن تطبيقات مختلفة، بما في ذلك الحالات الطبية الحساسة.
تطور الأدوار في عصر الذكاء الاصطناعي
مع تقدم تكنولوجيا الذكاء الاصطناعي، تبقى دور البشر في عملية التدقيق حاسماً. أوضح غرينبرغر أنه بينما يقوم المستخدمون بإطلاق استفساراتهم، تقوم أنظمة الذكاء الاصطناعي بمعالجة المعلومات وتقديم البيانات اللازمة لاتخاذ القرارات. على سبيل المثال، قد يستخدم موظف في شركة لوجستيات الاقتباسات التي تم إنشاؤها بواسطة الذكاء الاصطناعي في تفاعلاته مع العملاء. ومع ذلك، قد تواجه الأدوار التقليدية تحديات الأتمتة.
قال غرينبرغر: "حالياً، يحتفظ البشر بمسؤوليات اتخاذ القرار. مع مرور الوقت، ومع شعورنا بمزيد من الراحة مع ضوابط التدقيق والفحوصات الدورية، من المحتمل أن يتغير ذلك. في النهاية، قد يحتاج البشر إلى التركيز على الجوانب الإبداعية والعاطفية لأدوارهم، حيث قد تنتقل سلطة اتخاذ القرار بعيداً عنهم. هذا التطور أمر حتمي مع تقدم التكنولوجيا."
في الختام، يجب على المؤسسات prioritizing تقييم الأنظمة المعتمدة على الذكاء الاصطناعي بشكل مستمر للحد من المخاطر وضمان الممارسات الأخلاقية بينما يحدث التطور في المشهد التكنولوجي المتغير باستمرار.