في تطور واعد نحو ممارسات الذكاء الاصطناعي الأخلاقية، كشفت دراسة حديثة أن 61% من المدراء التنفيذيين في مختلف الصناعات حول العالم يشاركون بشكل "مرتفع" في مبادرات الذكاء الاصطناعي المسؤول داخل شركاتهم. هذه النسبة تبرز تحولًا كبيرًا، مما يضع الذكاء الاصطناعي المسؤول على أولويات الشركات ويشير إلى نهج جديد في دمج الذكاء الاصطناعي في استراتيجيات الأعمال بجانب الاعتبارات الأخلاقية.
ومن المثير للاهتمام أن علماء البيانات ومهندسي تكنولوجيا المعلومات مشتركين بشكل ملحوظ، حيث أبلغ 34% و31.7% عن مستوى عالٍ من المشاركة، على التوالي. ومع ذلك، ظهرت إحصائية مفاجئة تتعلق بمديري الاستدامة، إذ أشار 18.5% فقط إلى مشاركة ملحوظة، ما يجعلهم من بين الأقل مشاركة. وقد تفوقوا بشكل ضئيل على الشركاء الخارجيين والمستشارين، الذين أبلغوا عن مستوى مشاركة أقل. هذه الفجوة الملحوظة تثير تساؤلات حول التواصل والتعاون بين الأقسام، بالإضافة إلى نطاق المسؤوليات المرتبطة بممارسات الذكاء الاصطناعي المستدام. من المحتمل أن تحتاج الشركات إلى توسيع نطاق تركيز مديري الاستدامة ليشمل جوانب أكثر من الذكاء الاصطناعي المسؤول.
من بين المشاركين في الدراسة، أشار 63.4% إلى تأثيرهم المباشر على القرارات الاستراتيجية المتعلقة بمسؤولية الذكاء الاصطناعي، بينما كان 27.3% لديهم درجة من التأثير. وذكر 9.3% فقط أنهم غير مشاركين أو مشاركتهم محدودة في هذه القرارات الحاسمة.
في سعيهم لتعزيز المشاركة على مدار العام المقبل، أعرب المستجيبون عن رغبتهم في زيادة الانخراط في مبادرات الذكاء الاصطناعي المسؤول. وقد أشاروا إلى هدف تحقيق 69.6% للمديرين التنفيذيين، و45.4% لعلماء البيانات، و41.9% لمهندسي تكنولوجيا المعلومات. ومع ذلك، من المتوقع أن يكون معدل مشاركة مديري الاستدامة 33.5% فقط، مما يعكس استمرار تهميشهم في جهود الذكاء الاصطناعي الأخلاقي.
هناك اكتشاف ملحوظ آخر يتعلق بسلسلة التوريد. على الرغم من أن ما يقرب من 90% من الشركات تبلغ عن تنفيذ أو تقييم استراتيجيات الذكاء الاصطناعي المسؤول، إلا أن 34% فقط أنشأت عمليات لضمان تطبيق هذه الاستراتيجيات بفاعلية في سلسلة التوريد. ومن المقلق، أن نحو 40% من الشركات تفتقر إلى أي إجراء لضمان ممارسة الذكاء الاصطناعي المسؤول بين مزوديها، في حين أن 11% لديها عملية لا تزال غير مستخدمة بشكل كبير.
بالنسبة لأولئك الذين يقيمون مزوديهم لممارسات الذكاء الاصطناعي المسؤول، تختلف النتائج: نصفهم يتحققون من جميع المزودين، بينما يركز ثلثهم فقط على أكبر الموردين، و11% لا يجري أي فحص للمزودين. فيما يتعلق بإعلانات الموردين، أشار نصف المستجيبين إلى وجود فرق مخصصة للرقابة باستخدام أطر مستقلة، بينما أبلغ ربعهم عن وجود فرق بدون نهج تقييم منظم، وحوالي 19% يعتمدون على فحوصات عشوائية من الموظفين.
تؤكد هذه الفجوات - سواء داخل المؤسسات أو في علاقاتها بالموردين - على التحديات المستمرة في إعطاء الأولوية للأخلاقيات في الذكاء الاصطناعي. ومع ذلك، فإن الإيمان بالذكاء الاصطناعي المسؤول لا يزال قويًا، حيث يتفق ما يقرب من 60% من المستجيبين على أن ضمان الذكاء الاصطناعي الأخلاقي والموثوق هو جوهر عملهم. ومع ذلك، هناك أيضًا شعور بالشك العملي، حيث يعتقد نحو 40% أن الآثار الكاملة لمخاطر الذكاء الاصطناعي لن تتضح إلا بعد حدوث حادثة كبيرة ناتجة عن ممارسات غير أخلاقية. وهذا يشير إلى أنه بينما قد تعتمد بعض الشركات الذكاء الاصطناعي الأخلاقي لتحسين وضعها، قد تفضل شركات أخرى إدارة المخاطر، خاصة فيما يتعلق بالعواقب المالية والقانونية.
إن فهم الدوافع وراء تبني الذكاء الاصطناعي المسؤول - سواء كانت إيمانًا حقيقيًا بأهميته أو إدارة استراتيجية للمخاطر - أمر ضروري مع استعداد المؤسسات للتنفيذ المحتمل للوائح الحكومية المتعلقة بالذكاء الاصطناعي. بينما يتنقل أصحاب المصلحة في هذا المشهد المتطور، ستستمر المحادثات حول الذكاء الاصطناعي المسؤول في النمو، مما يتطلب اهتمامًا وإجراءً على جميع مستويات الشركات.