الإمكانات الاقتصادية غير المستغلة للذكاء الاصطناعي: الثقة مفتاح النجاح
بينما يُعترف بالإمكانات الاقتصادية للذكاء الاصطناعي (AI) على نطاق واسع، فإن نسبة مدهشة تبلغ 87% من مشروعات الذكاء الاصطناعي تفشل في تقديم النتائج المرجوة. هذه المشكلة ليست مجرد قضية تكنولوجية أو تجارية أو ثقافية أو صناعية؛ إذ تشير الأدلة الحديثة إلى مشكلة أكثر جوهرية: الثقة.
تعزيز الثقة في أنظمة الذكاء الاصطناعي
تشير الأبحاث الأخيرة إلى أن ما يقرب من ثلثي التنفيذيين في المناصب العليا يعتقدون أن الثقة في الذكاء الاصطناعي تؤثر بشكل كبير على الإيرادات والتنافسية ونجاح العملاء. ومع ذلك، فإن بناء الثقة في أنظمة الذكاء الاصطناعي يمثل تحديًا. تمامًا كما لا نثق بالبشر على الفور، فإن الثقة في أنظمة الذكاء الاصطناعي لا تأتي بسهولة أيضًا.
إن انعدام الثقة يعيق الفوائد الاقتصادية للذكاء الاصطناعي، وغالبًا ما تبدو التوصيات التقليدية لبناء الثقة مجرد أفكار تجريدية أو غير عملية. لهذه الغاية، نقترح إطار عمل جديد: معادلة الثقة في الذكاء الاصطناعي.
معادلة الثقة في الذكاء الاصطناعي مُعرّفة
تم تصميم معادلة الثقة في الأصل للثقة بين الأفراد، ووردت في كتاب The Trusted Advisor لمؤلفيه ديفيد ميسنر، تشارلز غرين، وروبرت غالفورد بالشكل التالي:
الثقة = مصداقية + موثوقية + حميمية / توجيه ذاتي
ومع ذلك، فإن هذا الإطار لا يترجم بشكل فعّال إلى العلاقات بين الإنسان والآلة. معادلة الثقة في الذكاء الاصطناعي المعدلة هي:
الثقة = أمان + أخلاقيات + دقة / تحكم
1. الأمان هو العنصر الأساسي الأول. يجب على المؤسسات أن تسأل: "هل ستظل معلوماتي آمنة إذا تم مشاركتها مع هذا النظام الذكي؟" من الضروري ضمان تدابير أمان قوية.
2. الأخلاقيات تقدم اعتبارات أخلاقية تفوق الاعتبارات التقنية. يجب على القادة التفكير في عوامل مثل:
- معاملة الأفراد المعنيين في تطوير النموذج.
- إمكانية تفسير النموذج وآليات معالجة النتائج الضارة.
- الوعي بالتحيزات في النموذج، كما يتضح من مبادرات مثل أبحاث Gender Shades.
- نماذج الأعمال وتعويض المساهمين في بيانات تدريب الذكاء الاصطناعي.
- توافق قيم الشركة مع أفعالها، كما يتضح من الجدل حول OpenAI.
3. الدقة تُقيّم مدى موثوقية النظام الذكي في تقديم إجابات صحيحة في السياقات ذات الصلة. من الضروري تقييم تكنولوجيا النموذج وجودة البيانات.
4. التحكم يُجسّد درجة الإشراف التشغيلي المرغوبة. تشمل الأسئلة ذات الصلة ما إذا كان النظام الذكي سيعمل كما هو مقصود وما إذا كان التحكم في الأنظمة الذكية سيكون مهددًا في أي وقت.
5 خطوات لتطبيق معادلة الثقة في الذكاء الاصطناعي
1. تقييم الجدوى: تحديد ما إذا كان النظام الذكي يُضيف قيمة قبل استكشاف مدى موثوقيته.
2. تقييم الأمان: التحقيق في ممارسات معالجة البيانات على المنصة، وضمان الامتثال لمعايير الأمان الخاصة بك.
3. تحديد المعايير الأخلاقية: وضع معايير أخلاقية واضحة وتقييم جميع الأنظمة وفقًا لهذه المعايير من حيث إمكانية التفسير والعدالة.
4. تحديد أهداف الدقة: وضع معايير دقيقة مقبولة ومقاومة الإغراء القائم على الأداء المنخفض.
5. تحديد مستويات التحكم المطلوبة: تحديد مقدار التحكم الذي تحتاجه مؤسستك على الأنظمة الذكية، بدءًا من الخيارات الذاتية بالكامل إلى الخيارات شبه الذاتية.
في بيئة الذكاء الاصطناعي سريعة التطور، قد يبدو البحث عن أفضل الممارسات مغريًا، ولكن لا توجد حلول نهائية بعد. بدلاً من ذلك، يجب أن تأخذ المبادرة. كوّن فريقًا مخصصًا، وخصص معادلة الثقة في الذكاء الاصطناعي لمؤسستك، وقم بتقييم أنظمة الذكاء الاصطناعي بشكل نقدي بناءً على ذلك.
تدرك بعض الشركات التقنية هذه الديناميكيات السوقية المتطورة وتعمل على تعزيز الشفافية، مثل طبقة الثقة داينشتاين من Salesforce، بينما قد تقاوم شركات أخرى. في النهاية، يجب على مؤسستك أن تقرر مدى الثقة التي تضعها في مخرجات الذكاء الاصطناعي والشركات خلفها.
تتمتع تقنيات الذكاء الاصطناعي بإمكانات هائلة، لكن تحقيقها يعتمد على تنمية والحفاظ على الثقة بين أنظمة الذكاء الاصطناعي والمنظمات التي تستخدمها. مستقبل الذكاء الاصطناعي يعتمد على ذلك.