أطلقت شركة Credo AI المتخصصة في حوكمة الذكاء الاصطناعي منصة جديدة تهدف إلى تعزيز الشفافية والامتثال بشأن سياسات الذكاء الاصطناعي المسؤول من خلال التكامل مع أدوات العمليات التجارية وعمليات الذكاء الاصطناعي الخارجية.
تسمح منصة Credo AI Integrations Hub الجديدة للعملاء من الشركات بربط منصات تطوير الذكاء الاصطناعي التوليدي، مثل Amazon SageMaker وMLFlow وMicrosoft Dynamics 365، مع منصة حوكمة مركزية. بالإضافة إلى ذلك، يمكن دمج المنصات المستخدمة عادةً في نشر هذه التطبيقات، مثل Asana وServiceNow وJira، ضمن هذه المنصة.
تهدف فكرة Integrations Hub إلى تبسيط الربط بين تطبيقات الذكاء الاصطناعي ومنصة حوكمة Credo AI. لن يتعين على الشركات تحميل الوثائق للتحقق من معايير السلامة والأمان؛ بدلاً من ذلك، يقوم Hub تلقائيًا بجمع البيانات الوصفية ذات الصلة التي تحتوي على هذه المعايير.
وفقًا لنافريتا سينغ، مؤسسة ومديرة تنفيذية لشركة Credo AI، تم تصميم Integrations Hub بعناية لدمج حوكمة الذكاء الاصطناعي - بما في ذلك قواعد الإفصاح عن البيانات وسياسات الاستخدام الداخلي - في مراحل التطوير الأولى.
قالت سينغ: "بينما تتكيف المؤسسات العالمية مع الانتشار السريع لأدوات الذكاء الاصطناعي، هدفنا هو مساعدتها على تحقيق أقصى استفادة من استثماراتها في الذكاء الاصطناعي من خلال تبسيط الحوكمة وإزالة الأعذار بشأن تعقيدها".
تتضمن Integrations Hub اتصالات مسبقة التكوين مع منصات شائعة مثل Jira وServiceNow وAmazon SageMaker وBedrock وSalesforce وMLFlow وAsana وDatabricks وMicrosoft Dynamics 365 وAzure Machine Learning وWeights & Biases وHugging Face وCollibra. كما يمكن تطوير تكاملات مخصصة مقابل رسوم إضافية.
الحوكمة منذ البداية
تشير الدراسات إلى أن الحوكمة المسؤولة للذكاء الاصطناعي - التي تتضمن تقييم الامتثال للوائح والمعايير الأخلاقية والخصوصية - أصبحت بالغة الأهمية للشركات. ومع ذلك، فإن القليل من المؤسسات الحالية تقيم هذه المخاطر بشكل فعال.
بينما تتنقل الشركات في مجال الممارسات المسؤولة في الذكاء الاصطناعي التوليدي، تزداد أدوات التبسيط لتقييم المخاطر والامتثال شعبية. تعتبر Credo AI واحدة من عدة شركات تسعى لجعل ممارسات الذكاء الاصطناعي المسؤول أكثر سهولة.
يتضمن مجموعة منتجات IBM Watsonx منصة حوكمة لتقييم النماذج من حيث الدقة والتحيز والامتثال، بينما تقدم Collibra أدوات حوكمة للذكاء الاصطناعي تخلق سير عمل لمراقبة برامج الذكاء الاصطناعي.
بينما تتحقق Credo AI من التطبيقات للبحث عن مخاطر العلامة التجارية المحتملة، فإنها تركز بشكل أساسي على ضمان امتثال المؤسسات للوائح الحالية والقادمة المتعلقة بالأنظمة الأوتوماتيكية.
حاليًا، اللوائح الخاصة بالذكاء الاصطناعي التوليدي لا تزال نادرة، على الرغم من أن المؤسسات قد بدأت تتبع سياسات الخصوصية واحتفاظ البيانات التي وضعتها قواعد التعلم الآلي والبيانات.
أشارت سينغ إلى أن بعض المناطق تتطلب تقارير عن حوكمة الذكاء الاصطناعي، مشيرة إلى قانون مدينة نيويورك 144، الذي يحظر استخدام الأدوات الأوتوماتيكية في قرارات التوظيف.
وأضافت: "تتطلب متطلبات معينة مثل نسبة التوازن الديموغرافي للامتثال. تقوم Credo AI بترجمة هذا القانون إلى رؤى قابلة للتنفيذ لعمليات الذكاء الاصطناعي الخاصة بك، مما يسهل علينا جمع البيانات الوصفية اللازمة لتلبية الالتزامات القانونية".