تعرف العديد من الشركات الآن أن الذكاء الاصطناعي التوليدي أصبح جزءًا أساسيًا من العمليات الحديثة، وأن تطبيقه بشكل مسؤول أمر حيوي لنجاحها. تتبنى المؤسسات مفهوم "حوكمة الذكاء الاصطناعي"، الذي يتضمن مراقبة نشر الذكاء الاصطناعي واستخدام البيانات. أعلنت شركة Collibra، الرائدة في حوكمة البيانات ومقرها في مدينة نيويورك وبروكسل، عن إطلاق حل جديد يهدف إلى تلبية هذه الحاجة.
قال فيليكس فان دي مال، المؤسس المشارك والرئيس التنفيذي لشركة Collibra، خلال مقابلة حصرية بالفيديو: "هناك توافق على أن الذكاء الاصطناعي أصبح محور اهتمام تقريبًا لكل منظمة، ولكن من الضروري تطبيق الذكاء الاصطناعي بشكل صحيح". وقد أعلنت Collibra اليوم عن منتجها الجديد، Collibra AI Governance، الذي يهدف إلى تحويل كيفية اعتماد المؤسسات للذكاء الاصطناعي من خلال ضمان الأمان والكفاءة والمصداقية في نشره.
تجسير الفجوة بين التكنولوجيا والسياسة
كجزء من منصة Collibra لذكاء البيانات، يتيح Collibra AI Governance تجسير الفجوة الأساسية بين البيانات والذكاء الاصطناعي والامتثال القانوني. يمكّن هذا الحل الفرق عبر المجالات المختلفة من العمل بشكل تعاوني، مما يضمن أن مبادرات الذكاء الاصطناعي تتماشى مع المعايير القانونية وخصوصية البيانات، مع تقليل المخاطر وزيادة أداء النماذج والعائد على الاستثمار (ROI). يدعم الحل المؤسسات خلال رحلة اعتماد الذكاء الاصطناعي بأكملها، بدءًا من تطوير الفكرة وحتى نشرها والمراقبة المستمرة. وأوضح فان دي مال: "يتعلق الأمر بدعم دورة حياة الذكاء الاصطناعي بالكامل".
يعد Collibra AI Governance قابلاً للتطبيق على جميع تطبيقات الذكاء الاصطناعي داخل المؤسسة، وليس فقط على حل واحد أو منصة. يميز هذا الأداة نفسها من خلال توفير إدارة ورقابة بديهية لمشاريع الذكاء الاصطناعي، مما يحمي البيانات الحساسة ويعزز الشفافية في تطبيقات الذكاء الاصطناعي.
قال فان دي مال: "التحدي الأكبر يكمن في تحقيق رؤية حقيقية عبر المنظمة حول من يقوم بما وكيف". وأكد أن "الأمر يتجاوز مجرد التوثيق؛ يتعلق الأمر بإنشاء تدفقات عمل لضمان تنفيذ كل شيء بشكل صحيح". يتكامل الحل بسلاسة مع أدوات إدارة البيانات الحالية من Collibra، بما في ذلك Collibra Data Catalog وCollibra Data Quality & Observability وCollibra Data Privacy وCollibra Protect.
نهج جديد لإدارة المخاطر
تُبرز دراسة حديثة من IDC الحاجة إلى حوكمة فعالة للذكاء الاصطناعي، حيث وجدت أن 71% من الشركات تستخدم الذكاء الاصطناعي، إلا أن عملية التنفيذ تأتي مع مخاطر كبيرة. يمكن أن تؤثر التحديات مثل تحيز النموذج، وعدم الدقة، والمشكلات القانونية بشكل كبير على سمعة المؤسسة واستقرارها المالي. على سبيل المثال، واجهت Google انتقادات بشأن نموذجها Gemini AI الذي أنتج صورًا غير واضحة عرقيًا وردود فعل غير ملائمة، مما أثر على سمعتها وقيمة أسهمها.
يخفف حل حوكمة الذكاء الاصطناعي من Collibra هذه المخاطر من خلال تقديم إطار شامل لحوكمة الذكاء الاصطناعي يتضمن عمليات الامتثال المبسطة، واستراتيجيات تخفيف المخاطر، وآليات لتحسين أداء النماذج والعائد على الاستثمار. يخلق منصة موحدة لحوكمة كل من الذكاء الاصطناعي والبيانات التي تدعمه، مع معالجة المخاوف الشائعة المحيطة باعتماد الذكاء الاصطناعي.
كمكون إضافي لمنصة Collibra لذكاء البيانات، أكدت لورا سيلرز، رئيسة قسم المنتجات في Collibra، على دور الحل في تلبية الرغبة السائدة بين المؤسسات في استخدام الذكاء الاصطناعي بشكل مسؤول وسط مخاوف بشأن عدم predictability ونتائجها السلبية المحتملة.
قالت سيلرز: "من خلال Collibra AI Governance، نحن نساعد رؤساء المعلومات، ورؤساء البيانات، وقادة البيانات، والفرق القانونية من خلال توفير منصة موحدة لحوكمة الذكاء الاصطناعي والبيانات التي تغذيه، بالإضافة إلى تدفقات العمل والسياسات المؤتمتة لضمان ذكاء اصطناعي موثوق في جميع أنحاء المؤسسة".
تأييد من قادة الصناعة
أشاد دان يو، نائب الرئيس الأول للتسويق والحلول، بيانات وتحليلات في SAP SE، بحوكمة الذكاء الاصطناعي من Collibra لقدرتها على ضمان الاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي في المؤسسات. ستظهر حوكمة الذكاء الاصطناعي من Collibra في قمة غارتنر للبيانات والتحليلات في أورلاندو، فلوريدا، من 11 إلى 13 مارس 2024. من خلال معالجة التحديات المعقدة المرتبطة بمشاريع الذكاء الاصطناعي، تقدم Collibra التزامًا باستخدام الذكاء الاصطناعي بشكل مسؤول وفعال.