ما الذي نحتاجه لتأمين الذكاء الاصطناعي التوليدي؟
تشير دراسة حديثة أجراها كل من IBM وAmazon Web Services (AWS) إلى عدم وجود حل بسيط لتأمين الذكاء الاصطناعي التوليدي. يستند التقرير إلى استبيان أجراه معهد IBM لقيمة الأعمال مع قادة تنفيذيين بارزين في الولايات المتحدة، مما يبرز أهمية الأمان في مبادرات الذكاء الاصطناعي. حيث يتفق 82% من قادة الأعمال على أن الذكاء الاصطناعي الآمن والموثوق هو أمر حيوي لنجاح الأعمال.
ومع ذلك، هناك تباين واضح بين النوايا والأفعال: حيث تؤمن المؤسسات حالياً 24% فقط من مشاريعها في الذكاء الاصطناعي التوليدي. هذه المخاوف بشأن الأمان تت echoed في تقرير PwC، الذي يشير إلى أن 77% من الرؤساء التنفيذيين يشعرون بالقلق حيال مخاطر الأمن السيبراني للذكاء الاصطناعي.
لمعالجة هذه التحديات، تتعاون IBM مع AWS لتعزيز أمان الذكاء الاصطناعي التوليدي. اليوم، أعلنا عن خدمة اختبار IBM X-Force Red للذكاء الاصطناعي، والتي تهدف إلى تحسين تدابير الأمان في الذكاء الاصطناعي التوليدي.
التنقل بين الابتكار والأمان
على الرغم من أن تأمين التكنولوجيا قد يبدو أساسياً، إلا أن العديد من المؤسسات تعطي الأولوية للابتكار على الأمان. يشير التقرير إلى أن 69% من المؤسسات تضع الابتكار في المقام الأول، مما يتسبب في تجاهل تدابير الأمان الشاملة. تلاحظ ديمبل أهلواليا، الشريك العالمي الأول في خدمات الأمن السيبراني في IBM Consulting، أن القادة تحت ضغط للابتكار باستخدام الذكاء الاصطناعي التوليدي، مما يجعل الأمان فكرة لاحقة.
"كما في الأيام الأولى للحوسبة السحابية،" تلاحظ أهلواليا، "يندفع العديد نحو الذكاء الاصطناعي التوليدي بدون تخطيط أمني كافٍ، مما يعرض الأمان للخطر."
إنشاء ضوابط فعالة لأمان الذكاء الاصطناعي
لتعزيز الثقة في الذكاء الاصطناعي التوليدي، يجب على المؤسسات تنفيذ حوكمة قوية. وهذا يتطلب إنشاء سياسات وعمليات وضوابط تتماشى مع الأهداف التجارية—حيث يعتقد 81% من التنفيذيين أن نماذج الحوكمة الجديدة ضرورية لتأمين الذكاء الاصطناعي التوليدي.
بمجرد إنشاء أطر الحوكمة، يمكن للمؤسسات تطوير استراتيجيات لتأمين جميع مراحل الذكاء الاصطناعي. يتطلب ذلك التعاون بين فرق الأمان والتكنولوجيا والأعمال، بالإضافة إلى الاستفادة من خبرة الشركاء التقنيين في تطوير الاستراتيجيات، والتدريب، وتبرير التكاليف، والتنقل عبر الامتثال.
خدمة اختبار IBM X-Force Red للذكاء الاصطناعي
إلى جانب الحوكمة، تعتبر التحقق والاختبار حيوية لضمان الأمان. تعد خدمة اختبار IBM X-Force Red للذكاء الاصطناعي أول خدمة اختبار مصممة خصيصاً للذكاء الاصطناعي من IBM. تجمع هذه الخدمة فريقاً متنوعاً من الخبراء في اختبار الاختراق، ونظم الذكاء الاصطناعي، وعلوم البيانات، مستفيدين من رؤى IBM Research وصندوق أدوات مقاومة التهديدات.
يشير مصطلح "الاختبار الأحمر" (red teaming) إلى نهج أمني استباقي حيث يتم استخدام تكتيكات معادية لتحديد الثغرات. يوضح كريس تومسون، المسؤول العالمي عن X-Force Red في IBM، أن التركيز قد انتقل نحو اختبار أمان نموذج الذكاء الاصطناعي، على الرغم من أن تكتيكات الاختبار الأحمر التقليدية لم تحظ بالاستكشاف الكافي.
"تبدو طبيعة الهجمات على تطبيقات الذكاء الاصطناعي التوليدي مشابهة لتهديدات أمان التطبيقات التقليدية، ولكن مع تحويرات فريدة وأساليب هجوم موسعة"، يلاحظ تومسون.
بينما نتجه نحو عام 2024، تشهد IBM تقارباً في الاستراتيجيات يشبه الاختبار الأحمر الحقيقي. تشمل مقاربتهم أربعة مجالات رئيسية: منصات الذكاء الاصطناعي، خط أنابيب التعلم الآلي لضبط وتدريب النماذج، بيئة الإنتاج لتطبيقات الذكاء الاصطناعي التوليدي، والتطبيقات نفسها.
"متماشين مع جهودنا التقليدية في الاختبار الأحمر، نهدف إلى كشف فرص الكشف المفقودة وتعزيز سرعة اكتشاف التهديدات المحتملة التي تستهدف هذه الحلول المبتكرة في الذكاء الاصطناعي"، يختم تومسون.