متى يجب استخدام ART: استغلال صندوق أدوات القوة المعادية من IBM لحلول الذكاء الاصطناعي

تتقدم IBM في مجال أمان الذكاء الاصطناعي من خلال مبادرتها مفتوحة المصدر، صندوق أدوات الصمود ضد الهجمات (ART). اليوم، يتم إطلاق ART على منصة Hugging Face، حيث توفر أدوات مصممة لمستخدمي الذكاء الاصطناعي وعلماء البيانات لتقليل المخاطر الأمنية المحتملة. رغم أن هذا الإصدار يمثل معلمًا جديدًا، فقد تم تطوير ART منذ عام 2018 وتمت إحالته إلى مؤسسة لينكس كمشروع مفتوح المصدر في عام 2020. على مدى السنوات، واصلت IBM تطوير ART كجزء من مبادرة DARPA المسماة ضمان صمود الذكاء الاصطناعي ضد التضليل (GARD).

تزداد أهمية التركيز على أمان الذكاء الاصطناعي مع انتشار تقنيات الذكاء الاصطناعي. تشمل التهديدات الشائعة تلوث بيانات التدريب واستراتيجيات التهرب التي يمكن أن تضلل نماذج الذكاء الاصطناعي من خلال إدخال بيانات ضارة أو تعديل المدخلات.

من خلال دمج ART مع Hugging Face، تهدف IBM إلى تعزيز الوصول إلى أدوات الأمان الدفاعية للذكاء الاصطناعي للمطورين، مما يساعدهم على التخفيف من التهديدات بشكل أكثر فعالية. يمكن الآن للمنظمات التي تستخدم نماذج الذكاء الاصطناعي من Hugging Face تأمين أنظمتها ضد هجمات التهرب والتلوث بينما تدمج هذه الدفاعات بسلاسة في سير عملها.

وقالت ناتالي باراكالدو أنجل، مديرة حلول أمان وخصوصية الذكاء الاصطناعي في IBM: "يستضيف Hugging Face مجموعة كبيرة من النماذج المتقدمة". وأضافت: "يمكن لهذا التكامل تمكين المجتمع من الاستفادة من أدوات الفرق الحمراء والزرقاء ضمن ART لنماذج Hugging Face".

رحلة ART: من DARPA إلى Hugging Face

تاريخ التزام IBM بأمان الذكاء الاصطناعي يعود قبل طفرة الذكاء الاصطناعي التوليدي الحالية، مما يعكس نهجًا استباقيًا لحماية تقنيات الذكاء الاصطناعي. كمبادرة مفتوحة المصدر، يعد ART جزءًا من مشروع LF AI & Data التابع لمؤسسة لينكس، مستفيدًا من مساهمات متنوعة من عدة منظمات. علاوة على ذلك، قامت DARPA بتمويل IBM لتعزيز قدرات ART تحت مبادرة GARD.

بينما يبقى شمول ART ضمن مؤسسة لينكس دون تغيير، فإنه الآن يقدم الدعم لنماذج Hugging Face. حازت Hugging Face على زخم سريع كمنصة تعاونية لمشاركة نماذج الذكاء الاصطناعي، وقد أقامت IBM شراكات متعددة مع المنظمة، بما في ذلك مشروع مشترك مع NASA يركز على الذكاء الاصطناعي الجغرافي.

أهمية الصمود ضد الهجمات في الذكاء الاصطناعي

يعتبر الصمود ضد الهجمات أمرًا أساسيًا لتعزيز أمان الذكاء الاصطناعي. تشرح أنجل أن هذا المفهوم ينطوي على التعرف على محاولات الهجوم المحتملة على أنظمة التعلم الآلي وإنشاء دفاعات استباقية.

وأكدت قائلة: "يتطلب المجال فهم استراتيجيات الهجمات لحماية خط أنابيب التعلم الآلي بشكل فعال"، مشددةً على أهمية نهج الفريق الأحمر في تحديد المخاطر ذات الصلة والتخفيف منها.

منذ إنشائه في عام 2018، تطور ART لمواجهة المشهد المتغير لتهديدات الذكاء الاصطناعي، بما في ذلك مختلف الهجمات والدفاعات عبر أنماط متعددة مثل اكتشاف الكائنات، والتعقب، ومعالجة الصوت، وغيرها.

وقالت: "مؤخراً، ركزنا على دمج نماذج متعددة الأنماط مثل CLIP، التي ستتوفر قريباً في النظام". وأضافت: "في المشهد الديناميكي للأمان، من الضروري تطوير أدوات جديدة باستمرار استجابةً للتهديدات والدفاعات المتطورة."

Most people like

Find AI tools in YBX