ميتا تطلق مبادرة اللاما الأرجوانية لتعزيز أمان الذكاء الاصطناعي
إدراكًا للحاجة الملحة إلى إطار أمني قوي في تطوير الذكاء الاصطناعي التوليدي، قدمت ميتا مؤخرًا مبادرة اللاما الأرجوانية. يدمج هذا البرنامج المبتكر استراتيجيات هجومية (فريق أحمر) ودفاعية (فريق أزرق) مستلهمة من مفهوم الفرق الأرجوانية في الأمن السيبراني، بهدف تعزيز الثقة وتقليل مخاطر الهجمات في تقنيات الذكاء الاصطناعي.
فهم الفرق الأرجوانية
تمزج مبادرة اللاما الأرجوانية بين الأساليب الهجومية والدفاعية لتقييم وتحديد وتقليل التهديدات المحتملة في الأمن السيبراني. ترمز كلمة "أرجواني" إلى التكامل المتناغم بين استراتيجيات الهجوم والدفاع، مما يؤكد التزام ميتا بسلامة ومصداقية أنظمة الذكاء الاصطناعي.
لماذا أطلقت ميتا مبادرة اللاما الأرجوانية الآن
قال آندي ثوراي، نائب الرئيس والمحلل الرئيسي في كونستليشن ريسيرش إنك، في مقابلة حديثة: "اللاما الأرجوانية تمثل خطوة كبيرة إلى الأمام بالنسبة لميتا. بعد مشاركتها في تحالف IBM للذكاء الاصطناعي، الذي يركز على تعزيز الثقة وحوكمة نماذج الذكاء الاصطناعي، تقوم ميتا بطرح أدوات وإطارات عمل بشكل استباقي حتى قبل أن تنتهي إجراءات اللجنة".
تشدد إعلانات ميتا على أنه "بينما يدفع الذكاء الاصطناعي التوليدي موجة من الابتكار—from chatbots to image generators—تسعى الشركة إلى تعزيز التعاون في أمان الذكاء الاصطناعي وزيادة الثقة في التقنيات الناشئة". تمثل هذه المبادرة تحولًا محوريًا نحو تطوير ذكاء اصطناعي توليدي مسؤول، يتميز بجهود تعاونية في مجتمع الذكاء الاصطناعي، إلى جانب معايير شاملة وإرشادات وأدوات.
تتمثل إحدى الأهداف الرئيسية للمبادرة في تزويد مطوري الذكاء الاصطناعي التوليدي بالموارد للامتثال لالتزامات البيت الأبيض بشأن تطوير الذكاء الاصطناعي المسؤول.
أدوات رئيسية أُطلقت في مبادرة اللاما الأرجوانية
بدأت ميتا برنامج اللاما الأرجوانية بإدخال CyberSec Eval، مجموعة مفصلة من معايير تقييم الأمن السيبراني لنماذج اللغة الكبيرة (LLMs)، وLlama Guard، وهو مصنف أمان مصمم لتصفية المدخلات والمخرجات بشكل فعال. بالإضافة إلى ذلك، أصدرت ميتا دليل الاستخدام المسؤول، الذي يحدد أفضل الممارسات لتنفيذ هذا الإطار.
التعاون: حجر الزاوية لأمان الذكاء الاصطناعي
يعد التزام ميتا بالتعاون المتبادل أساسيًا لاستراتيجيتها في تطوير الذكاء الاصطناعي، حيث تهدف إلى زراعة نظام بيئي مفتوح. تحقيق هذا الهدف يمثل تحديًا بسبب الطبيعة التنافسية للصناعة، ومع ذلك، تمكنت ميتا من جذب شركاء من تحالف الذكاء الاصطناعي الناشئ، بما في ذلك AMD وAWS وGoogle Cloud وHugging Face وIBM وIntel وLightning AI وMicrosoft وMLCommons وNVIDIA وScale AI، وغيرهم، لتعزيز الأدوات المتاحة للمجتمع مفتوح المصدر.
وأضاف ثوراي: "من المهم ملاحظة أن ميتا تسعى أيضًا للتعاون مع قادة الصناعة خارج التحالف، مثل AWS وGoogle وMicrosoft وNVIDIA، الذين لم يتم تضمينهم في البداية".
لدى ميتا تاريخ مثبت في توحيد الشركاء حول الأهداف المشتركة. في يوليو، أطلقت الشركة Llama 2 مع أكثر من 100 شريك، العديد منهم يعملون الآن مع ميتا على مبادرات الثقة والسلامة المفتوحة. كما تنظم الشركة ورشة عمل في NeurIPS 2023 للتعمق في هذه الأدوات.
بالنسبة للشركات التي يقودها CIOs وCISOs وCEOs، يعد رؤية هذا المستوى من التعاون أمرًا حيويًا لتعزيز الثقة في الذكاء الاصطناعي التوليدي وتبرير الاستثمارات في DevOps لإنتاج ونشر النماذج. من خلال إثبات أن حتى المنافسين يمكنهم التعاون لتحقيق هدف مشترك ومفيد، تكون ميتا وشركاؤها في وضع يمكنهم من تعزيز مصداقية حلولهم. الثقة، مثل المبيعات، تُبنى من خلال الأفعال المتسقة على مر الزمن.
بداية واعدة، لكن المزيد من العمل مطلوب
أشار ثوراي إلى أن "مجموعة الأدوات المقترحة تهدف إلى مساعدة مطوري LLM في تقييم مخاطر الأمان، وتقييم مخرجات الكود غير الآمن، ومنع استغلال هذه النماذج في هجمات سيبرانية خبيثة. رغم أن هذه خطوة أولى جديرة بالثناء، إلا أنه لا يزال هناك الكثير مما يجب القيام به".