بصفته مسؤول الأمن المعلوماتي الرئيسي في شركة Anthropic، يتولى جيسون كلينتون دورًا متنوعًا ويقدم تقاريره مباشرةً إلى الرئيس التنفيذي داريوم أموديي. مع فريق متخصص، يدير جوانب مختلفة من الأمن، بما في ذلك حماية البيانات والحماية المادية، في هذه الشركة الناشئة المدعومة من جوجل وأمازون والمعروفة بنماذجها اللغوية المتقدمة، كلاود وكلاود 2. على الرغم من جمعها أكثر من 7 مليار دولار في الاستثمارات وتوظيفها حوالي 300 شخص، تتركز جهود كلينتون بشكل أساسي على حماية أوزان نموذج كلاود، المخزنة في ملف ضخم بحجم تيرابايت، من الوصول غير المصرح به.
في مجال تعلم الآلة، تمثل أوزان النموذج الاتصالات العددية الأساسية التي تمكّن الشبكة العصبية من التعلم وإصدار التنبؤات. تؤثر القيم النهائية لهذه الأوزان بشكل كبير على الأداء العام للنموذج. تشير دراسة حديثة لمؤسسة راند إلى أهمية حماية هذه الأوزان، التي تُعبر عن الموارد الضخمة والعمليات المعقدة المشاركة في تدريب النماذج المتقدمة. إذا حصل عليها جهات خبيثة، فقد تتيح لهم الوصول الكامل إلى النموذج بتكلفة تدريب بسيطة.
قال كلينتون في مقابلة حديثة: "ربما أقضي نصف وقتي كمدير للأمن المعلوماتي أفكر في كيفية حماية ذلك الملف الواحد"، مشيرًا إلى أنه يتلقى اهتمامًا وموارد كبيرة داخل المؤسسة.
المخاوف بشأن أوزان النموذج
أوضح كلينتون، الذي انتقل إلى شركة Anthropic بعد 11 عامًا في جوجل، أنه بينما يعتبر البعض الأوزان ملكية فكرية عالية القيمة، تُركز القلق الرئيسي للشركة على منع التكنولوجيا من الوقوع في الأيدي الخطأ. وشرح أن سوء الاستخدام من قبل مجرمين انتهازيين أو جماعات إرهابية أو دول قد يؤدي إلى عواقب وخيمة. وأكد: "إذا تمكن المهاجم من الوصول إلى الملف بالكامل، فإن ذلك يعني الوصول إلى الشبكة العصبية بأكملها".
تتردد هذه المخاوف في المبادرات الحكومية الأمريكية الحديثة. حيث يُلزم الأمر التنفيذي من البيت الأبيض الشركات المالكة للنماذج الأساسية بتوثيق ملكية الأوزان وتدابير الأمن المحيطة بها.
ذكرت شركة OpenAI، وهي لاعب بارز في هذا المجال، في منشور على مدونتها في أكتوبر 2023 أنها تستثمر بجد في تدابير الأمن السيبراني لحماية الأوزان النموذجية المملوكة، مما يحد من توزيعها خارج منظمتها وشريكتها التكنولوجية مايكروسوفت.
استهداف ثغرات جديدة في الأبحاث
تعرّف المؤلفون المشاركون سلا نيفو ودان لاهاف من تقرير مؤسسة راند الأخير، "تأمين أوزان نماذج الذكاء الاصطناعي"، حوالي 40 ثغرة محتملة قد يستغلها الفاعلون الخبيثون لسرقة الأوزان. من الوصول غير المصرح به إلى الهجمات على سلسلة الإمداد، سلط التقرير الضوء على أمثلة حقيقية لهذه الثغرات.
شدد نيفو على أن القلق أقل بشأن القدرات الحالية وأكثر حول المخاطر المستقبلية، متوقعًا آثارًا كبيرة على الأمن القومي مع تقدم النماذج.
مخاطر النماذج الأساسية المفتوحة
لا يتفق جميع الخبراء على شدة المخاطر المرتبطة بتسرب أوزان نماذج الذكاء الاصطناعي، خاصةً فيما يتعلق بالنماذج مفتوحة المصدر. وأشار موجز سياسة معهد ستانفورد للذكاء الاصطناعي إلى أن النماذج الأساسية المفتوحة المتاحة على نطاق واسع يمكن أن تعزز الابتكار والشفافية، مقترحًا أنه يجب تقييم المخاطر المرتبطة بها مقابل النماذج المغلقة.
أشاد كيفن بانكستون من مركز الديمقراطية والتكنولوجيا بالموجز لدراسته المتوازنة المستندة إلى الأدلة. نوه الموجز إلى نتائج مختلطة، مشيرًا إلى نموذج لاما 2 من ميتا، الذي أُطلق مع أوزان متاحة للجمهور على الرغم من تسرب سابق.
بينما يجادل أنصار الأمن مفتوح المصدر، تشير هيذر فريز من جامعة جورجتاون إلى أنه مع تطور النماذج المولدة، تزداد إمكانيات الأذى أيضًا، خاصةً بالنسبة للأفراد المستهدفين من قبل التقنيات الخبيثة.
التأكيد على الشفافية في الأمان
صرح نيكولاس باتري، مهندس تعلم آلي في Hugging Face، بأن المخاطر المرتبطة بأوزان النموذج تتطلب بروتوكولات أمان منتظمة. ومع ذلك، يعتقد أن الشفافية تعزز الأمان. ووافق ويليام فالكون، الرئيس التنفيذي لشركة Lightning AI، على هذا الرأي، مشيرًا إلى أن محاولات التحكم في تسرب أوزان النموذج غير مثمرة نظرًا لتطور مجتمع المصدر المفتوح بسرعة.
يتفق كلينتون على أن النماذج مفتوحة المصدر لا تمثل أكبر المخاطر التي يجب على Anthropic التركيز عليها. ويحث الحكومات على تنظيم النماذج "الحدودية" مع التأكيد على أهمية البحث المستمر والأمن.
التحديات الأمنية المستمرة
على الرغم من التفاؤل من الباحثين، حذر نيفو من الغرور، محذرًا من أن التدابير الأمنية الحالية قد لا تحمي بشكل كافٍ من التهديدات المستقبلية. وأكد كلينتون على تحدي نقص المواهب في أمن الذكاء الاصطناعي، قائلاً: "لا يوجد خبراء في أمن الذكاء الاصطناعي... نحن بحاجة إلى مهندسي أمان بارزين يمكنهم التكيف بسرعة مع هذا المشهد المتطور".
أعرب عن قلقه من سهولة استغلال الثغرات، متوقعًا تحول ممارسات الأمن السيبراني من التحديثات الدورية إلى اليومية، مما يتطلب تغييرًا كبيرًا في العقلية عبر الصناعة.
تؤكد التزام كلينتون بتحقيق توازن بين تقدم الأبحاث السريع وتدابير الأمان القوية على أهمية الاستراتيجيات الاستباقية لحماية أوزان نماذج الذكاء الاصطناعي. واختتم قائلاً: "من الضروري أن يشعر فريق بحثنا بالدعم أثناء إدارة أوزان النماذج بشكل آمن".