عززت Lasso Security من صحة المخاطر التي تواجه نماذج الذكاء الاصطناعي التوليدية ومنصاتها، حيث ساعدت Hugging Face في تجنب هجوم كارثي محتمل من خلال اكتشاف 1,681 رمز API معرض للخطر. تم الكشف عن هذه الرموز خلال مسح شامل لمستودعات GitHub و Hugging Face أجراه باحثو Lasso.
كشفت التحقيقات عن وصول غير مصرح به إلى حسابات 723 منظمة، بما في ذلك شركات كبرى مثل Meta وMicrosoft وGoogle. من بين هؤلاء، وُجد أن 655 مستخدمًا يمتلكون رموزًا بإجراءات كتابة، حيث كانت 77 منها تمنح السيطرة الكاملة على مستودعات عدة شركات بارزة. كما قام باحثو Lasso بالوصول إلى مستودعات Bloom وLlama 2 وPythia، مما يدل على خطر كبير لحدوث هجمات على سلسلة الإمداد قد تؤثر على ملايين المستخدمين.
علق باحثو Lasso بالقول: "لقد كشفت تحقيقاتنا عن خرق خطير في بنية سلسلة الإمداد، حيث كشفنا عن حسابات بارزة تتبع Meta. لا يمكن المبالغة في خطورة الوضع. مع السيطرة على منظمة تمتلك ملايين التنزيلات، يمكننا تعديل النماذج الحالية وتحويلها إلى كيانات خبيثة. هذا يشكل تهديدًا خطيرًا، حيث قد تؤثر نماذج متحورة على ملايين الأشخاص الذين يعتمدون على هذه الأسس في تطبيقاتهم."
Hugging Face: هدف رئيسي
أصبحت Hugging Face ضرورية للمنظمات التي تطور نماذج اللغة الكبيرة (LLMs)، حيث تعتمد أكثر من 50,000 منظمة على منصتها في جهود DevOps. تستضيف مكتبة Transformers الخاصة بها أكثر من 500,000 نموذج ذكاء اصطناعي و250,000 مجموعة بيانات، مما يجعلها المورد الأساسي للمطورين وفرق DevOps.
تُعزى النمو السريع للمنصة إلى طبيعة مكتبة Transformers مفتوحة المصدر. تعتبر التعاون ومشاركة المعرفة ضمن هذا النظام البيئي من الأمور التي تسرع تطوير LLMs، مما يزيد من احتمالات التنفيذ الناجح. هذا يجعل Hugging Face هدفًا جذابًا للمهاجمين، الذين يسعون لاستغلال ثغرات سلسلة إمداد LLM والذكاء الاصطناعي التوليدي أو تسريب بيانات التدريب.
رؤى Lasso Security
في نوفمبر 2023، استكشفت Lasso Security أمان رموز API المستخدمة في Hugging Face، بهدف فهم مخاطر التعرض المحتملة بشكل أفضل. وحددوا ثلاث مخاطر ناشئة تتماشى مع قائمة OWASP Top 10 لنماذج اللغة الكبيرة (LLMs):
1. ثغرات سلسلة الإمداد: أبرزت الأبحاث كيف يمكن أن تتسبب المكونات غير الآمنة في تعريض دورات حياة LLM للهجمات، لا سيما من خلال مجموعات بيانات وأدوات نمذجة مسبقة التدريب من طرف ثالث.
2. تسميم بيانات التدريب: يمكن للمهاجمين تسميم بيانات تدريب LLM باستخدام رموز API مخترقة، مما يُدخل ثغرات أو مخاوف أخلاقية قد تضعف أمان النموذج.
3. سرقة النموذج: تُسرع الرموز المقرصنة من الوصول غير المصرح به، مما يسهل نسخ أو تسريب نماذج LLM المملوكة. أوضح استكشاف Lasso إمكانية "سرقة" أكثر من 10,000 نموذج خاص مرتبط بـ 2,500 مجموعة بيانات، مما يبرر إعادة تصنيف فئة OWASP من "سرقة النموذج" إلى "سرقة موارد الذكاء الاصطناعي (نماذج ومجموعات بيانات)."
أكد فريق Lasso Security مجددًا على خطورة الوضع، حيث قال: "مع السيطرة على منظمات تحتوي على ملايين التنزيلات، يمكننا تعديل النماذج، مما يشكل مخاطر كبيرة على المستخدمين."
خاتمة: اعتبر رموز API هويات
تسلط المخاطر المرتبطة بالخرق المحتمل في Hugging Face الضوء على الممارسات المعقدة والمتطورة المطلوبة لحماية منصات LLM والذكاء الاصطناعي التوليدي. نصح بار لانيادو، باحث أمان في Lasso Security، قائلاً: "يجب على Hugging Face أن تقوم بفحص مستمر للبحث عن رموز API المكشوفة وإما إلغاؤها أو إبلاغ المستخدمين المتأثرين."
مستندًا إلى نهج GitHub، يشجع المطورين على تجنب الرموز المدخلة بشكل صريح واتباع أفضل الممارسات لمنع التعرض غير المقصود أثناء الالتزام. مشددًا على نموذج الثقة الصفرية، يجب على Hugging Face ضمان أن تكون رموز API فريدة، واستخدام مصادقة متعددة العوامل، والتركيز على إدارة دورة الحياة والتحقق الآلي من الهوية.
في بيئة الثقة الصفرية الحالية، لا تكفي اليقظة العالية منفردة. يعد التدبير المستمر لرموز API أمرًا حيويًا لأمان نظم LLM التي ترعاها العديد من شركات التكنولوجيا الرائدة. كما توضح حادثة Hugging Face، فإن تنفيذ إدارة الوضع والحفاظ على مراقبة صارمة للوصول على مستوى رموز API هي خطوات أساسية لتعزيز الأمان التنظيمي بشكل عام. يجب على كل منظمة تبني عقلية استباقية لحماية نفسها من الخروقات المحتملة وتعزيز الأمن عبر جميع نقاط الهجوم.