مؤخراً، حظي بحث جوجل باهتمام كبير داخل مجتمع التكنولوجيا. يدعي فريق البحث أنه تمكن من استخراج معلمات رئيسية من نماذج اللغة الكبيرة (LLMs) الخاصة بـ OpenAI من خلال استدعاءات API بسيطة، بتكاليف تبلغ حوالي 150 يوان (حوالي 22 دولاراً أمريكياً).
ركزت الدراسة على نماذج سلسلة GPT الخاصة بـ OpenAI. باستخدام استعلامات API دقيقة، نجح فريق جوجل في جمع بيانات حاسمة من طبقة إسقاط التضمين للنموذج. تلعب هذه الطبقة النهائية دوراً حاسماً في ربط الأبعاد المخفية مع متجهات اللوجيت، وهي أساسية لمخرجات النموذج.
أشار الباحثون إلى أنه من خلال إرسال استعلامات محددة وتحليل استجابات النموذج، تمكنوا من استنتاج حجم الأبعاد المخفية. تقنيتهم هذه قابلة للتطبيق ليس فقط على النماذج الأساسية مثل Ada وBabbage، ولكن أيضاً على النسخ المتقدمة مثل GPT-3.5 وGPT-4.
من المهم أن نلاحظ أن جوجل أجرت هذا البحث بإذن من OpenAI، وأكدت صحة طرقها بعد الانتهاء، مع ضمان حذف جميع البيانات المتعلقة بالدراسة. على الرغم من حصولهم على بعض المعلمات الأساسية للنموذج من خلال استدعاءات API، فإن هذا الاكتشاف صدم الصناعة، مما يبرز نقاط الضعف المحتملة حتى في النماذج المحمية بإجراءات أمنية صارمة.
استجابةً لذلك، نفذت OpenAI استراتيجيات دفاعية، بما في ذلك تعديلات على واجهة API للنموذج والأبعاد المخفية. ومع ذلك، أثار هذا الحادث مناقشات متجددة حول الأمان والانفتاح في نماذج اللغة الكبيرة.
تقدم نتائج جوجل ليس فقط رؤية حول نقاط الضعف الأمنية المحتملة في LLMs، ولكن أيضاً تفتح الطريق لأبحاث أمنية مستقبلية. مع استمرار تقدم تكنولوجيا الذكاء الاصطناعي، يبقى ضمان أمان وخصوصية النماذج تحدياً حاسماً للصناعة.
يعتبر هذا الحادث تذكيراً مهماً لـ OpenAI بضرورة إعطاء الأولوية لأمان النموذج وتبني تدابير حماية أكثر صرامة. كما سيكون التعاون مع الشركاء في الصناعة ضرورياً لتعزيز التطور الصحي لتقنيات الذكاء الاصطناعي.
باختصار، قدم بحث جوجل منظوراً جديداً حول القضايا الأمنية المحيطة بالنماذج اللغوية الكبيرة. نتطلع إلى المزيد من الأبحاث والابتكارات التي ستساهم في تقدم وتطوير تكنولوجيا الذكاء الاصطناعي.