مايكروسوفت تكشف عن أدوات جديدة للذكاء الاصطناعي في أزور لتقليل المخاطر في سلامة وموثوقية نماذج اللغة الكبيرة.

مع تزايد الطلب على الذكاء الاصطناعي التوليدي، أصبحت ضمان نشره بشكل آمن وموثوق أكثر أهمية من أي وقت مضى. تسعى الشركات لتطوير تطبيقات نموذج اللغة الكبيرة (LLM) التي تنتج باستمرار مخرجات عالية الجودة مع تجنب المخاطر المحتملة.

استجابةً لذلك، كشفت شركة Microsoft عن أدوات جديدة في Azure AI مصممة لمعالجة قضايا مثل الهلوسات التلقائية—وهي مشكلة شائعة في الذكاء الاصطناعي التوليدي—والتهديدات الأمنية كحقن الطلبات، حيث يقوم المهاجمون بالتلاعب بالنموذج ليقوم بإنشاء محتوى ضار أو شخصي، كما هو الحال مع أعماق مزيفة تم إنشاؤها باستخدام مولد الصور الذكي من Microsoft.

الميزات الرئيسية للعروض الجديدة من Microsoft

تحتوي هذه التحسينات على Azure AI، التي هي في مرحلة المعاينة حالياً، ومن المتوقع أن تكون متاحة على نطاق واسع في الأشهر القليلة المقبلة، رغم عدم وجود موعد محدد للإطلاق.

يمكن أن تضر هجمات حقن الطلبات بالأمان من خلال تمكين الجهات الخبيثة من تغيير المطالبات المدخلة لتجاوز العمليات الطبيعية للنموذج، بما في ذلك ضوابط الأمان. تعالج Microsoft التفاعلات المباشرة وغير المباشرة—مثل استخدام صفحات الويب الضارة—من خلال دمج ميزة "درع الطلبات" في Azure AI. تستخدم هذه الميزة المتقدمة خوارزميات التعلم الآلي ومعالجة اللغة الطبيعية لتحليل الطلبات والبيانات الخارجية للكشف عن النيات الخبيثة، مما يمنع المدخلات الضارة قبل أن تصل إلى النموذج.

ستعمل "درع الطلبات" مع ثلاثة عروض ذكاء اصطناعي من Microsoft: Azure OpenAI Service وAzure AI Content Safety وAzure AI Studio.

تعزيز الاعتمادية والسلامة

إلى جانب حماية التطبيقات من هجمات حقن الطلبات، تلتزم Microsoft بتحسين موثوقية تطبيقات الذكاء الاصطناعي التوليدي. تشمل الأدوات الجديدة قوالب جاهزة للرسائل النظامية مع التركيز على السلامة وميزة تُعرف باسم "كشف التأسيس".

تساعد القوالب الجاهزة المطورين في إنشاء رسائل نظام تشجع على نتائج آمنة ومسؤولة ومبنية على البيانات. يستخدم كشف التأسيس نموذج لغة مخصص مدرب بدقة لتحديد الهلوسات أو الأخطاء في النصوص المولّدة، وسيتم دمج كلا الميزتين في Azure AI Studio وAzure OpenAI Service.

بالإضافة إلى ذلك، ستأتي مقياس التأسيس مع تقييمات آلية، مما يسمح للمطورين باختبار التطبيقات التوليدية للكشف عن المخاطر ومشكلات الأمان. تقيم هذه التقييمات احتمال استغلال التطبيق وإنتاج محتوى غير مناسب، مع تقديم شروحات بلغة طبيعية تساعد المطورين على وضع استراتيجيات فعالة للتقليل من المخاطر.

أكدت سارة بيرد، المديرة التنفيذية للمنتجات في مجال الذكاء الاصطناعي المسؤول في Microsoft، أن العديد من المنظمات تفتقر إلى الموارد الكافية لاختبار التطبيقات بشكل شامل. وفي الوقت نفسه، يعتبر إنشاء مجموعات بيانات اختبار عالية الجودة تعكس المخاطر الناشئة مثل هجمات "جيلبريك" تحديًا، وغالبًا ما تكون تفسير نتائج التقييم معقدة.

المراقبة في الوقت الفعلي للتطبيقات الإنتاجية

بمجرد أن يتم إدخال التطبيقات في الإنتاج، ستوفر Microsoft ميزات مراقبة في الوقت الفعلي. ستتتبع هذه الأدوات التفاعلات المدخلة والمخرجات التي تنبه آليات الأمان مثل "درع الطلبات". متاحة من خلال Azure OpenAI Service وAzure AI Studio، توفر هذه المراقبة تصورات تفصيلية للمدخلات المحجوبة والمخرجات النموذجية، مصنفة حسب شدة الخطورة.

يسمح هذا الوضوح للمطورين بتحديد اتجاهات الطلبات الضارة مع مرور الوقت، مما يمكنهم من تحسين مرشحات المحتوى وضوابط الأمان لتعزيز سلامة التطبيقات.

تواصل Microsoft تعزيز عروضها في مجال الذكاء الاصطناعي، حيث بدأت بالتركيز على نماذج OpenAI قبل أن تتوسع في شراكاتها مع شركات أخرى مثل Mistral. يمثل الانضمام الأخير لمصطفى سليمان وفريق Inflection AI جهدًا استراتيجيًا لتنوع قدرات الذكاء الاصطناعي لديها.

مع هذه الأدوات الجديدة للسلامة والموثوقية، تهدف Microsoft إلى تمكين المطورين من بناء تطبيقات ذكاء اصطناعي توليدية آمنة، مما يعزز التزامها بحلول الذكاء الاصطناعي الموثوقة—وهو مطلب أساسي للشركات التي تتنقل في هذا المشهد سريع التطور.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles