تأخذ فرق الأمن في الوقت الحالي بعين الاعتبار أدوات مبتكرة مثل ChatGPT لتعزيز استراتيجيات الكشف عن التهديدات. وفقًا لدينيس شو، مدير أول ومحلل في جارتنر، فإن أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT تحمل وعدًا لمتخصصي الأمن، حيث يمكن أن تساعد في مجالات مثل هندسة الكشف والتدريب، لكن التكاليف المرتبطة بالإصدارات المدفوعة قد تشكل عائقًا.
في قمة جارتنر للأمن وإدارة المخاطر بلندن، أشار شو إلى أن النسخة الأساسية المجانية من ChatGPT، المدعومة بنموذج GP-3.5 Turbo، تواجه صعوبات في الاحتفاظ بالسياق وأداء المهام البرمجية. وبالتالي، قد يحتاج المتخصصون في الأمن إلى اختيار النسخة المدفوعة ChatGPT Plus بما يعادل 20 دولارًا شهريًا أو النسخة الجديدة ChatGPT Enterprise لتحقيق الوظائف المطلوبة لأدوارهم. مع توسع المؤسسات، يمكن أن ترتفع التكاليف بشكل كبير اعتمادًا على عدد المستخدمين.
سلط شو الضوء على أن النسخة Enterprise توفر تحكمًا أفضل في البيانات مقارنةً بالنسخ الأساسية وPlus، لكنه حذر من أنها قد لا تكون جاهزة بعد للنشر. على الرغم من هذا، فإن العديد من بائعي الأمن الكبار يعملون بفاعلية على تطوير ميزات الذكاء الاصطناعي التوليدي. على سبيل المثال، تهدف استحواذ شركة Cisco على Splunk إلى تعزيز قدرات تحليل البيانات، بينما أطلقت Privacera حلاً للذكاء الاصطناعي التوليدي في يونيو. قدمت Nvidia أيضًا مكتبتها للبرمجيات الأمنية المعتمدة على التعلم العميق، Morpheus، كجزء من مجموعتها AI Enterprise 3.0. لاحظ شو اتجاهًا بين الشركات يتركز على دمج واجهة اللغة الطبيعية لـ ChatGPT في المنتجات القائمة لتبسيط الوظائف.
بينما ظهرت أدوات أمنية مبتكرة مثل WormGPT وFraudGPT المصممة لـ "خداع المحتالين"، حذر شو من أن الوصول إلى هذه الحلول يتطلب أيضًا استثمارًا. وأشار إلى أن النماذج المتاحة على نطاق واسع مثل ChatGPT يمكن أن تؤدي وظائف مشابهة، مثل إنشاء رسائل بريد إلكتروني تصيد. وقد شكلت هذه الحالة ما أشار إليه شو بـ "سباق التسلح" في مجال أمان الذكاء الاصطناعي، حيث غالبًا ما يكون للمهاجمين اليد العليا. "فقط بـ 20 دولارًا شهريًا، يمكن لمستخدم خبيث تطوير برامج ضارة أو إنشاء رسائل بريد إلكتروني تصيد، بينما يواجه المدافعون تكاليف أعلى بكثير لتحقيق كفاءات مشابهة"، أكد شو.
فهم قيود أدوات الذكاء الاصطناعي أمر بالغ الأهمية. شبه شو ChatGPT بطفل في الخامسة من عمره مدرب على مجموعة بيانات واسعة: قد يكون مفيدًا لمهام أمان معينة لكنه غير مجهز لأخرى. "هناك أسئلة لن تسألها لطفل في الخامسة"، أشار شو، مؤكدًا على أهمية التوقعات الواقعية والتحقق. في مجال عمليات الأمن (SecOps)، قد يكون تحديد دقة الرؤى الناتجة عن الذكاء الاصطناعي تحديًا.
كما أشار شو إلى نقص حالات الاستخدام القوية لتطبيق أنظمة الذكاء الاصطناعي في إدارة الثغرات أو إدارة سطح الهجوم، مشيرًا إلى نموذج Google Sec-PaLM فقط كالنموذج الوحيد المعروف لاكتشاف التهديدات القادر على التعرف على السكربتات الخبيثة. ومع ذلك، ذكر أنه لا يزال في مراحله المبكرة، مع عدم وجود معايير منشورة بعد.
للفرق الأمنية التي تتطلع إلى تنفيذ أدوات ذكاء اصطناعي مثل ChatGPT، من الضروري تأسيس قواعد واضحة للحوكمة وكتيبات تشغيل. "فهم متى وكيف يتم استخدام أدوات الذكاء الاصطناعي، وتحديد حالات استخدام واضحة في SecOps"، نصح شو. وشدد على أهمية تجنب الحالات والمواقف الحساسة زمنياً والتي تتضمن بيانات شركات حساسة، موصياً بأن تقدم المؤسسات تدريبًا على تفاعلات الذكاء الاصطناعي وتطبيق بروتوكولات المراقبة.
الوعي بتقلبات الذكاء الاصطناعي أمر أيضًا بالغ الأهمية. قد لا تقدم أدوات الذكاء الاصطناعي التوليدي استجابات متسقة لنفس الاستعلام. بالإضافة إلى ذلك، شجع شو الفرق على متابعة التحديثات المتعلقة بالتكنولوجيا نفسها. على سبيل المثال، قدمت OpenAI مؤخرًا إمكانيات جديدة لـ ChatGPT مع GPT-4V، مما يسمح بالتفاعل عبر الصوت والصورة. أعرب شو عن حماسه حول هذه الإمكانيات، متصورًا سيناريوهات حيث يمكن للفرق التفاعل مع أنظمتها بطريقة أكثر بديهية من خلال التقاط صورة وطلب تشخيص.
في النهاية، في حين أن أدوات الذكاء الاصطناعي مثل ChatGPT قادرة على مساعدة المتخصصين في الأمن من خلال تبسيط جهودهم، فإنها ليست بديلة عن الخبرة البشرية. حذر شو من أن "هذه التكنولوجيا لا تزال نسلًا يبلغ خمس سنوات" ولديها الكثير لتتعلمه، مما يعزز أهمية استخدام هذه الأدوات بحكمة وفعالية مع تقدمها.