يُقيّم كبار مسؤولي المعلومات والأمن فائدة استخدام الذكاء الاصطناعي التوليدي كأداة تعلم مستمرة تلتقط البيانات السلوكية، والتلغراف، ومعلومات الاقتحام والاختراق، مع الأخذ في الاعتبار المخاطر المرتبطة. الهدف هو إنشاء "ذاكرة عضلية" جديدة لمعلومات التهديدات، لتعزيز توقعات الاختراق وتحسين سير العمل في العمليات الأمنية.
ومع ذلك، لا يزال الثقة في الذكاء الاصطناعي التوليدي متباينة. تكشف محادثات حديثة مع كبار مسؤولي الأمن من قطاعات التصنيع والخدمات، أنه رغم الفوائد المحتملة في الإنتاجية عبر التسويق والعمليات والأمن، تشكل المخاوف بشأن حقوق الملكية الفكرية والسرية البيانات المشاكل الأساسية المطروحة من قبل أعضاء مجلس الإدارة.
تستعرض دراسة "الذكاء الاصطناعي التوليدي والأمن السيبراني: مستقبل مشرق في ساحة العمل؟" التي أجرتها Deep Instinct، الآراء التي تم جمعها من مقابلات مع كبار مسؤولي الأمن. تشير الأبحاث إلى أنه على الرغم من اعتماد 69% من المؤسسات على أدوات الذكاء الاصطناعي التوليدي، فإن 46% من المتخصصين في الأمن السيبراني يعتقدون أن هذه الأدوات تزيد من احتمالية الهجمات. ويؤكد 88% من كبار مسؤولي الأمن وقادة الأمان أن هجمات الذكاء الاصطناعي المسلحة أصبحت أمرًا لا مفر منه.
يشك 85% من المشاركين أن الهجمات الأخيرة كانت مدعومة بالذكاء الاصطناعي التوليدي، خاصة مع ظهور WormGPT، أحد أدوات الذكاء الاصطناعي التوليدي التي تُسوق في المنتديات السرية لهجمات التصيد واختراق البريد الإلكتروني. أدوات مثل FraudGPT اكتسبت بسرعة شهرة في الشبكة المظلمة، مما يُظهر التسويق السريع للذكاء الاصطناعي المسلح.
أشار سيفن كراسر، كبير علماء CrowdStrike ونائب الرئيس الأول، إلى أن المهاجمين يسرعون في تسليح نماذج اللغة الكبيرة والذكاء الاصطناعي التوليدي. ورغم أن ذلك يزيد من وتيرة وحجم الهجمات، إلا أن كراسر يؤكد أن ذلك لا يُحسن جودة تلك الهجمات. يوصي بأن استخدام الأمن السحابي المدعوم بالذكاء الاصطناعي لربط الإشارات العالمية يمكن أن يكون فعالًا في مواجهة هذه التهديدات المتطورة.
تحذر ماكس هاينماير، مديرة تعقب التهديدات في Darktrace، من ضرورة تنفيذ الذكاء الاصطناعي في الدفاع قبل أن يصبح الذكاء الاصطناعي الهجومي واسع الانتشار. وتؤكد أن النزاعات التي تتحول إلى معارك بين الخوارزميات لن تُكافح إلا من خلال الاستجابة الذاتية بسرعات الآلة.
يظهر السوق لتطبيقات الذكاء الاصطناعي التوليدي نموًا سريعًا. إن قدرة الذكاء الاصطناعي التوليدي على التعلم المستمر تعتبر ميزة خاصة لتحليل البيانات الهائلة الناتجة عن النقاط النهائية. من المتوقع أن تؤدي التحديثات المستمرة في خوارزميات تقييم التهديد وترتيب المخاطر إلى ظهور حالات استخدام جديدة يأمل كبار مسؤولي الأمن في أن تُعزز توقعات التهديدات. على سبيل المثال، تهدف شراكة Ivanti مع Securin إلى تقديم ترتيب المخاطر في الوقت الحقيقي وتحسين مواقع الأمن.
تجمع شراكة Ivanti وSecurin بين معلومات الثغرات (VI) الخاصة بشركة Securin وIvanti Neurons لإنشاء نظام بيئي لمعلومات التهديدات في الوقت شبه الحقيقي. يُبرز الدكتور سرينيفاس موكامل، كبير مسؤولي المنتجات في Ivanti، فوائد الذكاء الاصطناعي المعزز للذكاء البشري في تقديم معلومات شاملة حول التهديدات وترتيب المخاطر.
من المتوقع أن يرتفع سوق الأمن السيبراني للذكاء الاصطناعي التوليدي من 1.6 مليار دولار في 2022 إلى 11.2 مليار دولار بحلول 2032، مما يعكس معدل نمو سنوي مركب يبلغ 22%. تتوقع Canalys أن يستند أكثر من 70% من عمليات الأمن السيبراني إلى الذكاء الاصطناعي التوليدي خلال السنوات الخمس المقبلة.
يُصنف Forrester حالات استخدام الذكاء الاصطناعي التوليدي إلى ثلاث مجالات أساسية: إنشاء المحتوى، وتوقع السلوك، وصياغة المعرفة. تُبرز آلي ميلي، المحللة الرئيسية في Forrester، أنه على الرغم من أن دمج الذكاء الاصطناعي والتعلم الآلي في أدوات الأمان ليس جديدًا، إلا أنه يتطور للاستفادة بشكل أفضل من البيانات التاريخية وأساليب تقييم المخاطر.
تتوقع غارتنر أن 80% من التطبيقات ستحتوي على قدرات الذكاء الاصطناعي التوليدي بحلول عام 2026، مما يشير إلى اعتماد سريع عبر المؤسسات. يؤكد كبار مسؤولي الأمن أن تكيف المنصة هو أمر حاسم لتعظيم قيمة تطبيقات الذكاء الاصطناعي التوليدي، خاصة في تعزيز أطر الأمن القائمة على عدم الثقة.
لدمج الذكاء الاصطناعي التوليدي بفعالية ضمن إطار عدم الثقة، يوصي كبار مسؤولي الأمن بتأمين جميع التطبيقات والمنصات والأدوات والنقاط النهائية من خلال المراقبة المستمرة، والضوابط الديناميكية للوصول، والتحقق المستمر. قد يؤدي دمج الذكاء الاصطناعي التوليدي إلى ظهور طرق هجوم جديدة، مما يدفع كبار مسؤولي الأمن إلى إعطاء الأولوية للدفاع ضد هجمات الاستعلام، وحقن التعليمات، وتلاعب النموذج، وتسميم البيانات.
تظهر إدارة المعرفة باستخدام الذكاء الاصطناعي التوليدي كحالة استخدام رئيسية، لتحل محل مشاريع تكامل الأنظمة الطويلة والمكلفة. في RSAC 2023، أطلق عدةvendor حلول مبنية على ChatGPT، بما في ذلك Google Security AI Workbench، وMicrosoft Security Copilot، وغيرهما، مما يُظهر الاتجاه نحو تعزيز الأمان بالذكاء الاصطناعي.
تهدف CrowdStrike من خلال إطلاق Charlotte AI إلى زيادة إنتاجية محللي الأمان من خلال أتمتة المهام المتكررة وتحسين عمليّات كشف التهديدات باستخدام الذكاء الاصطناعي المحادثاتي. من المقرر طرح Charlotte AI على مدى العام المقبل، حيث تقوم بالاستفادة من تفاعلات الوقت الحقيقي لتتبع التهديدات بشكل فعال.
تظل أخطاء تكوين السحابة هدفًا رئيسيًا للمهاجمين، مع زيادة الحوادث بنسبة 95% سنويًا. استجابةً لهذا المشهد المتزايد من التهديدات، يتوقع الخبراء زيادة نشاط الاندماج والاستحواذ لتعزيز أمان السحابة المتعددة والسحابة الهجينة. يمثل استحواذ CrowdStrike على Bionic مثالاً على هذا الاتجاه، مُعززًا أهمية الذكاء الاصطناعي التوليدي في تقوية جهود الأمن السيبراني الشاملة.