مناقشة افتراضية حديثة شارك فيها نير فالتمن، الرئيس التنفيذي والمشارك في تأسيس شركة أرنيكا. يتمتع فالتمن بخبرة واسعة في مجال cybersecurity، حيث شغل سابقًا منصب CISO في كابج، التي استحوذت عليها أمريكان إكسبريس، وقيادة أمان المنتجات والبيانات في فينسترا، إلى جانب إدارة أمان التطبيقات في NCR. وهو أيضًا عضو في المجلس الاستشاري لشركة سولت سكيوريتي.
يُعرف فالتمن بأنه قوة مبتكرة في هذا المجال، وقد ساهم بشكل كبير في مشاريع البرمجيات مفتوحة المصدر ويملك سبع براءات اختراع في مجال أمان البرمجيات. ويُعتبر متحدثًا مطلوبًا في الفعاليات الرئيسية المرتبطة بالأمن الرقمي مثل بلاك هات، DEF CON، BSides، وRSA.
تحت توجيه فالتمن، ترسم أرنيكا مستقبل أدوات أمان التطبيقات المصممة خصيصاً للمطورين.
مقتطف من المقابلة:
A Media: كيف تتوقع تطور دور الذكاء الاصطناعي التوليدي في مجال cybersecurity خلال السنوات 3-5 المقبلة؟
نير فالتمن: بدأنا نفهم أين يمكن للذكاء الاصطناعي التوليدي أن يقدم أكبر فائدة. لديه إمكانيات في أمان التطبيقات عن طريق توفير أدوات تجعل المطورين آمنين بشكل افتراضي، وخاصة لمساعدة المطورين الأقل خبرة في تحقيق هذا الهدف.
A Media: ما هي التقنيات أو المنهجيات الناشئة التي تراقبها والتي قد تؤثر على استخدام الذكاء الاصطناعي التوليدي للأمان؟
فالتمن: هناك حاجة متزايدة لمسارات تصحيح قابلة للتنفيذ لمعالجة الثغرات الأمنية. تبدأ هذه العملية من خلال إعطاء الأولوية للأصول الحيوية، وتحديد المسؤولين عن التصحيح، وتخفيف المخاطر بشكل فعال. سيكون الذكاء الاصطناعي التوليدي فعالاً في تصحيح المخاطر، ولكن سيتطلب ذلك تحديدًا واضحًا للأصول والملكية.
A Media: أين ينبغي أن تركز المؤسسات استثماراتها لتعظيم إمكانيات الذكاء الاصطناعي التوليدي في cybersecurity؟
فالتمن: يجب أن تركز المؤسسات على معالجة القضايا المتكررة والمعقدة، مثل تخفيف فئات معينة من ثغرات كود المصدر. مع مرور الوقت، عندما يظهر الذكاء الاصطناعي التوليدي تطبيقات إضافية، ستتطور أولويات الاستثمار.
A Media: كيف يمكن أن يغير الذكاء الاصطناعي التوليدي المنهج الأمني من رد فعل إلى استباقي؟
فالتمن: لكي يكون الذكاء الاصطناعي التوليدي تنبؤيًا حقًا، يجب أن يتدرب على بيانات ذات صلة عالية. تزيد النماذج الأكثر دقة من الثقة في القرارات المدفوعة بالذكاء الاصطناعي. سيتطلب بناء هذه الثقة وقتًا، وخصوصًا في المجالات الحساسة مثل الأمان. ومع ذلك، بمجرد أن تكون الأدوات قوية، يمكن للذكاء الاصطناعي التوليدي تخفيف المخاطر بشكل استباقي مع الحد الأدنى من التدخل البشري.
A Media: ما هي التغييرات التنظيمية اللازمة لتضمين الذكاء الاصطناعي التوليدي في الأمان؟
فالتمن: يجب أن تقوم المؤسسات بإجراء تعديلات استراتيجية وتكتيكية. يحتاج صناع القرار إلى التعليم حول فوائد ومخاطر تكنولوجيا الذكاء الاصطناعي، بالإضافة إلى توافقها مع أهداف الشركة الأمنية. من الناحية التكتيكية، يجب تخصيص الميزانيات والموارد لدمج الذكاء الاصطناعي مع أدوات اكتشاف الأصول والتطبيقات والبيانات، جنبًا إلى جنب مع تطوير دليل لإجراءات التصحيح.
A Media: ما هي التحديات الأمنية التي قد يقدمها الذكاء الاصطناعي التوليدي، وكيف يمكن معالجتها؟
فالتمن: تمثل خصوصية البيانات وتسربها مخاطر كبيرة. تشمل استراتيجيات التخفيف استضافة النماذج داخليًا، وت anonymizing البيانات قبل المعالجة الخارجية، وإجراء تدقيقات منتظمة للامتثال. بالإضافة إلى ذلك، تتطلب المخاوف المتعلقة بسلامة النماذج، مثل تسميم النماذج، تقييمات شاملة للثغرات واختبارات اختراق متقدمة.
A Media: كيف يمكن للذكاء الاصطناعي التوليدي أتمتة كشف التهديدات، وتصحيحات الأمان، والعمليات الأخرى؟
فالتمن: يمكن للذكاء الاصطناعي التوليدي كشف التهديدات من خلال تحليل السلوك التاريخي عبر مصادر بيانات مختلفة، بما في ذلك سجلات الشبكة والمعاملات. قد تشمل الاستخدامات المحتملة نمذجة التهديدات أثناء تطوير البرمجيات، وتنفيذ التصحيحات تلقائيًا مع تغطية اختبار كافية، وبروتوكولات استجابة ذاتية التحسين للحوادث.
A Media: ما الخطط أو الاستراتيجيات التي يجب أن تتبناها المؤسسات بشأن الذكاء الاصطناعي وحماية البيانات؟
فالتمن: يجب على المؤسسات وضع سياسات واضحة لجمع البيانات وتخزينها واستخدامها ومشاركتها، مع ضمان تحديد الأدوار والمسؤوليات. يجب أن تتماشى هذه السياسات مع استراتيجية cybersecurity الشاملة، مما يسهل وظائف حماية البيانات مثل استجابة الحوادث، وإخطار الخروقات، وإدارة مخاطر الطرف الثالث.