Une récente discussion virtuelle a mis en avant Nir Valtman, CEO et cofondateur d'Arnica. Fort d'une vaste expérience en cybersécurité, Valtman a précédemment occupé le poste de CISO chez Kabbage (acquise par American Express), a dirigé la sécurité des produits et des données chez Finastra, et a géré la sécurité des applications chez NCR. Il est également membre du conseil consultatif de Salt Security.
Reconnu comme une force d'innovation dans l'industrie, Valtman a largement contribué à des projets open source et détient sept brevets en sécurité logicielle. Il est un intervenant très recherché lors de grands événements de cybersécurité tels que Black Hat, DEF CON, BSides et RSA. Sous la direction de Valtman, Arnica est à la pointe de la prochaine génération d'outils de sécurité des applications adaptés aux développeurs.
Extrait de l'interview :
A Media : Comment envisagez-vous l'évolution du rôle de l'IA générative en cybersécurité au cours des 3 à 5 prochaines années ?
Nir Valtman : Nous commençons à comprendre où l'IA générative peut offrir le plus d'avantages. Elle a un potentiel en sécurité des applications en fournissant aux développeurs des outils pour être sécurisés par défaut, en particulier pour aider les développeurs moins expérimentés à atteindre cet objectif.
A Media : Quelles technologies ou méthodologies émergentes surveillez-vous qui pourraient influencer l'utilisation de l'IA générative pour la sécurité ?
Valtman : Il y a un besoin croissant de chemins de remédiation actionnables pour les vulnérabilités de sécurité. Ce processus commence par la priorisation des actifs critiques, l'identification des responsables de la remédiation et la mitigation efficace des risques. L'IA générative sera essentielle dans la remédiation des risques, mais nécessitera une priorisation claire des actifs et des responsabilités.
A Media : Où les organisations devraient-elles prioriser leurs investissements pour maximiser le potentiel de l'IA générative en cybersécurité ?
Valtman : Les organisations devraient se concentrer sur la résolution de problèmes répétitifs et complexes, tels que la mitigation de catégories spécifiques de vulnérabilités du code source. À mesure que l'IA générative démontre d'autres applications, les priorités d'investissement évolueront.
A Media : Comment l'IA générative peut-elle transformer l'approche de la sécurité de réactive à proactive ?
Valtman : Pour que l'IA générative soit véritablement prédictive, elle doit s'entraîner sur des ensembles de données hautement pertinents. Un modèle plus précis accroît la confiance dans les décisions pilotées par l'IA. Construire cette confiance prendra du temps, particulièrement dans des domaines critiques comme la sécurité. Cependant, une fois robuste, les outils d'IA générative peuvent atténuer proactivement les risques avec un minimum d'intervention humaine.
A Media : Quelles changements organisationnels sont nécessaires pour intégrer l'IA générative en matière de sécurité ?
Valtman : Les organisations doivent effectuer des ajustements stratégiques et tactiques. Les décideurs ont besoin d'une éducation sur les avantages et les risques de la technologie IA, en s'alignant avec les objectifs de sécurité de l'entreprise. Tactiquement, les budgets et ressources doivent être alloués à l'intégration de l'IA avec des outils de découverte d'actifs, d'applications et de données, ainsi qu'au développement d'un manuel d'actions correctives.
A Media : Quels défis de sécurité l'IA générative pourrait-elle poser, et comment peuvent-ils être abordés ?
Valtman : La confidentialité des données et les fuites représentent des risques importants. Les stratégies de mitigation incluent l'hébergement interne des modèles, l'anonymisation des données avant leur traitement externe, et la réalisation d'audits réguliers pour la conformité. De plus, les préoccupations concernant l'intégrité des modèles, comme l'empoisonnement des modèles, nécessitent des évaluations approfondies des vulnérabilités et des tests de pénétration avancés.
A Media : Comment l'IA générative pourrait-elle automatiser la détection des menaces, les correctifs de sécurité et d'autres processus ?
Valtman : L'IA générative peut détecter les menaces en analysant le comportement historique à partir de diverses sources de données, y compris les journaux réseau et les transactions. Les cas d'utilisation potentiels peuvent inclure la modélisation de menaces lors du développement logiciel, le déploiement automatisé de correctifs avec une couverture de tests suffisante, et des protocoles de réponse aux incidents auto-améliorants.
A Media : Quelles plans ou stratégies les organisations devraient-elles adopter concernant l'IA générative et la protection des données ?
Valtman : Les organisations doivent établir des politiques claires pour la collecte, le stockage, l'utilisation et le partage des données, en définissant des rôles et des responsabilités. Ces politiques doivent s'aligner sur une stratégie de cybersécurité globale, facilitant les fonctions de protection des données telles que la réponse aux incidents, la notification de violation et la gestion des risques tiers.