Les équipes de sécurité envisagent des solutions d'IA mais hésitent face aux coûts d'abonnement élevés.

Les équipes de sécurité envisagent de plus en plus d'outils innovants tels que ChatGPT pour améliorer leurs stratégies de détection des menaces. Selon Dennis Xu, directeur senior et analyste chez Gartner, bien que les outils d'IA générative comme ChatGPT aient un potentiel pour les professionnels de la sécurité—en les assistant dans des domaines comme l'ingénierie de détection et la formation—les coûts associés aux versions premium peuvent poser un obstacle.

Lors du Gartner Security & Risk Management Summit à Londres, Xu a souligné que la version gratuite de ChatGPT, alimentée par le modèle GP-3.5 Turbo, rencontre des difficultés avec la rétention de contexte et les tâches de codage. Les professionnels de la sécurité pourraient donc avoir besoin d'opter pour ChatGPT Plus à 20 $ par mois ou la nouvelle version ChatGPT Enterprise pour obtenir les fonctionnalités requises pour leurs rôles. À mesure que les organisations se développent, ces coûts peuvent augmenter considérablement en fonction du nombre d'utilisateurs.

Xu a souligné que la version Enterprise offre un meilleur contrôle des données par rapport à ses homologues basiques et Plus, mais a averti qu'elle pourrait ne pas être encore totalement prête à être déployée. Malgré cette limitation, de nombreux grands fournisseurs de sécurité développent activement des fonctionnalités d'IA générative. Par exemple, l'acquisition de Splunk par Cisco vise à renforcer les capacités d'analyse de données, tandis que Privacera a lancé une solution d'IA générative en juin. Nvidia a également introduit sa bibliothèque de logiciels de sécurité en deep learning, Morpheus, dans le cadre de sa suite AI Enterprise 3.0. Xu a noté une tendance parmi les entreprises à intégrer l'interface en langage naturel de ChatGPT dans des produits existants pour rationaliser les fonctionnalités.

Bien que des outils de sécurité innovants tels que WormGPT et FraudGPT aient émergé, conçus pour "escroquer les escrocs", Xu a averti que l'accès à ces solutions nécessite également un investissement. Il a noté que des modèles largement disponibles comme ChatGPT peuvent effectuer des fonctions similaires, telles que la génération d'e-mails de phishing. Cette situation a créé ce que Xu qualifie de "course à l'armement" dans le domaine de la sécurité de l'IA, avec des acteurs malveillants souvent en position de force. « Pour seulement 20 $ par mois, un utilisateur malveillant peut développer des malwares ou créer des e-mails de phishing, tandis que les défenseurs doivent faire face à des coûts nettement plus élevés pour atteindre des efficacités similaires », a-t-il insisté.

Comprendre les limites des outils d'IA est essentiel. Xu a comparé ChatGPT à un enfant de cinq ans formé sur un large ensemble de données : il peut être utile pour certaines tâches de sécurité mais est mal préparé pour d'autres. "Il y a des questions que vous ne poseriez tout simplement pas à un enfant de cinq ans", a-t-il plaisanté, soulignant l'importance d'attentes réalistes et de validations. Dans le domaine des opérations de sécurité (SecOps), évaluer l'exactitude des informations générées par l'IA peut s'avérer complexe.

Xu a également noté le manque de cas d'utilisation solides pour appliquer des systèmes d'IA dans la gestion des vulnérabilités ou la gestion de la surface d'attaque, en citant le Sec-PaLM de Google comme le seul modèle de langage de détection des menaces capable de reconnaître des scripts malveillants. Cependant, il a précisé qu'il en est encore à ses débuts, sans benchmarks publiés pour l'instant.

Pour les équipes de sécurité souhaitant mettre en œuvre des outils d'IA comme ChatGPT, établir des règles de gouvernance et des manuels clairs est crucial. « Comprenez quand et comment utiliser les outils d'IA, et précisez des cas d'utilisation SecOps clairs », a-t-il conseillé. Xu a souligné l'importance d'éviter les cas sensibles au temps et les scénarios impliquant des données d'entreprise sensibles, recommandant aux organisations de fournir une formation sur les interactions avec l'IA et de mettre en œuvre des protocoles de surveillance.

La sensibilisation à l'évolution de l'IA est également primordiale. Les outils d'IA générative peuvent ne pas fournir des réponses cohérentes à la même question. De plus, Xu a encouragé les équipes à rester informées des mises à jour de la technologie elle-même. Par exemple, OpenAI a récemment introduit de nouvelles capacités pour ChatGPT avec GPT-4V, permettant des interactions vocales et visuelles. Xu a exprimé son enthousiasme pour ce potentiel, imaginant des scénarios où les équipes pourraient interagir avec leurs systèmes de manière plus intuitive simplement en prenant une photo et en demandant des diagnostics.

En fin de compte, bien que les outils d'IA comme ChatGPT soient prêts à assister les professionnels de la sécurité en rationalisant leurs charges de travail, ils ne sont pas destinés à remplacer l'expertise humaine. Xu a averti que "cette technologie est encore un bébé de cinq ans" avec beaucoup à apprendre, renforçant l'importance d'utiliser ces outils de manière judicieuse et efficace à mesure qu'ils évoluent.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles