Rapport Menlo Security : La montée des menaces en cybersécurité liée à l'adoption de l'IA

De nouvelles recherches de Menlo Security mettent en lumière les défis critiques en matière de cybersécurité posés par l'adoption rapide de l'IA générative au sein des entreprises. Alors que des outils tels que ChatGPT deviennent essentiels dans les flux de travail quotidiens, les entreprises doivent réévaluer leurs stratégies de sécurité.

« Les employés intègrent l'IA dans leurs tâches quotidiennes. Nos contrôles doivent non seulement empêcher les abus, mais aussi prévenir les accès non régulés », a déclaré Andrew Harding, vice-président du marketing produit chez Menlo Security, lors d’une interview exclusive. « Bien que l'utilisation de l'IA générative dans les entreprises ait considérablement augmenté, les équipes de sécurité et d'informatique font face à des défis persistants. Nous avons besoin d'outils efficaces qui appliquent des contrôles rigoureux aux applications IA, permettant aux CISOs de gérer les risques tout en tirant parti des avantages de productivité du GenAI. »

Une montée de l'utilisation de l'IA en dépit des risques

Le rapport de Menlo Security révèle des tendances alarmantes : les visites de sites d'IA générative dans les entreprises ont augmenté de plus de 100 % au cours des six derniers mois, et le nombre d'utilisateurs fréquents a crû de 64 %. Cette intégration rapide expose de nouvelles vulnérabilités.

Bien que de nombreuses organisations renforcent leurs mesures de sécurité pour l'IA générative, les chercheurs constatent que la plupart appliquent des politiques inefficaces, domaine par domaine. « Les organisations renforcent la sécurité, mais elles passent à côté de l'essentiel. Les politiques appliquées sur une base de domaine ne suffisent pas », a souligné Harding.

Cette approche fragmentée peine à suivre l'émergence de nouvelles plateformes d'IA générative. Le rapport indique que les tentatives de téléchargement de fichiers vers des sites d'IA générative ont augmenté de 80 % en six mois, en raison de nouvelles fonctionnalités. Les risques vont au-delà de la perte de données potentielle.

Les experts avertissent que l'IA générative peut amplifor considérablement les menaces de phishing. Harding a déclaré : « Le phishing alimenté par l'IA est tout simplement un phishing plus intelligent. Les entreprises ont besoin d'une protection en temps réel pour empêcher que les escroqueries alimentées par l'IA ne deviennent un problème majeur. »

De la nouveauté à la nécessité

L’essor de l'IA générative, surtout avec le lancement de ChatGPT, s'est transformé d'une nouveauté technologique en une nécessité commerciale. OpenAI a d'abord présenté GPT-1, son système d'IA générative, en juin 2018, suivi par des avancées comme le PaLM de Google Brain, avec 540 milliards de paramètres, lancé en avril 2022.

L'engouement du public a explosé avec l'introduction de DALL-E au début de 2021, mais c'est le lancement de ChatGPT en novembre 2022 qui a suscité un engagement massif. Les utilisateurs ont rapidement commencé à intégrer ces outils dans diverses tâches, de la rédaction d'e-mails à la débogage de code, montrant ainsi la polyvalence de l'IA.

Cependant, cette intégration rapide présente des risques significatifs souvent négligés. Les systèmes d'IA générative sont sécurisés, éthiques et précis uniquement si les données utilisées pour l'entraînement le sont. Ils peuvent exposer des biais, propager des désinformations et même divulguer des informations sensibles.

De plus, ces modèles puisent des données dans de vastes sections d'internet, ce qui complique le contrôle du contenu ingéré. Si des informations propriétaires sont publiées publiquement, ces systèmes d'IA peuvent les assimiler et les révéler ultérieurement.

L'équilibre entre sécurité et innovation

Pour équilibrer efficacement sécurité et innovation, les experts plaident pour une approche multicouche. Harding suggère « de mettre en place des limites de copier-coller, d'établir des politiques de sécurité, de surveiller les sessions et de faire respecter des contrôles au niveau des groupes sur les plateformes d'IA générative. »

Les organisations doivent apprendre des précédents changements technologiques. Des technologies comme le cloud et les appareils mobiles ont introduit de nouveaux risques, nécessitant des adaptations continues des stratégies de sécurité. Une approche proactive est essentielle pour l'IA générative.

Le moment d'agir est maintenant. « Les visites de sites d'IA générative et les utilisateurs actifs sont en augmentation, mais les équipes de sécurité et d'informatique continuent de faire face à des défis », a averti Harding.

Pour protéger leurs opérations, les entreprises doivent rapidement faire évoluer leurs stratégies de sécurité afin de s'adapter à l'adoption rapide de l'IA générative. Trouver un équilibre entre sécurité et innovation est crucial, sinon les risques liés à l'IA générative pourraient rapidement devenir ingérables.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles