Menaces Internes : Les Risques des Chatbots AI
Les menaces internes figurent parmi les types de cyberattaques les plus graves, mettant en péril les systèmes et actifs critiques d'une entreprise. À mesure que les entreprises déploient rapidement de nouveaux chatbots AI, tant internes qu'orientés client, elles ouvrent sans le vouloir de nouveaux vecteurs d'attaque et des risques.
La Vulnérabilité des Chatbots AI
Une recherche récente, intitulée ArtPrompt : Des Attaques par Jailbreak basées sur l'ASCII Art contre les LLM Alignés, révèle la susceptibilité des systèmes AI. Les chercheurs ont réussi à contourner la sécurité de cinq grands modèles de langage (LLM) à la pointe de la technologie, incluant ChatGPT-3.5 et GPT-4 d’OpenAI, Gemini, Claude, et Llama2 de Meta, en utilisant de l'ASCII art.
ArtPrompt exploite les difficultés des LLM à interpréter l'ASCII art, permettant aux attaquants de contourner les mesures de sécurité. Fait notable, l'attaque peut être réalisée avec un accès limité au LLM ciblé et nécessite moins de tentatives pour réussir un jailbreak.
Comprendre la Vulnérabilité de l'ASCII Art
Bien que les LLM excellent dans l'interprétation sémantique, ils peinent avec la reconnaissance spatiale et visuelle complexe. Les chercheurs ont créé le Vision-in-Text Challenge (VITC), un benchmark conçu pour évaluer les capacités des LLM à reconnaître l'ASCII art à travers deux ensembles de données uniques :
- VITC-S se concentre sur des caractères uniques en ASCII art, couvrant 36 classes avec 8 424 échantillons pour défier les compétences de reconnaissance des LLM.
- VITC-L augmente la complexité en présentant des séquences de caractères dans 800 classes et 10 polices distinctes.
Le passage de VITC-S à VITC-L met en lumière les limitations des LLM en matière d'interprétation de l'ASCII art. ArtPrompt utilise une stratégie d'attaque en deux étapes avec du texte ASCII pour dissimuler des mots sensibles qui sont normalement filtrés par les LLM. Cette méthode s'est avérée efficace sur cinq LLM à la pointe.
L'Ascension des Chatbots AI Internes
Les entreprises accélèrent le déploiement de chatbots AI internes et orientés client pour en tirer des gains en productivité, efficacité des coûts et revenus. Selon un rapport du Boston Consulting Group (BCG), les 10 % d'entreprises les mieux classées ont intégré des applications AI génératives, avec 44 % réalisant des retours significatifs grâce à l'AI prédictive à grande échelle. Fait remarquable, deux tiers de ces organisations performantes sont des leaders dans des secteurs tels que la biopharma, l'énergie et l'assurance.
Par exemple, une entreprise énergétique américaine a implanté une plateforme conversationnelle basée sur l'AI générative pour ses techniciens de première ligne, augmentant ainsi la productivité de 7 %. De même, une entreprise biopharma a utilisé l'AI générative pour réduire de 25 % les délais de découverte de médicaments.
Défis de Sécurité des Chatbots Internes
L'essor des chatbots internes constitue une surface d'attaque significative, avec des mesures de sécurité qui peinent à suivre le rythme. Le CISO d'une grande entreprise de services financiers a souligné que ces chatbots doivent être conçus pour récupérer après des erreurs et négligences des utilisateurs, tout en étant renforcés contre les attaques.
Le rapport 2023 du Ponemon Institute sur le Coût des Risques Internes souligne la nécessité de mettre en œuvre des mesures de sécurité robustes pour les systèmes de base, y compris les configurations cloud et les chatbots AI. Le coût de mitigation d'une attaque s'élève en moyenne à 7,2 millions de dollars par incident, la négligence représentant 55 % des violations de sécurité internes.
Évolution des Stratégies de Défense
Faire face aux attaques par ASCII art nécessitera des améliorations itératives pour minimiser les faux positifs et négatifs. Si les méthodes de détection évoluent, les attaquants s'adapteront, testant en continu les limites des capacités des LLM. Les experts préconisent des stratégies de défense multimodales incorporant la reconnaissance basée sur le machine learning de l'ASCII art, accompagnées d'une surveillance continue.
Des fournisseurs de cybersécurité comme Cisco, Ericom Security, Menlo Security, Nightfall AI, Wiz, et Zscaler développent des méthodes pour protéger les données confidentielles durant les sessions ChatGPT. Zscaler recommande une approche en cinq étapes :
1. Définir un ensemble minimum d'applications AI génératives et de machine learning pour contrôler les risques.
2. Approuver les chatbots internes et applications pour une utilisation à grande échelle.
3. Créer des instances de serveurs privés pour ChatGPT dans des environnements sécurisés.
4. Mettre en œuvre un système d'authentification unique (SSO) avec une authentification multifactorielle robuste (MFA).
5. Appliquer des protocoles de prévention de perte de données (DLP) pour éviter les fuites de données.
Selon le responsable marketing produit senior d'Ericom, isoler l'accès aux outils d'AI générative pourrait permettre aux employés d'utiliser des ressources économisant du temps tout en protégeant les informations sensibles. Étant donné la complexité de l'ASCII art, établir des défenses efficaces contre de telles attaques est essentiel pour les chatbots et leurs LLM de support. Comme l'ont souligné les chercheurs, une stratégie de défense multimodale est cruciale pour atténuer ces menaces en constante évolution.