Les entreprises s'appuient de plus en plus sur des outils d'intelligence artificielle (IA) et d'apprentissage automatique (AA), avec une explosion des transactions de près de 600 %. Ce chiffre est passé de 521 millions en avril 2023 à 3,1 milliards en janvier 2024. En réponse à des préoccupations accrues en matière de sécurité, les organisations ont bloqué 18,5 % de toutes les transactions IA/AA, ce qui représente une augmentation stupéfiante de 577 % en neuf mois.
Les directeurs de la sécurité de l'information (CISO) et les organisations qu'ils protègent ont des raisons légitimes de procéder avec prudence, entraînant des niveaux sans précédent de transactions IA/AA bloquées. Les attaquants ont su s'adapter en utilisant des modèles de langage à grande échelle (LLM) pour infiltrer les organisations de manière indétectable. Cette montée de l'IA d'adversaires représente une menace croissante souvent ignorée.
Selon le Rapport sur la sécurité de l'IA 2024 de Zscaler, les entreprises doivent adopter des stratégies de cybersécurité évolutives pour protéger leurs outils IA/AA en pleine expansion. Parmi les principaux enjeux soulevés, on trouve la protection des données, la gestion de la qualité des données IA et les préoccupations relatives à la confidentialité. En analysant plus de 18 milliards de transactions entre avril 2023 et janvier 2024, ThreatLabz a scruté l'utilisation actuelle des outils IA et AA dans divers secteurs.
Des industries telles que la santé, les finances, les assurances, les services, la technologie et la fabrication connaissent à la fois une adoption significative des outils IA/AA et une vulnérabilité accrue aux cyberattaques. Le secteur manufacturier génère le plus grand volume de trafic IA, représentant 20,9 % des transactions, suivi de près par les finances et les assurances à 19,9 % et les services à 16,8 %.
Le blocage des transactions est une réponse rapide mais temporaire. Dans leur effort de protection contre les cyberattaques potentielles, les CISO et leurs équipes bloquent un nombre record de transactions IA/AA, visant à protéger les secteurs à haut risque d'une vague de menaces cybernétiques. Actuellement, ChatGPT est l'outil IA le plus utilisé et le plus bloqué, suivi par OpenAI, Fraud.net, Forethought et Hugging Face. Les principaux domaines bloqués incluent Bing.com, Divo.ai, Drift.com et Quillbot.com. Entre avril 2023 et janvier 2024, les entreprises ont bloqué plus de 2,6 milliards de transactions.
Le secteur manufacturier bloque seulement 15,65 % des transactions IA, un chiffre préoccupant compte tenu de sa vulnérabilité aux cyberattaques, notamment les ransomwares. En revanche, le secteur des finances et des assurances bloque 37,16 % des transactions, ce qui reflète une préoccupation accrue pour la sécurité des données et la vie privée. Alarmant, le secteur de la santé ne bloque que 17,23 % des transactions IA, soulevant des questions sur son engagement à protéger les données sensibles.
Les perturbations dans des secteurs critiques comme la santé et la fabrication peuvent entraîner des paiements de rançons significatifs. L'attaque récente par ransomware contre United Healthcare illustre comment une attaque coordonnée peut paralyser des chaînes d'approvisionnement entières.
Le blocage représente une solution à court terme à un défi beaucoup plus vaste. Pour aller au-delà de cette stratégie de blocage, les organisations devraient exploiter les capacités de télémétrie des plateformes avancées de cybersécurité. CrowdStrike, Palo Alto Networks et Zscaler figurent parmi celles qui promeuvent des insights tirés des données de télémétrie.
Le PDG de CrowdStrike, George Kurtz, a souligné l'importance de relier des signaux faibles provenant de divers points de terminaison pour améliorer les capacités de détection. Cette approche inclut des collaborations avec des tiers, permettant d'obtenir des insights plus profonds et de meilleures détections.
Les principaux fournisseurs de cybersécurité, dotés d'une vaste expertise en IA et de plusieurs décennies d'expérience en AA, incluent Blackberry Persona, Broadcom, Cisco Security, CrowdStrike, CyberArk, Cybereason, Ivanti, SentinelOne, Microsoft, McAfee, Sophos et VMware Carbon Black. Ces entreprises cherchent probablement à entraîner leurs LLM en utilisant des données relatives aux attaques pilotées par l'IA pour s'adapter aux méthodes sophistiquées utilisées par les attaquants.
Un nouveau paysage de menaces IA plus létal a émergé. Selon le rapport de Zscaler, les risques associés à l'IA peuvent être catégorisés en deux domaines principaux : les risques de protection et de sécurité des données liés aux outils IA d'entreprise, et le nouveau paysage de menaces cybernétiques alimenté par l'IA générative et l'automatisation.
Les CISO font face à des défis redoutables pour défendre leurs organisations contre les différentes techniques d'attaque IA mentionnées dans le rapport. Aborder la négligence des employés lors de l'utilisation de ChatGPT et garantir que les données confidentielles ne sont pas partagées par inadvertance devrait être au cœur des discussions au niveau du conseil d'administration. La gestion des risques doit être une priorité essentielle dans toute stratégie de cybersécurité robuste.
Protéger la propriété intellectuelle contre les fuites via ChatGPT, contrôler l'IA clandestine, et garantir la confidentialité et la sécurité des données sont indispensables à une stratégie IA/AA réussie.
L'année dernière, Alex Philips, CIO chez National Oilwell Varco (NOV), a partagé des informations sur l'IA générative avec son conseil, soulignant l'importance de comprendre à la fois les avantages et les risques de ChatGPT. Philips tient régulièrement le conseil au courant des développements technologiques en matière d'IA générative, favorisant une attente éclairée concernant les mesures de sécurité nécessaires pour prévenir des violations importantes.
Trouver un équilibre entre productivité et sécurité est vital pour naviguer les défis posés par le nouveau paysage de menaces IA. Le PDG de Zscaler a récemment été confronté à une tentative de vishing et de smishing où des attaquants se faisaient passer pour lui dans des messages WhatsApp, essayant de tromper un employé pour qu'il révèle des informations sensibles. Heureusement, les systèmes de Zscaler ont contrecarré l'attaque, illustrant une tendance croissante ciblant les cadres supérieurs et les leaders technologiques.
Les attaquants utilisent de plus en plus l'IA pour orchestrer des attaques par ransomware rapides. Zscaler signale que les ransomwares pilotés par l'IA deviennent un outil dans l'arsenal des hackers soutenus par des États, avec une fréquence en hausse. En utilisant l'IA générative, les attaquants créent des tableaux complets de vulnérabilités associées aux pare-feu et VPN d'une organisation. Cette intelligence leur permet d'optimiser les exploits de code, adaptant les charges utiles aux environnements spécifiques.
De plus, Zscaler met en lumière comment l'IA générative peut identifier des faiblesses au sein des chaînes d'approvisionnement des entreprises, révélant les chemins de connexion optimaux vers le réseau central. Bien que des mesures de sécurité solides puissent être en place, les vulnérabilités en aval représentent souvent les plus grands risques. Les attaquants perfectionnent en continu leurs tactiques à l'aide de l'IA générative, conduisant à des attaques sophistiquées et ciblées qui deviennent de plus en plus difficiles à détecter.
En fin de compte, les adversaires visent à intégrer l'IA générative tout au long de la chaîne d'attaque par ransomware, automatisant la reconnaissance et l'exploitation du code pour générer des malwares polymorphes avancés et des ransomwares. En rationalisant des composants critiques du processus d'attaque, les acteurs de la menace peuvent exécuter des attaques plus rapides, plus ciblées et plus sophistiquées contre les entreprises.