Les dirigeants informatiques mettent de plus en plus l'accent sur l'intelligence artificielle générative, l'appliquant à des fonctions commerciales essentielles telles que le marketing, le design, le développement de produits, la science des données, les opérations et les ventes. Au-delà des applications organisationnelles, l'IA générative joue également un rôle clé dans les efforts humanitaires, notamment dans le développement de vaccins, la détection du cancer et les initiatives environnementales, sociales et de gouvernance, tel que l'optimisation des ressources.
Cependant, chacune de ces applications présente des risques de sécurité distincts, principalement liés à la vie privée, à la conformité et à la perte potentielle de données sensibles et de propriété intellectuelle. À mesure que l'adoption de l'IA générative s'accroît, ces risques ne feront que se renforcer.
« Les organisations doivent planifier proactivement chaque projet d'IA générative — tant en interne qu'en externe — non seulement pour les risques actuels mais aussi en gardant à l'esprit les défis futurs », conseille Vijoy Pandey, SVP chez Outshift par Cisco. « Il est essentiel d'équilibrer innovation et confiance des utilisateurs, en priorisant la vie privée, l'authenticité et la responsabilité. »
Comprendre les Risques Uniques de l'IA Générative
Les risques associés à l'IA générative diffèrent de ceux des technologies traditionnelles. Des attaques de phishing sophistiquées utilisant des technologies deep fake peuvent induire les individus en erreur, rendant la fraude d'identité plus courante. Les fraudeurs peuvent se faire passer pour un agent du service client d'une entreprise pour recueillir illicitement des informations sensibles, entraînant des pertes financières importantes.
De plus, les utilisateurs saisissent souvent involontairement des informations sensibles dans des modèles d'IA générative, qui peuvent conserver et exploiter ces données à des fins de formation, soulevant des préoccupations majeures en matière de conformité à la vie privée et de protection des données. Les organisations doivent rester vigilantes face aux nouvelles réglementations qui émergent en réponse aux risques liés à l'IA générative.
Bien que les exigences en matière de données des grands modèles de langage (LLMs) posent des défis, des cadres de sécurité existants peuvent aider à atténuer les risques associés aux données brutes et aux fuites de données. Les fraudeurs peuvent exploiter les vulnérabilités au sein de la chaîne de valeur de l'IA générative, compromettant potentiellement des prédictions précises, niant le service, voire violant des systèmes d'exploitation et affectant la réputation sur les réseaux sociaux.
« Alors que nous faisons face à des menaces telles que le poisonnement de données et l'inversion de modèles, la détection devient primordiale », explique Pandey. « Nous dépendons d'intervalles de confiance établis pour évaluer les résultats des modèles, mais si les attaquants compromettent la chaîne, nos normes de confiance peuvent être sapées. »
La détection rapide des problèmes est difficile ; ces derniers se manifestent généralement sur le long terme. Les équipes de sécurité disposent de ressources comme MITRE ATLAS et le Top 10 OWASP pour traiter les préoccupations émergentes de sécurité liées à l'IA générative.
« L'IA générative est encore en évolution, et la sécurité doit progresser parallèlement », avertit Pandey. « C'est un voyage continu. »
Sécurité de la Propriété Intellectuelle et Problèmes de Transparence
L'IA générative produit des résultats complexes en traitant d'énormes ensembles de données et des algorithmes sophistiqués. Les utilisateurs ne peuvent généralement pas retracer l'origine des informations fournies, ce qui entraîne des risques considérables liés à l'exposition de la propriété intellectuelle. Cette préoccupation découle à la fois des données d'entraînement externes et du contenu généré par les utilisateurs introduit dans ces modèles.
« Le défi consiste à sécuriser l'accès aux données tout en protégeant la propriété intellectuelle et les informations sensibles de l'organisation, afin qu'elles ne sortent pas de celle-ci ou n'entrent pas accidentellement dans le modèle », déclare Pandey. « Utilisons-nous de manière inappropriée des contenus open-source ou sous licence ? »
De plus, les modèles d'IA générative manquent souvent de pertinence et de spécificité des données en temps réel, ce qui impacte des applications telles que la génération augmentée par récupération (RAG), qui intègre le contexte commercial actuel et fournit des citations pour vérification. La RAG améliore les LLMs en leur permettant d'apprendre en continu, réduisant ainsi les inexactitudes tout en sécurisant les informations sensibles.
« La RAG est comparable à l'envoi d'un généraliste à la bibliothèque pour apprendre la physique quantique », décrit Pandey. « La collecte et l'ingestion d'informations pertinentes est essentiellement ce que la RAG accomplit. Bien que cela comporte des défis et requière de l'expérimentation, cela personnalise efficacement les modèles fondamentaux pour répondre aux cas d'utilisation organisationnels sans compromettre l'intégrité des données. »
Sécuriser les Utilisateurs et Bâtir pour l'Avenir
« Le paysage des cas d'utilisation de l'IA générative est actuellement bien défini, mais dans les années à venir, il imprégnera tout ce que nous créons ou consommons », prédit Pandey. « Cela nécessite d'adopter une approche de zéro confiance. »
Considérez que chaque composant de la chaîne — des données aux modèles, en passant par l'accès utilisateur — présente un potentiel d'échec.
De plus, étant donné la nouveauté de cette technologie, l'absence de règles établies signifie que l'erreur humaine et les vulnérabilités peuvent facilement être négligées. Une documentation complète est essentielle pour aborder d'éventuelles violations et prioriser les mesures de sécurité.
« Capturant vos objectifs : documentez les sources de données, les modèles en production et leurs processus de formation », conseille Pandey. « Catégorisez les applications en fonction de leur importance, en veillant à ce que les politiques de sécurité reflètent cette criticité. »
La sécurité doit être intégrée à tous les niveaux, de l'infrastructure à l'application. Si une couche échoue, une stratégie de défense en profondeur peut offrir une protection supplémentaire, soulignant que la sécurité est un voyage continu.
« La solution pour naviguer dans la sécurité au sein de l'IA générative réside dans les processus stochastiques : développer des modèles spécifiquement pour gérer les préoccupations de sécurité dans d'autres modèles », suggère Pandey.
L'Importance Cruciale de la Confiance des Utilisateurs dans l'IA Générative
La confiance des utilisateurs est un indicateur clé de performance des entreprises. « La sécurité impacte l'expérience utilisateur, influençant directement le succès des solutions d'IA générative », souligne Pandey. La perte de confiance peut gravement affecter les revenus.
« Une application non sécurisée devient essentiellement inexistante ; tout objectif de monétisation ou commercial associé devient sans importance », explique-t-il. « Il en va de même pour un modèle ou une application d'IA générative non sécurisée. Sans sécurité, votre modèle est inutilisable, ce qui freine la croissance des affaires. »
À l'inverse, si les clients découvrent que leurs données privées ont été mal gérées — surtout dans un environnement d'IA générative — la confiance peut s'effondrer rapidement, compliquant davantage la perception déjà fragile des technologies d'IA.
Ces deux défis simultanés nécessitent du temps pour que les organisations comprennent pleinement les risques et mettent en place des solutions efficaces.
« Adoptez une philosophie de zéro confiance, construisez des défenses robustes et restez conscient de la nature opaque de l'IA générative », conclut Pandey. « Reconnaissez que votre point de départ aujourd'hui sera très différent de votre situation dans trois ans, alors que tant l'IA générative que ses mesures de sécurité associées évolueront rapidement. »