Avec l'augmentation de l'utilisation de l'IA générative, les défis de sécurité suivent également cette tendance. Aujourd'hui, IBM répond à ces risques avec le lancement d'un nouveau cadre de sécurité spécifiquement conçu pour l'IA générative. Le Cadre d'IBM pour la Sécurisation de l'IA Générative vise à protéger les flux de travail tout au long de leur cycle de vie, de la collecte de données au déploiement en production. Ce cadre fournit des informations sur les menaces de sécurité courantes que les organisations peuvent rencontrer dans le cadre de leurs initiatives d'IA générative, ainsi que des recommandations pratiques pour des stratégies de défense efficaces. Au cours de l'année passée, IBM a renforcé ses capacités en matière d'IA générative avec son portefeuille watsonX, qui comprend des modèles avancés et des outils de gouvernance.
Ryan Dougherty, directeur de programme pour les technologies de sécurité émergentes chez IBM, a souligné l'importance de ce cadre : « Nous avons distillé notre expertise pour définir les attaques les plus probables et les meilleures défenses que les organisations devraient mettre en œuvre pour sécuriser leurs initiatives d'IA générative. »
Qu'est-ce qui rend la sécurité de l'IA générative unique ?
Bien qu'IBM possède une grande expérience en matière de sécurité, les risques associés aux charges de travail d'IA générative sont à la fois familiers et distincts. Les trois principes fondamentaux de l'approche d'IBM sont la sécurisation des données, du modèle et de l'utilisation. Ces piliers mettent en avant la nécessité d'une infrastructure sécurisée et d'une gouvernance de l'IA tout au long du processus.
Sridhar Muppidi, IBM Fellow et CTO d'IBM Security, a souligné que les pratiques fondamentales de sécurité des données, telles que le contrôle d'accès et la sécurité des infrastructures, restent essentielles dans l'IA générative, tout comme dans les environnements informatiques traditionnels. Toutefois, certains risques sont spécifiquement liés à l'IA générative. Par exemple, l'empoisonnement des données consiste à introduire de fausses données dans un ensemble de données, ce qui entraîne des résultats inexacts. Muppidi a également noté que les questions de biais et de diversité des données, ainsi que la dérive des données et les préoccupations en matière de confidentialité, nécessitent une attention particulière dans ce domaine. De plus, l'injection de requêtes — où les utilisateurs modifient de manière malveillante la sortie des modèles via des promptes — représente un nouveau risque qui requiert des contrôles novateurs.
Concepts Clés en Sécurité : MLSecOps, MLDR et AISPM
Le Cadre d'IBM pour la Sécurisation de l'IA Générative n'est pas simplement un outil unique, mais une collection de lignes directrices et de recommandations pour protéger les flux de travail liés à l'IA générative. À mesure que le paysage de l'IA générative évolue, de nouvelles catégories de sécurité émergent, notamment la Détection et Réponse en Apprentissage Machine (MLDR), la Gestion de la Posture de Sécurité de l'IA (AISPM) et les Opérations de Sécurité en Apprentissage Machine (MLSecOps). Le MLDR se concentre sur l'identification des risques potentiels au sein des modèles, tandis que l'AISPM, similaire à la Gestion de la Posture de Sécurité dans le Cloud (CSPM), met l'accent sur l'importance d'une configuration appropriée et des meilleures pratiques pour des déploiements sécurisés.
Muppidi a expliqué : « Tout comme nous avons le DevOps, qui a évolué vers le DevSecOps avec l'ajout de la sécurité, le MLSecOps représente une approche de cycle de vie complète, de la conception à l'utilisation, intégrant la sécurité tout au long du processus. »
Ce cadre permet aux organisations de mieux naviguer dans les complexités de la sécurité de l'IA générative, garantissant des défenses robustes contre les menaces émergentes.