L'Institut national des standards et de la technologie (NIST) a publié en urgence un rapport sur les menaces croissantes pesant sur les systèmes d'intelligence artificielle (IA). Intitulé « Apprentissage automatique adversarial : une taxonomie et une terminologie des attaques et des atténuations », ce rapport arrive à un moment crucial alors que les systèmes d'IA deviennent de plus en plus puissants, mais aussi plus vulnérables aux attaques.
Les techniques d'apprentissage automatique adversarial permettent aux attaquants de manipuler subtilement les systèmes d'IA, pouvant entraîner des défaillances catastrophiques. Le rapport présente les différentes méthodes d'attaques, les classant selon les objectifs, les capacités et la connaissance que les attaquants ont des systèmes cibles.
Selon le rapport du NIST, « Les attaquants peuvent délibérément semer la confusion ou même 'empoisonner' les systèmes d'intelligence artificielle pour les rendre défaillants », exploitant ainsi des vulnérabilités dans le développement et le déploiement de l'IA. Le rapport aborde différents types d'attaques, y compris l'« empoisonnement de données », où des adversaires modifient les données utilisées pour entraîner les modèles d'IA. « Des travaux récents montrent que l’empoisonnement pourrait être orchestré à grande échelle, permettant même à des adversaires à faible budget d'influencer les ensembles de données publics utilisés pour l'entraînement des modèles », indique-t-il.
Une autre préoccupation majeure est celle des « attaques par porte dérobée », qui consistuent à intégrer des déclencheurs dans les données d'entraînement pour induire des erreurs de classification spécifiques. Le rapport avertit que « les attaques par porte dérobée sont notoirement difficiles à défendre ».
De plus, le rapport aborde les risques de confidentialité associés aux systèmes d'IA. Des techniques telles que les « attaques par inférence de membre » peuvent révéler si un échantillon de données particulier a été utilisé lors de l'entraînement. NIST prévient : « Aucune méthode infaillible n'existe encore pour prévenir les détournements dans les systèmes d'IA. »
Bien que l'IA ait le potentiel de révolutionner les industries, les experts en sécurité insistent sur l'importance de la prudence. Le rapport souligne : « Les chatbots IA, propulsés par les récentes avancées en apprentissage profond, offrent des capacités puissantes pour diverses applications commerciales. Cependant, cette technologie émergente doit être déployée avec une grande prudence. »
L'objectif du NIST est de créer une compréhension commune des défis en matière de sécurité de l'IA. Ce rapport servira probablement de ressource essentielle pour la communauté de la sécurité de l'IA face à ces menaces évolutives. Joseph Thacker, ingénieur principal en IA et chercheur en sécurité chez AppOmni, a déclaré : « C'est la meilleure publication sur la sécurité de l'IA que j'ai vue. La profondeur et la couverture sont remarquables ; elle fournit les insights les plus complets sur les attaques adversariales contre les systèmes d'IA que j'ai rencontrés. »
Alors que les experts continuent de faire face aux menaces émergentes pour la sécurité de l'IA, il est clair que nous sommes engagés dans une bataille acharnée pour la protection. Des défenses plus solides sont essentielles avant que l'IA puisse être intégrée en toute sécurité dans les industries, car les risques sont trop significatifs pour être ignorés.