IBM fait progresser la sécurité de l'intelligence artificielle (IA) grâce à son initiative open-source, la Adversarial Robustness Toolbox (ART). Aujourd'hui, ART est lancée sur Hugging Face, offrant des outils conçus pour les utilisateurs d'IA et les data scientists afin de minimiser les risques de sécurité potentiels. Bien que ce lancement représente une nouvelle étape, ART est en développement depuis 2018 et a été contribué à la Linux Foundation en tant que projet open-source en 2020. Au fil des années, IBM a continué d'évoluer ART dans le cadre de l'initiative de la DARPA intitulée Guaranteeing AI Robustness Against Deception (GARD).
L'accent mis sur la sécurité de l'IA devient de plus en plus urgent avec la montée en puissance des technologies IA. Les menaces courantes incluent le empoisonnement des données d'entraînement et les tactiques d'évasion qui peuvent induire en erreur les modèles d'IA en injectant des données malveillantes ou en manipulant des objets d'entrée. En intégrant ART avec Hugging Face, IBM vise à améliorer l'accessibilité des outils de sécurité défensive pour les développeurs, les aidant à atténuer les menaces plus efficacement. Les organisations utilisant des modèles d'IA de Hugging Face peuvent désormais sécuriser leurs systèmes contre les attaques d'évasion et d'empoisonnement tout en intégrant ces défenses dans leurs flux de travail.
“Hugging Face héberge une collection substantielle de modèles de pointe,” a déclaré Nathalie Baracaldo Angel, responsable des solutions de sécurité et de confidentialité de l'IA chez IBM. “Cette intégration permet à la communauté d’exploiter les outils d’équipes rouges et bleues au sein d'ART pour les modèles Hugging Face.”
Le Parcours d'ART : de la DARPA à Hugging Face
L'engagement d'IBM envers la sécurité de l'IA précède l’actuelle explosion de l'IA générative, illustrant une approche proactive pour protéger les technologies de l'IA. En tant qu'initiative open-source, ART fait partie du projet LF AI & Data de la Linux Foundation, bénéficiant de contributions variées de plusieurs organisations. De plus, la DARPA a financé IBM pour améliorer les capacités d'ART dans le cadre de l’initiative GARD.
Bien que l'inclusion d'ART dans la Linux Foundation reste inchangée, elle offre désormais un soutien aux modèles de Hugging Face. Hugging Face a rapidement gagné en notoriété comme une plateforme collaborative de partage de modèles d'IA, et IBM a établi plusieurs partenariats avec cette organisation, y compris un projet conjoint avec la NASA axé sur l'IA géospatiale.
Comprendre la Robustesse Adversariale et son Importance pour l'IA
La robustesse adversariale est essentielle pour renforcer la sécurité de l'IA. Angel explique que ce concept implique la reconnaissance des tentatives adversariales potentielles visant à compromettre les systèmes d'apprentissage automatique et à établir proactivement des défenses. "Le domaine nécessite une compréhension des tactiques adversariales pour protéger efficacement le pipeline d'apprentissage automatique," a-t-elle déclaré, soulignant une approche d'équipe rouge pour identifier et atténuer les risques pertinents.
Depuis sa création en 2018, ART a évolué pour répondre à l'évolution du paysage des menaces en IA, incluant diverses attaques et défenses à travers plusieurs modalités telles que la détection d'objets, le suivi, le traitement audio, et plus encore. "Récemment, nous nous sommes concentrés sur l'intégration de modèles multi-modaux comme CLIP, qui sera bientôt disponible dans le système," a-t-elle noté. "Dans le paysage dynamique de la sécurité, il est crucial de développer continuellement de nouveaux outils en réponse aux menaces et défenses évolutives."