Validant davantage la vulnérabilité des modèles d'IA générative et de leurs plateformes, Lasso Security a aidé Hugging Face à éviter une attaque potentiellement catastrophique en révélant 1 681 jetons API à risque. Ces jetons ont été détectés lors d'un scan approfondi des dépôts GitHub et Hugging Face réalisé par les chercheurs de Lasso.
L'enquête a mis au jour un accès non autorisé aux comptes de 723 organisations, y compris des entreprises majeures comme Meta, Microsoft et Google. Parmi celles-ci, 655 utilisateurs avaient des jetons avec des permissions d'écriture, dont 77 accordaient un contrôle total sur les dépôts de plusieurs entreprises notables. Les chercheurs de Lasso ont également accédé aux dépôts Bloom, Llama 2 et Pythia, soulignant un risque significatif d'attaques sur la chaîne d'approvisionnement pouvant affecter des millions d'utilisateurs.
« Notre enquête a révélé une violation grave dans l'infrastructure de la chaîne d'approvisionnement, mettant en lumière des comptes de haut niveau chez Meta », ont déclaré les chercheurs de Lasso. « La gravité de la situation ne saurait être sous-estimée. Avec le contrôle d'une organisation comptant des millions de téléchargements, nous pouvons manipuler des modèles existants, les transformant en entités malveillantes. Cela représente une menace sérieuse, car l'injection de modèles corrompus pourrait impacter des millions d'utilisateurs qui dépendent des bases pour leurs applications. »
Hugging Face : Une Cible de Premier Plan
Hugging Face est devenu essentiel pour les organisations développant des modèles de langage volumineux (LLMs), avec plus de 50 000 en dépendant dans leurs efforts DevOps. Sa bibliothèque Transformers héberge plus de 500 000 modèles d'IA et 250 000 jeux de données, en faisant la ressource incontournable pour les développeurs de LLM et les équipes DevOps.
La croissance rapide de la plateforme est largement due à la nature open source de sa bibliothèque Transformers. La collaboration et le partage de connaissances au sein de cet écosystème accélèrent le développement des LLM, augmentant la probabilité de déploiements réussis. Cela fait de Hugging Face une cible attrayante pour les attaquants à la recherche d'exploiter les vulnérabilités de la chaîne d'approvisionnement des LLM et de l'IA générative ou d'exfiltrer des données d'entraînement.
Aperçus de Lasso Security
En novembre 2023, les chercheurs de Lasso ont examiné la sécurité des jetons API de Hugging Face, cherchant à mieux comprendre les risques d'exposition potentiels. Ils ont identifié trois risques émergents alignés sur le Top 10 de l'OWASP pour les Modèles de Langage Volumineux (LLMs) :
1. Vulnérabilités de la Chaîne d'Approvisionnement : Les recherches ont révélé comment des composants non sécurisés peuvent compromettre les cycles de vie des LLM, exposant le système à des attaques, en particulier à travers des jeux de données tiers et des modèles pré-entraînés.
2. Poisoning des Données d'Entraînement : Des attaquants pourraient empoisonner les données d'entraînement des LLM en utilisant des jetons API compromis, introduisant des vulnérabilités ou des préoccupations éthiques pouvant compromettre la sécurité des modèles.
3. Vol de Modèles : Des jetons API compromis permettent un accès non autorisé rapide, facilitant la copie ou l'exfiltration de modèles LLM propriétaires. L'exploration de Lasso a indiqué le potentiel de « vol » de plus de 10 000 modèles privés liés à 2 500 jeux de données, justifiant un changement de nom de la catégorie OWASP de « Vol de Modèle » à « Vol de Ressources IA (Modèles & Jeux de Données) ».
« La gravité de la situation ne saurait être sous-estimée », a réaffirmé l'équipe de Lasso Security. « Avec le contrôle d'organisations ayant des millions de téléchargements, nous pouvons manipuler les modèles, posant des risques significatifs pour les utilisateurs. »
Conclusion : Traitez les Jetons API comme des Identités
Le risque d'une violation significative chez Hugging Face souligne les pratiques complexes et évolutives requises pour protéger les plateformes LLM et d'IA générative. Bar Lanyado, un chercheur en sécurité chez Lasso Security, a conseillé : « Hugging Face devrait scanner constamment les jetons API exposés et soit les révoquer, soit notifier les utilisateurs concernés. »
Puisant dans l'approche de GitHub, il encourage les développeurs à éviter les jetons codés en dur et à adopter les meilleures pratiques pour prévenir une exposition non intentionnelle lors des commits. En mettant l'accent sur un modèle de confiance zéro, Hugging Face devrait garantir que les jetons API sont uniques, utiliser l'authentification multi-facteurs et se concentrer sur la gestion du cycle de vie et la validation automatisée des identités.
Dans l'environnement de confiance zéro actuel, une vigilance accrue seule ne suffit pas. La gestion continue des jetons API est cruciale pour la sécurité des écosystèmes LLM entretenus par de nombreuses entreprises technologiques leaders. Comme le montre l'incident avec Hugging Face, la mise en œuvre d'une gestion de posture et le maintien d'un contrôle d'accès strict au niveau des jetons API sont des étapes essentielles pour renforcer la sécurité globale des organisations. Chaque organisation doit adopter une mentalité proactive pour se protéger contre les violations potentielles et renforcer la sécurité sur tous les vecteurs d'attaque.