Les tensions au sein de la direction d'OpenAI soulignent l'urgence d'améliorer la sécurité du modèle GPT.

Le drame qui se déroule au sein de la direction d'OpenAI met en lumière l'impérieuse nécessité d'intégrer la sécurité dans le processus de développement des modèles GPT. La décision du conseil d'administration d'OpenAI de limoger le PDG Sam Altman a suscité d'importantes inquiétudes concernant la sécurité de l'IA, surtout après des rapports faisant état de départs potentiels parmi les principaux architectes responsables de la protection de ces systèmes. Cette situation renforce les craintes des utilisateurs d'entreprise par rapport aux risques associés aux modèles GPT.

Pour garantir la pérennité et l'évolutivité, la sécurité doit être intégrée dès la création des modèles d'IA, une exigence encore non satisfaite. L'action du conseil contre Altman serait motivée par son accent mis sur le développement de produits et d'affaires, potentiellement au détriment des engagements de sécurité de l'entreprise. Cela illustre le paysage tumultueux de la gouvernance de l'IA, où les conseils d'administration indépendants cherchent de plus en plus à contrôler les mesures de sécurité, souvent en conflit avec les pressions de croissance.

Si le co-fondateur Ilya Sutskever et les administrateurs indépendants qui le soutiennent peuvent résister à la réaction des investisseurs et des partisans de Altman, plusieurs problèmes de sécurité émergent, soulignant la nécessité d'une intégration précoce de la sécurité dans le cycle de développement des logiciels GPT.

Risques de Confidentialité et de Fuite de Données

Brian Roemmele, un expert reconnu en ingénierie de prompts, a récemment identifié une vulnérabilité dans les modèles GPT d'OpenAI, permettant à ChatGPT d'accéder et d'afficher des prompts de session et des fichiers téléchargés. Il recommande des modifications essentielles aux prompts de GPT pour atténuer ces risques. En mars, OpenAI a reconnu et corrigé une faille dans une bibliothèque open-source qui permettait aux utilisateurs de consulter les historiques de chat d'autres utilisateurs actifs. Le problème provenait de la base de données en mémoire Redis stockant les informations des utilisateurs, exposant involontairement des données de paiement de 1,2 % des abonnés de ChatGPT Plus pendant une période de neuf heures.

Augmentation des Cas de Manipulation et d'Usage Abusif des Données

Malgré les assurances de mesures protectrices, les attaquants adaptent leurs stratégies pour exploiter les sessions GPT. Des chercheurs de l’université de Brown ont découvert qu'utiliser des langues moins connues, comme le zoulou et le gaélique, augmentait considérablement leur succès pour contourner les restrictions, atteignant un taux de réussite de 79 % avec ces langues contre moins de 1 % avec l'anglais. Leurs recherches ont montré que traduire des entrées non sécurisées en langues à faible ressource via des outils comme Google Translate pouvait efficacement contourner les protections, entraînant des réponses nuisibles de GPT-4.

Vulnérabilité aux Jailbreaks

Des recherches réalisées par Microsoft révèlent que les modèles GPT sont susceptibles d'être manipulés, générant souvent des résultats biaisés et révélant des informations privées. Bien que GPT-4 performe généralement mieux que GPT-3.5 lors des évaluations, il est plus vulnérable aux prompts de jailbreak conçus pour contourner la sécurité. Les chercheurs ont réussi à tromper la logique de GPT-4V à travers des dialogues scriptés, mettant en évidence des risques exploitables significatifs associés aux modèles de langage géants multimodaux (MLLM). Une étude récente a indiqué un taux de réussite d'attaque stupéfiant de 98,7 % via des tactiques auto-adversariales.

Menaces de Sécurité liées à l'Injection de Prompts Multimodaux

Le GPT-4V d'OpenAI, qui prend en charge les téléchargements d'images, fait face à de nouvelles vulnérabilités dues à de potentielles attaques par injection multimodale. En intégrant des scripts malveillants dans des images, les adversaires peuvent exploiter le modèle, entraînant l'exécution non autorisée de tâches. Les LLM actuels manquent d'étapes robustes de désinfection des données, les rendant trop perméables à toute entrée, comme l’a expliqué le programmeur Simon Willison.

Intégration Continue de la Sécurité comme Nécessité

Alors que les équipes s’efforcent de lancer des modèles GPT de nouvelle génération, la pression pour respecter les délais éclipse souvent les considérations de sécurité. Il est essentiel d’implémenter des protocoles de sécurité automatisés dès les premières phases de développement. L'objectif doit être d'améliorer les taux de déploiement de code tout en atténuant les risques de sécurité et en améliorant la qualité globale du code. La sécurité doit devenir une partie intégrante du cycle de vie du développement logiciel (SDLC), accompagnée de mesures et de flux de travail adaptés pour relever les défis uniques des GPT et des LML.

Les équipes DevOps performantes démontrent qu'intégrer la sécurité dès le processus de conception permet des déploiements plus rapides et une meilleure qualité logicielle. Une plus grande collaboration entre les équipes DevOps et celles de la sécurité est cruciale pour favoriser une responsabilité partagée en matière de taux de déploiement, de qualité logicielle et de métriques de sécurité, qui sont des indicateurs clés de performance pour les deux équipes.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles