ChatGPT transforme l'IT clandestine, introduisant des risques inattendus pour les entreprises. Les dirigeants en IT et cybersécurité doivent tirer parti de sa rapidité tout en garantissant une sécurité robuste. Selon OpenAI, l'adoption par les entreprises augmente, avec plus de 80 % des employés du Fortune 500 utilisant ChatGPT.
Une étude récente de l'Université de Harvard révèle que les employés d'entreprise connaissent une augmentation de performance de 40 % grâce à ChatGPT. De plus, le MIT a constaté que cela réduit les disparités de compétences et accélère la création de documents, permettant ainsi aux travailleurs d’optimiser leur temps. Cependant, 70 % des employés hésitent à révéler leur utilisation de l'outil à la direction.
Réduction du risque de perte de propriété intellectuelle tout en maintenant la rapidité
La principale préoccupation concernant ChatGPT est le risque pour les employés de partager par inadvertance des informations sensibles, telles que la propriété intellectuelle, des prix confidentiels, des données financières et des informations RH. Des cas médiatisés, comme la fuite de données de Samsung, soulignent l'urgence d'une solution efficace.
Pour remédier à cette problématique, de nombreuses entreprises se tournent vers des approches basées sur l'IA générative pour améliorer la sécurité. L'intérêt croissant pour les technologies d'isolation de l'IA générative vise à protéger les données confidentielles des plateformes comme ChatGPT et Bard. Les entreprises cherchent à allier l'efficacité et les améliorations de processus offertes par ChatGPT à une stratégie de gestion des risques solide.
Lors d’une discussion avec Alex Philips, CIO de National Oilwell Varco (NOV), il a souligné l'importance d'informer le conseil d'administration sur les opportunités et les risques liés à l'IA générative. Philips tient régulièrement le conseil au courant des dernières avancées en IA générative et de son application au sein de NOV, contribuant ainsi à établir des attentes et des mesures préventives contre les fuites de données.
Solutions innovantes pour sécuriser les sessions ChatGPT
Une gamme de nouvelles technologies émerge pour relever le défi de la sécurisation des sessions ChatGPT sans compromettre la rapidité. Parmi les fournisseurs notables, on trouve Cisco, Ericom Security by Cradlepoint, Menlo Security, Nightfall AI, Wiz et Zscaler.
Ces fournisseurs adoptent diverses stratégies pour protéger les données confidentielles lors des sessions ChatGPT. Les solutions d'Ericom Security by Cradlepoint’s Generative AI Isolation et Nightfall for ChatGPT sont parmi les plus reconnues. Ericom utilise une approche sans client, exécutant les interactions des utilisateurs avec des sites d’IA générative dans un navigateur virtuel au sein de l'Ericom Cloud Platform. Cette méthode permet la protection des données contre les pertes et l'application des politiques d'accès, garantissant que les informations sensibles ne sont pas soumises à des plateformes d'IA générative comme ChatGPT. Leur conception privilégie un accès limité via une architecture cloud.
Nightfall AI propose un ensemble de trois solutions visant à protéger les données confidentielles contre l'exposition sur ChatGPT et des plateformes similaires. Nightfall for ChatGPT est une solution basée sur navigateur qui scanne et censure les informations sensibles en temps réel. Nightfall for LLMs fournit une API pour détecter et censurer les données sensibles utilisées dans l'entraînement des modèles linguistiques. Enfin, Nightfall for SaaS s'intègre aux services cloud populaires pour prévenir l'exposition de données sensibles.
IA générative : L'avenir de la connaissance
L'IA générative devient le moteur de connaissance incontournable pour les entreprises. Les preuves suggèrent que l'interdiction de ChatGPT et des technologies similaires alimente, de manière contre-intuitive, l'essor de l'IA clandestine, compliquant les efforts de sécurité des données.
De plus en plus de CIO et de CISO pilotent désormais des systèmes d'IA générative, mettant en œuvre des stratégies qui atténuent les risques au niveau du navigateur. En s'appuyant sur des architectures cloud sécurisées, comme le démontre Cradlepoint Ericom, les entreprises peuvent protéger des milliers d'employés contre le partage involontaire de données.
L'accent doit être mis sur la transformation de l'avancement rapide de l'IA générative en avantage concurrentiel. Les équipes IT et de sécurité doivent prioriser la compréhension des dernières technologies et des méthodes de protection des informations sensibles. Rester informé sur ces protections évolutives est essentiel pour maintenir sa compétitivité dans l'économie du savoir.
« Les sites d'IA générative offrent des gains de productivité significatifs, mais les entreprises doivent être proactives dans la gestion des risques associés », a déclaré Gerry Grealish, Vice-Président Marketing chez Ericom Cybersecurity Unit de Cradlepoint. « Notre solution d'Isolation de l'IA générative permet aux entreprises d'équilibrer le potentiel de l'IA générative avec des garde-fous robustes contre la perte de données, les menaces de logiciels malveillants et les défis de conformité légale. »