Une lettre ouverte publiée mardi par plus d'une douzaine d'employés actuels et anciens d'OpenAI, DeepMind de Google et Anthropic met en lumière les « risques sérieux » associés au développement rapide de la technologie d'intelligence artificielle (IA) sans un cadre de réglementation efficace. Les chercheurs avertissent qu'une IA non régulée pourrait aggraver les inégalités existantes, manipuler l'information, diffuser de la désinformation et potentiellement entraîner une perte de contrôle sur les systèmes autonomes d'IA, avec des conséquences désastreuses pour l'humanité.
Les signataires affirment que ces risques peuvent être « adéquatement atténués » grâce à une collaboration entre la communauté scientifique, les législateurs et le public. Toutefois, ils expriment leur inquiétude face au fait que « les entreprises d’IA ont de fortes incitations financières à éviter une surveillance efficace » et ne peuvent pas être considérées comme des guides fiables pour le développement responsable de technologies puissantes.
Depuis le lancement de ChatGPT en novembre 2022, l'IA générative a rapidement transformé le paysage technologique, avec des fournisseurs de cloud majeurs comme Google Cloud, Amazon AWS, Oracle et Microsoft Azure en tête, dans ce qui devrait devenir un marché d'un billion de dollars d'ici 2032. Une étude récente de McKinsey a révélé qu'en mars 2024, près de 75 % des organisations sondées avaient intégré l'IA dans leurs opérations. De plus, l'enquête annuelle Work Index de Microsoft a trouvé que trois quarts des travailleurs de bureau utilisent déjà des outils d'IA dans leur travail.
Cependant, comme l'a souligné Daniel Kokotajlo, un ancien employé d'OpenAI, dans une conversation avec le Washington Post, certaines entreprises adoptent une mentalité de « aller vite et casser des choses », inadaptée à une technologie à la fois puissante et mal comprise. Les startups d'IA telles qu'OpenAI et Stable Diffusion ont rencontré des difficultés avec les lois sur le droit d'auteur aux États-Unis, tandis que divers chatbots accessibles au public ont été manipulés pour générer des discours de haine, des théories du complot et de la désinformation.
Les employés d'IA préoccupés soutiennent que ces entreprises détiennent « d'importantes informations non publiques » concernant les capacités et les limites de leurs produits, y compris les risques potentiels et l'efficacité de leurs mesures de sécurité. Ils soulignent que seule une fraction de ces informations est accessible aux entités gouvernementales via des « obligations faibles de partage », laissant le grand public dans l'ignorance.
« En l'absence d'une supervision gouvernementale suffisante de ces sociétés, les employés actuels et anciens représentent l'une des rares voies pour leur demander des comptes vis-à-vis du public », a déclaré le groupe. Ils ont critiqué la dépendance de l'industrie technologique aux accords de confidentialité et à l'application insuffisante des protections des lanceurs d'alerte existantes. La lettre exhorte les entreprises d'IA à éliminer les accords de non-dénigrement, à établir un processus de signalement anonyme pour que les préoccupations des employés soient traitées par la direction et les régulateurs, et à s'assurer que les lanceurs d'alerte publics ne subissent pas de représailles si les canaux internes échouent.