Le gouvernement britannique a discrètement dissous un conseil consultatif indépendant chargé de superviser l’utilisation de l’intelligence artificielle (IA). Ce changement majeur a été révélé par un rapport de ‘The Record from Recorded Future News’, qui indique que le Centre pour l’Éthique des Données et l’Innovation (CDEI) est inactif depuis début septembre, et sa fermeture n'a pas été annoncée au public.
Le CDEI a été créé en 2018 sous l'administration de Theresa May pour fournir des conseils sur des questions cruciales liées à l'IA et à l'éthique des données. Sa mission comprenait l'examen de l'utilisation de l'IA par le gouvernement, l'analyse des menaces telles que la fraude aux allocations, et l'examen des condamnations pour crimes sexuels. Ce conseil réunissait des experts de divers secteurs, dont Neil Lawrence, professeur d'apprentissage automatique à l'Université de Cambridge, Jack Clark, cofondateur d'Anthropic, et Martin Hosken, technologue en chef des services cloud chez VMware. Ces membres visaient à opérationnaliser des politiques sur les données et l'IA pour favoriser l'innovation et une gouvernance éthique.
Suite à la dissolution du CDEI, l'administration Sunak a mis en place un Frontière AI Taskforce. Cet organe inclut des figures de proue comme le lauréat du Prix Turing Yoshua Bengio et Paul Christiano, ancien chef de l'équipe d'alignement des modèles linguistiques chez OpenAI. Formé plus tôt cette année, le taskforce est censé fournir des analyses critiques sur la recherche et la sécurité en IA, bien que son attention semble se détourner vers des préoccupations plus sensationnelles, notamment les dangers existentiels posés par l'IA. Contrairement au CDEI, qui se concentrait sur des insights immédiats et exploitables, le Frontière AI Taskforce est désormais associé à des discussions autour des risques potentiels d'avancement de l'IA, y compris la menace théorique d'une IA consciente.
Des tensions sont apparues entre les objectifs du CDEI et ceux du nouveau taskforce. Par exemple, Lawrence a ouvertement contesté le cadre des menaces liées à l'IA proposé par le taskforce, soutenant que faire appel à des concepts d'IA consciente pourrait induire des malentendus et détourner l'attention des besoins réglementaires pratiques. Il a souligné que la véritable question devrait porter sur une gouvernance actionnable plutôt que sur des scénarios hypotétiques.
Alors que le gouvernement se prépare pour son prochain sommet mondial sur la sécurité de l'IA en novembre, ce changement de structure consultative soulève des questions sur l'avenir de la gouvernance éthique de l'IA au Royaume-Uni. Le sommet vise à rassembler des organisations technologiques, des leaders académiques et des diplomates autour de discussions sur une IA responsable. Le Premier ministre Sunak a positionné le Royaume-Uni comme un leader dans la technologie de l'IA, malgré des revers récents, comme la tentative échouée d'attirer le concepteur de puces Arm à s'inscrire à la Bourse de Londres ; Arm a finalement choisi le Nasdaq aux États-Unis.
Un porte-parole du gouvernement a indiqué que le CDEI avait été nommé pour un mandat fixe, citant des développements rapides de l'IA comme justification du passage à un groupe d'experts plus diversifié. Cette évolution devrait intégrer un éventail plus large d'opinions, y compris des perspectives d'anciens membres du CDEI, pour mieux s'aligner sur les priorités gouvernementales en matière d'IA et d'innovation.
Cette transformation significative des organes consultatifs reflète le paysage en évolution rapide de la gouvernance de l'IA au Royaume-Uni et met en exergue le dialogue en cours concernant les normes éthiques et les mesures de sécurité dans le développement de l'IA.