Le Premier ministre britannique Rishi Sunak a souligné la nécessité d'une perspective équilibrée sur l'intelligence artificielle (IA) alors qu'il se prépare pour le prochain Sommet sur la sécurité de l'IA, prévu les 1er et 2 novembre. S'exprimant à la Royal Society, la principale institution scientifique du pays, il a reconnu les risques importants liés à l'IA, notamment son potentiel d'utilisation abusive par des acteurs malveillants. Cependant, il a mis en garde contre une réaction excessivement alarmiste.
« Actuellement, les entités développant l'IA sont également responsables de la vérification de sa sécurité, et même elles manquent souvent d'une compréhension complète des capacités futures de leurs modèles », a déclaré Sunak. « Les incitations à rivaliser en créant les modèles les plus avancés rapidement nous amènent à nous interroger sur la confiance que nous pouvons accorder à leur auto-évaluation. »
Sunak a rejeté les mesures réglementaires hâtives qui pourraient freiner l'innovation, affirmant : « Comment pouvons-nous élaborer des lois efficaces sur quelque chose que nous ne comprenons pas entièrement ? Nous mettons plutôt en place des capacités de pointe au sein du gouvernement pour comprendre et évaluer la sécurité des modèles d'IA. » L'approche du gouvernement britannique en matière de législation sur l'IA est notablement moins stricte que celle de l'Union européenne, définissant ses exigences dans un livre blanc et déléguant la réglementation à des instances spécifiques.
En juin, lors de la conférence AI Summit London, le ministre britannique de l'IA a indiqué que les réglementations à venir compléter seraient les normes techniques et les techniques d'assurance, signalant une amélioration possible de la supervision.
Une approche collaborative pour la sécurité de l’IA
Sunak a exprimé son intention de travailler en collaboration avec d'autres nations sur la sécurité de l'IA, choisissant une posture non conflictuelle. Cet esprit de collaboration se reflète dans l'invitation adressée à la Chine pour le sommet, malgré les tensions actuelles avec les États-Unis. Il a souligné l'importance de considérer diverses perspectives, affirmant, « Une stratégie sérieuse pour l'IA doit inclure des dialogues avec toutes les grandes puissances en matière d'IA dans le monde. »
La Chine a instauré des réglementations strictes pour ses entreprises d'IA, nécessitant une révision de sécurité par l'autorité nationale de contrôle des données avant que de nouveaux modèles d'IA générative puissent être publiés. Néanmoins, le gouvernement chinois a exprimé sa volonté de participer aux discussions internationales sur la supervision de l'IA, même si le président Xi Jinping a insisté sur l'accent à mettre sur la sécurité nationale.
Le vice-Premier ministre Oliver Dowden a confirmé que la Chine avait accepté l'invitation au sommet, bien qu'il ait noté la nécessité d'attendre la confirmation de tous les participants potentiels.
Sunak souhaite que le sommet favorise une compréhension partagée des risques de l'IA et cherche un consensus sur la première déclaration internationale relative à ces défis. Il envisage la création d’un « panel d’experts véritablement mondial » sur l’IA, composé de nominations des pays et organisations participantes, chargé de publier un rapport complet sur l’« État de la science de l’IA ».
« Notre succès dépend de la collaboration avec les entreprises d’IA. À mesure que la technologie évolue, nous devons nous assurer que notre compréhension collective des risques s’adapte également », a-t-il déclaré. Cette initiative s’aligne sur les appels d’éminentes personnalités, dont le secrétaire général de l'ONU, António Guterres, en faveur de la création d’un organisme mondial de réglementation pour surveiller la sécurité de l’IA, semblable à l'Agence internationale de l'énergie atomique (AIEA).
Perspectives et préoccupations du secteur
Alors que Sunak promeut la vision du Royaume-Uni en tant que superpuissance AI, le gouvernement a alloué 120 millions de dollars à un groupe qui conseillera sur les questions liées à l'IA, avec parmi ses membres le lauréat du prix Turing, Yoshua Bengio. Le sommet accueillera des leaders de l'industrie de premier plan, y compris le PDG d'OpenAI Sam Altman et le PDG de Google DeepMind Demis Hassabis, aux côtés de politiciens de haut niveau comme la vice-présidente américaine Kamala Harris.
Maya Dillon, responsable de l'IA chez Cambridge Consultants, a souligné la nécessité de coopération face à la révolution de l'IA, déclarant : « Le défi n’est pas seulement d’adopter l’IA mais de diriger son évolution de manière réfléchie. Cette révolution doit allier succès commercial et bien-être sociétal, nécessitant une véritable collaboration. »
Paul Henninger, responsable des technologies connectées chez KPMG U.K., a noté que, bien que le sommet puisse déclencher des stratégies de collaboration pour l'évaluation des risques, les organisations s'attendront également à des mises à jour régulières à mesure que la technologie continue d'évoluer.
Malgré les objectifs ambitieux fixés pour le sommet, Chris Royles, CTO EMEA chez Cloudera, a jugé que la recherche de réglementations complètes était une aspiration élevée. Il a suggéré que les entreprises se concentrent sur la formation de leurs modèles d'IA avec des sources de données fiables. De même, Fabien Rech, directeur général chez Trellix, a plaidé pour donner la priorité aux mesures de sécurité dans le développement de l'IA afin de renforcer la confiance et protéger contre les menaces cybernétiques.
Mettre en lumière les risques de l’IA
Avant l’adresse de Sunak, le gouvernement britannique a publié un document décrivant les risques potentiels liés à l'IA, qui incluaient :
- Dommages sociétaux : La génération de désinformation et de deepfakes, les disruptions de l'emploi dues à l'automatisation, et les biais algorithmiques pouvant entraîner des résultats injustes.
- Risques d'abus : Le potentiel des technologies IA à faciliter la création d'armes ou à améliorer l'efficacité des cyberattaques et des efforts de désinformation.
- Risques de perte de contrôle : Préoccupations concernant la remise des pouvoirs décisionnels à des systèmes d'IA mal alignés et des agents avancés cherchant à accroître leur influence.
Le rapport a également exposé les défis omniprésents qui pourraient aggraver ces risques, tels que la complexité de la conception de systèmes d'IA sûrs, l'évaluation de leur sécurité et l'assurance de leur responsabilité lors de leur déploiement.
En réponse au rapport, Sjuul van der Leeuw, PDG de Deployteq, a salué l'approche sérieuse du gouvernement britannique en matière de sécurité de l'IA, reconnaissant les opportunités significatives que l'IA offre dans divers secteurs, sous réserve d'une réglementation et d'une orientation efficaces de la part des décideurs.