Le Royaume-Uni a lancé son Sommet sur la Sécurité de l'IA, réunissant des chefs d'État, des pionniers de l'IA et des experts mondiaux dans un domaine rural d'une importance historique. L'objectif du sommet est d'établir un cadre international pour le développement d'une intelligence artificielle sûre. Quelques heures après le début de l'événement, le gouvernement britannique a annoncé l'adoption de la Déclaration de Bletchley sur la Sécurité de l'IA, nommée en hommage à Bletchley Park, berceau de l'informatique moderne et site des efforts révolutionnaires d'Alan Turing en matière de déchiffrement durant la Seconde Guerre mondiale.
La Déclaration de Bletchley comprend une série d'engagements visant à garantir que l'IA soit conçue, développée, déployée et utilisée de manière sécurisée, en mettant l'accent sur des principes centrés sur l'humain, la confiance et la responsabilité. Les signataires, dont 28 nations comme les États-Unis et la Chine ainsi que l'Union européenne, se sont engagés à collaborer au sein de forums internationaux existants pour traiter des risques liés à l'IA. La déclaration reconnaît que chaque pays peut classer ces risques selon ses propres cadres juridiques et contextes sociétaux.
De plus, l'accord exprime un engagement à organiser davantage de Sommets sur la Sécurité de l'IA, soulignant la nécessité d'un dialogue mondial inclusif sur ce sujet. Le Premier ministre Rishi Sunak a souligné l'importance de ce consensus en déclarant : « C'est une réalisation majeure qui voit les plus grandes puissances de l’IA au monde s’accorder sur l’urgence de comprendre les risques de l’IA, garantissant ainsi l'avenir de nos enfants et petits-enfants. »
La secrétaire à la technologie, Michelle Donelan, a ajouté que le sommet marque le début d'un long voyage visant à permettre à tous de tirer parti des avantages de la technologie de l'IA. Malgré ces engagements prometteurs, des experts comme Robert F. Trager, directeur de l'Initiative de Gouvernance de l'IA d'Oxford Martin, soulignent que l'accord manque de précisions sur la manière dont les pays collaboreront efficacement. « Le sommet semble avoir abouti à une déclaration de principes sans établir de feuille de route claire pour la coopération internationale », a-t-il noté.
La secrétaire au Commerce des États-Unis, Gina Raimondo, a dévoilé des projets pour établir un Institut de Sécurité de l'IA au sein de l'Institut national de normes et de technologie (NIST). Cet organisme se concentrera sur la création de lignes directrices, d'outils et de meilleures pratiques pour évaluer les risques de l'IA, tout en offrant des conseils techniques aux régulateurs sur des questions clés comme la transparence et l'annotation des contenus générés par l'IA. Raimondo a également appelé l'industrie et le milieu académique à participer activement à cette initiative, soulignant la nécessité de partenariats dans ce domaine crucial.
Dans un discours préenregistré, le roi Charles III a souligné l'importance de la collaboration internationale pour traiter de la sécurité de l'IA, appelant à une action rapide et unie pour protéger la vie privée et les moyens de subsistance. Sa Majesté a remercié les participants d'avoir jeté les bases d'un consensus durable sur la sécurité de l'IA, renforçant l'idée que l'IA doit être une force positive pour le bien.
Dans un mouvement significatif pour renforcer l'expertise en IA, le gouvernement britannique a récemment annoncé un engagement de 118 millions de livres (143 millions de dollars) pour améliorer le financement du développement des compétences en IA. Cela inclut la création de 12 nouveaux Centres de formation doctorale en IA, garantissant la cultivation d'un talent mondial de premier plan pour maximiser les avantages transformationnels de l'IA. Le fonds comprend également 1 million de livres en « Bourses pour l'avenir de l'IA », destinées à attirer les chercheurs en IA au Royaume-Uni.
Ce sommet de deux jours explorera les risques associés aux modèles avancés d'IA et examinera les stratégies potentielles d'atténuation. Les participants participeront à diverses discussions visant à obtenir une compréhension partagée des risques liés à l'IA, abordant des sujets clés tels que les évaluations de sécurité efficaces et les mécanismes de gouvernance. Une attention particulière sera accordée aux « modèles d'avant-garde », qui devraient présenter des risques substantiels pour la société.
Notamment, la liste des invités comprend des acteurs majeurs du secteur de l'IA, incluant des représentants des Nations Unies, de l'UNESCO et d'institutions académiques influentes comme Oxford et Stanford. Des entreprises d'IA renommées telles qu'OpenAI, Nvidia, Google DeepMind, IBM et Meta seront également présentes, aux côtés de startups innovantes du secteur.
Bien que le sommet réunisse un ensemble diversifié d'experts, des préoccupations ont émergé concernant la représentation limitée des petites entreprises et des startups en IA. Victor Botev, CTO de Iris.ai, a souligné que le sommet aurait bénéficié d'une inclusion plus large de voix, en particulier celles d'entreprises innovantes souvent essentielles dans les avancées de l'IA.
Au fur et à mesure que le sommet progresse, il constituera une occasion cruciale pour les dirigeants mondiaux d'aborder des questions pressantes de sécurité de l'IA, favorisant un environnement propice à l'émergence de solutions collaboratives qui permettront de tirer parti des avantages de l'IA tout en atténuant ses risques inhérents.