En janvier, j'ai interviewé Mark Beall, cofondateur et ancien PDG de Gladstone AI, dont le cabinet de conseil a récemment publié un rapport révolutionnaire sur la sécurité de l'IA pour le Département d'État. Les recommandations clés du rapport, relayées par TIME, précisent comment les États-Unis devraient aborder les risques significatifs pour la sécurité nationale associés à l'IA avancée.
Au cours de notre conversation, j'ai exploré le débat croissant parmi les dirigeants en intelligence artificielle et en politique concernant l'influence de l'altruisme efficace (AE) dans les cercles de sécurité de l'IA à Washington, D.C. Beall, ancien responsable de la politique d'IA au Département de la Défense des États-Unis, a exprimé une urgence forte à gérer les menaces potentielles cataclysmiques de l'IA. Il a souligné la nécessité de "mesures de sécurité de bon sens" sur les réseaux sociaux, avertissant que nous devons agir avant de faire face à une catastrophe liée à l'IA.
Pour beaucoup, la "sécurité de l'IA" évoque des inquiétudes concernant les risques existentiels, souvent alimentées par des systèmes de croyance comme l'altruisme efficace. Les auteurs de Gladstone AI rapportent avoir consulté plus de 200 fonctionnaires, experts et personnel de laboratoires d'IA de premier plan comme OpenAI et Google DeepMind durant leur recherche approfondie.
Cependant, le rapport a suscité du scepticisme sur les réseaux sociaux. Nirit Weiss-Blatt, chercheuse en communication, a mis en lumière les commentaires du co-auteur Eduoard Harris sur le problème du "maximisateur de trombones", que certains considèrent comme un scénario extrême. De plus, Aidan Gomez, PDG de Cohere, a critiqué la légitimité de l'enquête, suggérant que des sondages sur les réseaux sociaux pourraient donner des résultats plus représentatifs. William Falcon, PDG de Lightning AI, a également rejeté les affirmations selon lesquelles l'IA en open source poserait des menaces d'extinction, arguant que l'IA en closed source pourrait être potentiellement plus dangereuse.
Fait intéressant, le départ de Beall de Gladstone a coïncidé avec le lancement de ce qu'il a qualifié de "premier Super PAC sur la sécurité de l'IA." Lancé en même temps que le rapport Gladstone, le PAC a pour objectif d'éduquer les électeurs sur la politique de l'IA, soulignant l'impact public croissant de cette problématique. Beall a mentionné avoir sécurisé un financement initial pour le Super PAC, avec des projets de levée de millions supplémentaires.
Le parcours du cofondateur Brendan Steinhauser en tant que consultant républicain met en évidence la mission bipartisane du PAC. Beall a déclaré : "Nous voulons que les législateurs des deux partis promeuvent l'innovation et protègent la sécurité nationale." L'expérience de Steinhauser en politique nationale sur deux décennies soutient cet objectif.
Bien que le lancement simultané du Super PAC et du rapport Gladstone puisse sembler inhabituel, Jeremie Harris, cofondateur de Gladstone, a précisé que le rapport avait été commandé par le Bureau de la sécurité internationale et de la non-prolifération du Département d'État pour fournir une analyse experte neutre. Il a assuré que Gladstone opère indépendamment de toute affiliation politique ou influence de financement.
Beall a reconnu l'importance du rapport Gladstone mais a insisté sur le fait que "maintenant, le vrai travail commence." Il a appelé le Congrès à adopter une législation garantissant une approche flexible et à long terme du développement de l'IA. Interrogé sur d'éventuels donateurs, Beall a exprimé l'espoir de construire une coalition diversifiée, citant l'inquiétude nationale généralisée face aux risques cataclysmiques de l'IA.
Bien que l'attention du public puisse également être attirée par des menaces immédiates comme les deepfakes et la désinformation électorale, il est clair que la sécurité et la politique de l'IA seront liées à des enjeux de financement et de politique à l'avenir.