L'Influence Croissante de l'Altruisme Efficace sur la Sécurité de l'IA

Un expert américain en politique de l'IA a récemment déclaré : « Si vous n'explorez pas l'influence de l'altruisme efficace (EA), vous passez à côté de l'essentiel. » En y réfléchissant, je réalise que j'ai négligé un angle important dans ma couverture de la semaine dernière.

Ironiquement, je pensais que mon article sur les préoccupations relatives à la sécurisation des poids des modèles de langage (LLM) était une victoire simple. Le récent décret exécutif de la Maison Blanche sur l'IA exige des entreprises de modèles fondamentaux qu'elles documentent la propriété et les mesures de sécurité pour les modèles à double usage, rendant ce sujet actuel et pertinent. Dans mon article, j'ai interviewé Jason Clinton, directeur de la sécurité de l'information chez Anthropic, qui a souligné le besoin critique de sécuriser les poids du modèle Claude, le LLM d'Anthropic. Il a mis en avant le danger que représentent les criminels, les terroristes et les États-nations ayant accès à ces modèles sophistiqués, notant que « si un attaquant accède au fichier entier, il pourrait contrôler l'ensemble du réseau de neurones. » D'autres entreprises à la pointe de la technologie partagent ces préoccupations ; le nouveau « Cadre de préparation » d'OpenAI aborde la nécessité de restreindre l'accès aux informations sensibles sur les modèles.

J'ai également discuté avec Sella Nevo et Dan Lahav de la RAND Corporation, auteurs d'un rapport significatif intitulé Sécuriser les poids des modèles d'intelligence artificielle. Nevo, qui dirige le Meselson Center de RAND, a averti que les modèles d'IA pourraient bientôt avoir des implications substantielles pour la sécurité nationale, y compris un risque potentiel d'utilisation abusive dans le développement d'armes biologiques.

Le réseau de connexions de l'altruisme efficace dans la sécurité de l'IA

En y réfléchissant, mon article n'a pas abordé les connexions complexes entre la communauté de l'altruisme efficace et le domaine émergent de la sécurité de l'IA. Cet oubli est significatif, compte tenu de l'influence croissante de l'EAP, un mouvement intellectuel qui met l'accent sur l'utilisation de la raison et des preuves pour bénéficier à l'humanité, en particulier dans la prévention des risques existentiels liés à l'IA avancée. Les critiques soutiennent que l'accent mis par l'EAP sur de telles menaces éloignées néglige des problèmes urgents comme le biais, la désinformation et la cybersécurité dans le développement de l'IA.

Récemment, l'EAP a fait la une des journaux en raison de l'implication du conseil d'OpenAI dans le licenciement du PDG Sam Altman, soulignant les connexions de l'EAP dans la prise de décisions critiques.

Bien que j'étais conscient des liens d'Anthropic avec l'EAP — le fondateur de FTX, Sam Bankman-Fried, ayant autrefois détenu une participation de 500 millions de dollars dans la startup — j'ai négligé d'explorer plus en profondeur les implications de l'EAP pour mon article. Cependant, après avoir lu un article de Politico qui est paru le lendemain, j'ai découvert d'importantes connexions entre RAND et l'EAP, y compris des liens de financement significatifs.

L'article de Politico a révélé que les chercheurs de la RAND Corporation ont joué un rôle clé dans l'élaboration du décret exécutif de la Maison Blanche sur les poids des modèles, et que l'organisation a reçu plus de 15 millions de dollars de la part d'Open Philanthropy, une initiative de l'EAP soutenue par le co-fondateur de Facebook, Dustin Moskovitz. Notamment, le PDG de RAND, Jason Matheny, et le scientifique senior Jeff Alstott sont reconnus comme des altruistes efficaces ayant des liens antérieurs avec l'administration Biden.

Perspectives de la communauté de l'altruisme efficace

Lors de ma conversation de suivi avec Nevo, il a noté que la forte présence d'avocats de l'EAP dans la sécurité de l'IA ne devrait pas être surprenante. Historiquement, l'EAP a été à l'avant-garde des discussions sur la sécurité de l'IA, ce qui signifie que quiconque s'engage dans ce domaine a probablement été confronté aux perspectives de l'EAP.

Nevo a également exprimé sa frustration à propos du ton de l'article de Politico, suggérant qu'il impliquait injustement une faute tout en soulignant le rôle longstanding de RAND dans la fourniture de recherches précieuses pour les décideurs. Il a insisté sur le fait que ni lui ni son centre n'étaient impliqués dans le décret exécutif et que les dispositions relatives à la sécurité des modèles étaient des engagements volontaires prédéfinis par la Maison Blanche.

Bien que le Meselson Center reste relativement obscur, Nevo a indiqué qu'il fait partie des nombreux centres de recherche de RAND, se concentrant sur la biosurveillance et l'intersection de l'IA avec la sécurité biologique.

L'importance de l'altruisme efficace dans la sécurité de l'IA

L'influence de l'EAP a-t-elle réellement de l'importance ? En réfléchissant à la célèbre réplique de Jack Nicholson : « Vous avez besoin de moi sur ce mur ! », cela soulève la question : si nous avons besoin d'individus dévoués dans la sécurité de l'IA, leur idéologie a-t-elle de l'importance ?

Pour beaucoup qui plaident en faveur de la transparence et d'une politique efficace en matière d'IA, la réponse est oui. Comme le souligne le reportage de Politico sur l'influence de l'EAP à Washington, ces connexions façonneront de manière significative les politiques, réglementations et développements futurs de l'IA.

L'expert en politique de l'IA américain avec qui j'ai échangé a observé que de nombreux acteurs du secteur politique négligent les éventuelles agendas idéologiques dans l'IA. Malheureusement, ils sous-estiment leur impact.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles