OpenAI et Anthropic annoncent un accord : le gouvernement américain effectuera des évaluations préliminaires de sécurité sur les nouveaux modèles d'IA.

OpenAI et Anthropic Signent un Accord de Coopération sur la Sécurité de l'IA

Récemment, les entreprises de renommée mondiale, OpenAI et Anthropic, ont annoncé un accord de coopération significatif avec l'Institut de Sécurité de l'IA des États-Unis. Dans le cadre de ce protocole d'accord, les deux entreprises s'engagent à fournir au gouvernement américain un accès anticipé à de nouveaux modèles d'IA pour des évaluations de sécurité avant leur publication publique. Cette collaboration représente une avancée cruciale dans le développement sécurisé de la technologie de l'IA.

Selon l'accord, OpenAI et Anthropic donneront au gouvernement américain accès à leurs modèles d'IA tant avant qu'après leur lancement public. Cette initiative vise à identifier et atténuer les risques potentiels liés à la sécurité. Le gouvernement américain a indiqué que ce partenariat renforcera la compréhension et la régulation des technologies de l'IA, garantissant un développement sûr et contrôlable.

Jason Kwon, directeur stratégique d'OpenAI, a exprimé un soutien fort pour l'initiative, soulignant l'importance de collaborer avec l'Institut de Sécurité de l'IA des États-Unis afin d'établir des meilleures pratiques et des normes de sécurité pour les modèles d'IA. Kwon estime que cette collaboration renforcera le leadership des États-Unis dans le développement responsable de l'IA.

Jack Clark, co-fondateur et responsable des politiques chez Anthropic, a également exprimé son optimisme à propos de ce partenariat, soulignant l'importance d'assurer la sécurité et la fiabilité des technologies de l'IA pour avoir un impact positif. Grâce à cette collaboration, les deux organisations visent à mieux identifier et réduire les risques liés à l'IA, en promouvant un développement responsable de celle-ci.

Cette annonce intervient à un moment où les discussions mondiales sur les politiques de régulation de l'IA s'intensifient. Alors que les instances législatives de différents niveaux explorent comment équilibrer innovation et régulations de sécurité nécessaires, le partenariat OpenAI-Anthropic établit une référence pour l'industrie. Récemment, la Californie a adopté la loi "Advanced AI Model Safety Innovation Act" (SB 1047), qui impose des mesures de sécurité spécifiques aux entreprises d'IA avant l'entraînement de modèles avancés. Bien que le projet de loi attende la signature du gouverneur, il a déjà suscité une vaste attention et des débats.

La Maison Blanche cherche activement des engagements volontaires auprès des entreprises leaders dans le domaine de l'IA concernant des mesures de sécurité. Plusieurs grandes entreprises ont exprimé des promesses non contraignantes, investissant dans la cybersécurité et la recherche sur l'équité, et s'engageant à identifier les contenus générés par l'IA par des marques d'eau pour améliorer la sécurité.

Elizabeth Kelly, directrice de l'Institut de Sécurité de l'IA des États-Unis, a noté que bien que ces nouveaux accords ne soient que le début, ils représentent une étape essentielle dans la gestion du développement futur responsable de l'IA. Elle est déterminée à promouvoir l'avancement sûr des technologies de l'IA pour garantir leurs bénéfices pour la société.

La collaboration entre OpenAI, Anthropic et le gouvernement américain donne un nouvel élan au développement sécurisé de la technologie de l'IA. À mesure que l'IA continue d'évoluer et que ses applications se diversifient, garantir la sécurité et la fiabilité de l'IA deviendra un enjeu majeur à l'échelle mondiale. En renforçant la coopération et la régulation, on s'attend à ce que les technologies de l'IA jouent un rôle de plus en plus positif dans la progression et le développement de la société.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles