Sam Altman : Le prochain modèle d'OpenAI sera d'abord soumis à des vérifications de sécurité par le gouvernement américain.

Face à l'inquiétude croissante concernant la sécurité des systèmes d'intelligence artificielle avancée, le PDG d'OpenAI, Sam Altman, a annoncé que le prochain modèle majeur de génération d'IA de l'entreprise sera soumis à des vérifications de sécurité avec le gouvernement américain avant sa sortie. Dans un message publié sur X, Altman a indiqué qu'OpenAI avait collaboré avec l'AI Safety Institute des États-Unis, une agence fédérale, pour un accord permettant un accès anticipé à son nouveau modèle de base. Ce partenariat vise à faire progresser la science de l'évaluation de l'IA et à garantir des mesures de sécurité solides.

L'engagement d'OpenAI en matière de sécurité

Altman a souligné qu'OpenAI avait modifié ses politiques de non-dénigrement, permettant ainsi aux employés actuels et anciens d'exprimer librement leurs préoccupations concernant les pratiques de l'entreprise. De plus, elle s'engage à consacrer au moins 20 % de ses ressources informatiques à la recherche sur la sécurité.

Inquiétudes des sénateurs américains

Alors qu'OpenAI est devenu un leader dans le secteur de l'IA avec des produits tels que ChatGPT et le récemment lancé SearchGPT, sa stratégie de développement rapide a suscité la controverse. Les critiques, y compris d'anciens responsables de la sécurité, ont accusé l'entreprise de négliger la sécurité au profit d'une avancée rapide. En réaction à ces préoccupations, cinq sénateurs américains ont récemment écrit à Altman, remettant en question l'engagement d'OpenAI envers la sécurité et abordant des allégations de représailles contre les anciens employés ayant exprimé des alarmes via l'accord de non-dénigrement. Les sénateurs ont exprimé que les préoccupations continues en matière de sécurité semblent contredire l'engagement déclaré d'OpenAI envers un développement responsable de l'IA.

Réponse de la direction d'OpenAI

Selon Bloomberg, le directeur de la stratégie d'OpenAI, Jason Kwon, a répondu en réaffirmant la mission de l'entreprise de développer une IA au service des meilleurs intérêts de l'humanité. Il a mis en avant l'engagement d'OpenAI à mettre en œuvre des mesures de sécurité rigoureuses tout au long de ses processus et à maintenir la transparence avec les employés. Kwon a réitéré les projets d'allouer 20 % de la puissance de calcul à la recherche sur la sécurité, de supprimer les clauses de non-dénigrement pour favoriser un dialogue ouvert, et de collaborer avec l'AI Safety Institute pour des mises en production de modèles sécurisées. Altman a également souligné cet engagement sur X, sans toutefois révéler de détails spécifiques sur la collaboration avec l'AI Safety Institute.

Collaborer pour une IA plus sûre

L'AI Safety Institute, partie intégrante du National Institute of Standards and Technology (NIST), a été créé lors du Sommet sur la sécurité de l'IA au Royaume-Uni pour traiter les risques potentiels associés à l'IA avancée, y compris les préoccupations en matière de sécurité nationale et publique. Il collabore avec plus de 100 entreprises technologiques, dont Meta, Apple, Amazon, Google et OpenAI, pour promouvoir la sécurité dans le développement de l'IA. Il est important de noter qu'OpenAI ne s'associe pas uniquement au gouvernement américain, mais a également établi un accord similaire de revue de sécurité avec le gouvernement britannique.

Les préoccupations de sécurité s'intensifient

Les préoccupations en matière de sécurité se sont intensifiées en mai lorsque Ilya Sutskever et Jan Leike, les co-leaders de l'équipe de superalignement d'OpenAI, dédiée au développement de systèmes de sécurité pour l'IA superintelligente, ont démissionné brusquement. Leike a ouvertement critiqué l'entreprise pour avoir privilégié des produits tape-à-l'œil au détriment des mesures essentielles de sécurité. Suite à leur départ, des rapports ont indiqué la dissolution de l'équipe de superalignement. Malgré ces revers, OpenAI a poursuivi ses lancements de produits tout en renforçant son engagement envers la sécurité grâce à des recherches internes et à la formation d'un nouveau comité de sécurité et de sûreté, présidé par Bret Taylor (président du conseil d'OpenAI) et comprenant des membres notables tels qu'Adam D'Angelo (PDG de Quora), Nicole Seligman (ancienne conseillère générale de Sony Global) et Sam Altman.

À travers ces efforts, OpenAI vise à répondre aux préoccupations critiques en matière de sécurité entourant les technologies d'IA avancées, en s'efforçant de trouver un équilibre entre innovation et développement responsable.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles