Le conseil d'OpenAI obtient le pouvoir de veto sur les publications de modèles d'IA : de nouvelles mesures de supervision mises en place.

Suite à des turbulences récentes au sein de la direction, OpenAI s'engage à renforcer sa supervision en mettant en place une équipe dédiée à la Préparation, axée sur des tests de sécurité rigoureux de ses modèles d'IA. Cette initiative stratégique fait suite à la décision controversée de la société de licencier le PDG Sam Altman, motivée par les préoccupations du scientifique en chef Ilya Sutskever concernant la commercialisation rapide de la technologie sans protections adéquates contre les risques potentiels. Altman a été réintégré cinq jours plus tard, suite à un mécontentement généralisé des employés, soulignant l'importance de leur soutien dans les décisions d’entreprise.

Pour renforcer ses protocoles de sécurité, la nouvelle équipe de Préparation d'OpenAI effectuera des évaluations complètes et des tests de résistance sur ses modèles fondamentaux. Les rapports générés par cette équipe seront partagés avec la direction d'OpenAI ainsi qu'avec le nouveau conseil d'administration. Alors que l'équipe de direction décidera de la poursuite des modèles en fonction des résultats des tests, le conseil a désormais le pouvoir d'inverser ces décisions, marquant une transition vers une prise de décision plus rigoureuse.

Dans un article de blog récent, OpenAI a souligné : « Ce travail technique est essentiel pour éclairer les décisions d'OpenAI en matière de développement et de déploiement sûrs des modèles. » La restructuration du conseil suit des changements significatifs opérés durant la crise de leadership, avec des plans d'expansion de ses membres de trois à neuf, incluant un rôle d'observateur non-votant pour Microsoft. Le conseil actuel comprend des personnalités respectées telles que l'ancien secrétaire au Trésor américain Larry Summers, Bret Taylor, ancien co-PDG de Salesforce, et Adam D’Angelo, co-fondateur de Quora, le seul membre restant de l’ancien conseil.

La mission d'OpenAI est claire : sa principale responsabilité fiduciaire est envers l'humanité, et l'organisation est fermement engagée à garantir la sécurité de l'Intelligence Artificielle Générale (AGI). Le nouveau Cadre de Préparation d'OpenAI vise à tirer des enseignements précieux de ses déploiements de modèles, permettant ainsi de gérer efficacement les risques émergents. OpenAI affirme qu'à mesure que l'innovation s'accélère, le rythme des travaux de sécurité doit également s'intensifier, nécessitant un apprentissage continu grâce à des déploiements itératifs.

Dans le cadre de ce Cadre de Préparation, la nouvelle équipe effectuera des simulations de sécurité régulières pour garantir des réponses rapides à tout problème pouvant survenir. OpenAI prévoit également d'engager des tiers indépendants qualifiés pour réaliser des audits complets, renforçant ainsi la responsabilité et la transparence.

Tous les modèles d'OpenAI subiront désormais des mises à jour et des évaluations continues chaque fois que la puissance computationnelle efficace double durant les sessions d'entraînement. Le processus de test couvrira un éventail de domaines critiques, notamment les vulnérabilités en cybersécurité, le potentiel d'abus et la capacité de prise de décision autonome, en particulier en ce qui concerne les résultats dangereux liés aux menaces biologiques, chimiques ou nucléaires.

Les modèles seront classés selon l'un des quatre niveaux de risque de sécurité, en accord avec le système de classification de la Loi IA de l'UE. Ces catégories vont de risque faible, moyen, élevé à critique. Les modèles jugés de risque moyen ou inférieur seront considérés comme adaptés à leur déploiement, tandis que ceux obtenant un score élevé ou critique nécessiteront un développement et des mesures de précaution supplémentaires.

Actuellement, le Cadre de Préparation d'OpenAI est en phase bêta, avec des ajustements continus prévus à mesure que de nouvelles informations émergent. Cette approche proactive reflète l'engagement de la société à assurer non seulement l'avancement de la technologie IA, mais également les considérations de sécurité et d'éthique qui accompagnent de telles innovations.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles