Selon OpenAI, son conseil d'administration à but non lucratif sera chargé de déterminer quand l'entreprise atteindra l'"intelligence générale artificielle" (AGI), définie comme un système hautement autonome surpassant les performances humaines dans la plupart des tâches économiques précieuses. Étant donné que sa filiale à but lucratif est légalement contrainte de respecter la mission de l'organisation à but non lucratif, une fois l'AGI déclarée, la technologie d'OpenAI ne sera plus soumise à des licences IP ou des accords commerciaux avec Microsoft, qui ne s'appliquent qu'aux systèmes pré-AGI.
Le concept d'AGI n'a pas de définition universellement acceptée, soulevant des questions sur les implications d'une décision prise par seulement six individus—ce que cela signifie pour OpenAI et le monde en général, ainsi que l'impact potentiel sur Microsoft, le plus grand investisseur de l'entreprise.
Logan Kilpatrick, défenseur des développeurs chez OpenAI, a abordé ce sujet dans un récent fil de discussion sur X, en répondant aux déclarations de Brad Smith, président de Microsoft, selon lesquelles le statut à but non lucratif d'OpenAI renforce sa crédibilité par rapport à Meta, qui est détenue par des actionnaires. Cette affirmation est intervenue malgré des rapports faisant état d'OpenAI cherchant une valorisation allant jusqu'à 90 milliards de dollars pour ses actions existantes.
Smith a déclaré : "Meta est détenue par des actionnaires. OpenAI est détenue par un organisme à but non lucratif. Lequel feriez-vous le plus confiance pour votre technologie ?"
Kilpatrick a cité des informations du site d'OpenAI, détaillant sa structure à but non lucratif et à profit plafonné. Comme il est précisé, la filiale à but lucratif, OpenAI Global, LLC, est "entièrement contrôlée" par l'organisme à but non lucratif et est autorisée à générer des profits, mais doit s'aligner sur sa mission.
Malgré cette affiliation, le PDG d'OpenAI, Sam Altman, a exprimé à Satya Nadella, PDG de Microsoft, son enthousiasme pour leur partenariat dans le développement de l'AGI. De plus, dans une interview avec le Financial Times, Altman a noté que leur collaboration se passait "très bien" et anticipait un investissement supplémentaire de Microsoft, soulignant d'importants besoins en calcul pour le développement de l'AGI.
Depuis le début, Microsoft a convenu de "laisser les technologies et la gouvernance de l'AGI à l'organisme à but non lucratif et à l'humanité." Un porte-parole d'OpenAI a réaffirmé que l'organisation vise à créer une AGI sûre et bénéfique, gouvernée par un conseil intégrant divers points de vue d'experts dans sa prise de décision.
Actuellement, le conseil comprend le président Greg Brockman, le scientifique en chef Ilya Sutskever et le PDG Sam Altman, ainsi que des membres externes Adam D’Angelo, Tasha McCauley et Helen Toner, tous connectés au mouvement de l'Altruisme Efficace. OpenAI a été critiquée par le passé pour ses relations dans ce domaine, notamment après des scandales impliquant des personnalités comme Sam Bankman-Fried.
Le porte-parole a précisé qu'aucun des membres du conseil ne se considère comme altruiste efficace, soulignant leur rôle de contributeurs indépendants centrés sur la sécurité et l'éthique liées à l'IA.
Le processus décisionnel autour de l'AGI a été qualifié d'"inhabituel." L'experte juridique Suzy Fulton a commenté que bien que cela puisse sembler peu conventionnel pour un conseil de prendre de telles décisions, cela s'aligne sur le devoir de l'organisme à but non lucratif de privilégier le bien-être de l'humanité sur les intérêts des actionnaires. Avec une majorité de membres indépendants, OpenAI vise une structure qui favorise sa mission.
Les points de vue juridiques suggèrent que bien qu'il soit inhabituel que le conseil décide de l'AGI, cela n'est pas interdit légalement, étant donné l'obligation du conseil de superviser des enjeux critiques liés à la mission.
Cependant, le scepticisme persiste quant à la timeline pour atteindre l'AGI. Certains soutiennent que se concentrer sur cet objectif pourrait détourner l’attention des impacts immédiats des technologies IA actuelles. Des experts comme Merve Hickok mettent en lumière un potentiel manque de diversité d'opinions au sein d'OpenAI, appelant à la prudence quant à la légitimité de sa mission d'AGI.
La définition ambiguë de l'AGI par OpenAI complique ses implications, même si sa direction envisage un avenir où plusieurs AGIs coexistent, favorisant des perspectives diverses.
Les ramifications de la quête d'AGI d'OpenAI pour Microsoft restent incertaines, surtout au regard de leur structure relationnelle. Le juriste Anthony Casey a noté les conflits potentiels découlant des deux entités d'OpenAI, suggérant que si les motifs de profit entraient en conflit avec la mission de l'organisme à but non lucratif, cela pourrait entraîner des disputes significatives.
Avec des plafonds de profit plus faciles à mettre en œuvre que de résoudre les conflits d'intérêts, il reste à voir comment cette structure unique naviguera dans le paysage complexe du développement et de la gouvernance de l'AGI.