Laut OpenAI wird der gemeinnützige Vorstand des Unternehmens darüber entscheiden, wann es "künstliche allgemeine Intelligenz" (AGI) erreicht hat, definiert als ein hochautonomes System, das in den meisten wirtschaftlich wertvollen Aufgaben die menschliche Leistung übertrifft. Da die gewinnorientierte Tochtergesellschaft rechtlich verpflichtet ist, die Mission der gemeinnützigen Organisation aufrechtzuerhalten, wird OpenAIs Technologie nach der Erklärung von AGI nicht mehr durch IP-Lizenzen oder kommerzielle Vereinbarungen mit Microsoft, die nur für Systeme vor AGI gelten, geregelt.
Das Konzept der AGI hat keine allgemein akzeptierte Definition, was Fragen zu den Konsequenzen aufwirft, die aus einer Entscheidung von nur sechs Personen resultieren—was das für OpenAI und die Welt im Allgemeinen bedeutet sowie den möglichen Einfluss auf Microsoft, den größten Investor des Unternehmens.
Logan Kilpatrick, Entwicklervertreter bei OpenAI, sprach in einem kürzlichen Thread auf X über dieses Thema, in dem er auf die Aussagen von Microsoft-Präsident Brad Smith reagierte, dass der gemeinnützige Status von OpenAI dessen Glaubwürdigkeit im Vergleich zu Meta, das im Besitz von Aktionären ist, steigere. Dies geschah trotz Berichten, dass OpenAI eine Bewertung von bis zu 90 Milliarden Dollar für bestehende Aktien anstrebt.
Smith bemerkte: „Meta gehört den Aktionären. OpenAI gehört einer gemeinnützigen Organisation. Wem würden Sie mehr Vertrauen für Ihre Technologie schenken?“ Kilpatrick führte Informationen von OpenAIs Webseite an, die die gemeinnützige und begrenzt gewinnbringende Struktur des Unternehmens erläutern. Laut dieser Struktur wird die gewinnorientierte Tochtergesellschaft, OpenAI Global, LLC, „vollständig kontrolliert“ von der gemeinnützigen Organisation und darf Gewinne erzielen, muss jedoch mit der Mission der gemeinnützigen Organisation übereinstimmen.
Trotz dieser Verflechtung drückte OpenAI-CEO Sam Altman gegenüber Microsoft-CEO Satya Nadella seine Begeisterung über die Partnerschaft zur Entwicklung von AGI aus. In einem Interview mit der Financial Times bemerkte Altman, dass die Zusammenarbeit „sehr gut funktioniert“ und erwartete weitere Investitionen von Microsoft, da erhebliche laufende Rechenressourcen für die Entwicklung von AGI erforderlich sind.
Von Anfang an hatte Microsoft zugestimmt, „die Technologien und die Governance von AGI der gemeinnützigen Organisation und der Menschheit zu überlassen.“ Ein Sprecher von OpenAI betonte, dass die Organisation sichere und nützliche AGI schaffen wolle, die von einem Gremium geleitet wird, das verschiedene Expertenperspektiven in seine Entscheidungsfindung einbezieht.
Derzeit umfasst der Vorstand den Vorsitzenden Greg Brockman, den Chef-Wissenschaftler Ilya Sutskever und CEO Sam Altman sowie nicht angestellte Mitglieder wie Adam D’Angelo, Tasha McCauley und Helen Toner, die alle Verbindungen zur Bewegung des effektiven Altruismus haben. OpenAI hat in der Vergangenheit aufgrund seiner Beziehungen in diesem Bereich, insbesondere nach Skandalen um prominente Persönlichkeiten wie Sam Bankman-Fried, Kritik auf sich gezogen.
Der Sprecher stellte klar, dass sich niemand der Vorstandsmitglieder als effektiver Altruist identifiziert, und betonte ihre Rolle als unabhängige Mitwirkende, die sich auf Sicherheit und Ethik im Zusammenhang mit KI konzentrieren.
Der Entscheidungsprozess um AGI wurde als „ungewöhnlich“ beschrieben. Rechtsexpertin Suzy Fulton erklärte, dass es zwar unkonventionell erscheinen mag, dass ein Vorstand solche Entscheidungen trifft, aber im Einklang mit der Pflicht der gemeinnützigen Organisation steht, das Wohlergehen der Menschheit über die Interessen von Aktionären zu stellen. Mit einer Mehrheit unabhängiger Vorstandsmitglieder strebt OpenAI eine Struktur an, die seine Mission priorisiert.
Rechtliche Perspektiven legen nahe, dass es zwar atypisch ist, dass der Vorstand über AGI entscheidet, dies jedoch rechtlich nicht prohibitiv ist, da der Vorstand verpflichtet ist, kritische, missionsbezogene Themen zu überwachen.
Dennoch bleibt Skepsis über den Zeitrahmen zur Erreichung von AGI. Einige argumentieren, dass der Fokus auf dieses Ziel von den unmittelbaren Auswirkungen aktueller KI-Technologien ablenken könnte. Experten wie Merve Hickok weisen auf einen möglichen Mangel an unterschiedlichen Standpunkten innerhalb von OpenAI hin und fordern Vorsicht hinsichtlich der Legitimität seiner AGI-Mission.
Die ambivalenten Definitionen von AGI durch OpenAI erschweren die Implikationen, während die Führungskräfte sich eine Zukunft vorstellen, in der mehrere AGIs coexistieren und verschiedene Perspektiven fördern.
Die Folgen von OpenAIs Streben nach AGI für Microsoft bleiben ungewiss, insbesondere angesichts ihrer Beziehungsstruktur. Der Rechtsexperte Anthony Casey bemerkte, dass potenzielle Konflikte aus OpenAIs dualen Strukturen entstehen könnten, und schlug vor, dass, wenn Gewinnmotivationen mit der Mission der gemeinnützigen Organisation in Konflikt geraten, dies zu erheblichen Streitigkeiten führen könnte.
Da Gewinnobergrenzen leichter umzusetzen sind als Konflikte von Interessen zu lösen, bleibt abzuwarten, wie diese einzigartige Struktur die komplexe Landschaft der AGI-Entwicklung und -Governance navigieren wird.