Fruher in dieser Woche gaben Ilya Sutskever, Mitbegründer und ehemaliger Chef-Wissenschaftler, sowie Jan Leike, ein wichtiger Forscher, nahezu zeitgleich ihre Rücktritte von OpenAI bekannt. Diese Entwicklung ist bedeutsam, nicht nur aufgrund ihrer leitenden Positionen, sondern auch, weil sie das Superalignment-Team leiteten, das auf die Entwicklung von Systemen zur Steuerung superintelligenter KI-Modelle abzielte – Modelle, die die menschliche Intelligenz übertreffen.
Nach ihrem Ausscheiden berichten Medien, dass das Superalignment-Team von OpenAI aufgelöst wurde, wie in einem aktuellen Artikel von Wired hervorgehoben, wo meine Frau als Chefredakteurin tätig ist.
Heute äußerte Leike auf seinem persönlichen X-Konto seine Kritik an OpenAI und dessen Führung und warf ihnen vor, “glänzende Produkte” über Sicherheit zu stellen. In einem Beitrag erklärte er: “In den letzten Jahren haben Sicherheit und Prozesse hinter glänzenden Produkten zurückgesteckt.”
Leike, der Anfang 2021 zu OpenAI kam, gab zu, dass er mehrfach mit der Unternehmensführung, vermutlich mit CEO Sam Altman sowie den Führungskräften Greg Brockman und Mira Murati, aneinandergeraten sei. Er betonte: “Ich war mit der Führung von OpenAI über die Kernprioritäten des Unternehmens schon lange nicht einverstanden, bis wir schließlich einen Wendepunkt erreichten.”
Er hob die dringende Notwendigkeit hervor, wie man KI-Systeme steuern und kontrollieren kann, die erheblich intelligenter als Menschen sind.
Im Juli 2023 verpflichtete sich OpenAI, 20 % seiner Rechenressourcen – insbesondere seine leistungsstarken Nvidia-GPU-Cluster – dem Superalignment-Initiative zuzuweisen. Dieses Bestreben zielt darauf ab, künstliche allgemeine Intelligenz (AGI) verantwortlich zu entwickeln, definiert im Unternehmens-Statut als “hochgradig autonome Systeme, die Menschen bei den meisten wirtschaftlich wertvollen Arbeiten übertreffen.”
Trotz dieses Versprechens äußerte Leike Frustration: “Mein Team ist gegen den Wind gesegelt. Manchmal hatten wir Schwierigkeiten, Rechenkapazität zu bekommen, und es wurde immer schwieriger, entscheidende Forschungen durchzuführen.”
Als Antwort auf Leikes Thread zitierte Altman ihn und sprach seine Wertschätzung für Leikes Beiträge zur Ausrichtungsforschung und der Sicherheitskultur bei OpenAI aus. Er erkannte den Bedarf an weiterer Arbeit an und versprach, in den nächsten Tagen einen detaillierteren Beitrag zu veröffentlichen.
Diese Nachrichten werfen einen Schatten auf OpenAI, zeitgleich mit der kürzlichen Einführung des neuen GPT-4o multimodalen Grundmodells und der ChatGPT-Desktop-App für Mac, die am Montag angekündigt wurden. Dies stellt auch Herausforderungen für Microsoft, einen wichtigen Investor und Partner, dar, während sie sich auf die bevorstehende Build-Konferenz in der nächsten Woche vorbereiten.
Wir haben uns an OpenAI gewandt, um eine Stellungnahme zu Leikes Kommentaren zu erhalten und werden Updates bereitstellen, sobald sie vorliegen.