OpenAI hat den Start der Trainings für sein neuestes „Frontier Model“ angekündigt und ein neues Sicherheits- und Kompetenzgremium gebildet. Dieses Komitee wird von dem Vorstandsmitglied Bret Taylor geleitet und umfasst weitere prominente Mitglieder: Adam D’Angelo, Nicole Seligman und Sam Altman, den aktuellen CEO von OpenAI.
In einem aktuellen Blogbeitrag erklärte OpenAI:
„OpenAI hat kürzlich mit dem Training seines nächsten Frontier Models begonnen, um unsere Fähigkeiten auf dem Weg zur Künstlichen Allgemeinintelligenz (AGI) zu verbessern. Während wir stolz darauf sind, branchenführende Modelle in Bezug auf Leistung und Sicherheit bereitzustellen, fördern wir offene Diskussionen an diesem entscheidenden Punkt.“
90-Tage-Countdown Beginnt
OpenAI hat die sofortigen Aufgaben des Komitees umrissen:
„Die erste Aufgabe des Sicherheits- und Kompetenzgremiums wird darin bestehen, OpenAIs Prozesse und Schutzmaßnahmen innerhalb der nächsten 90 Tage zu überprüfen und zu verfeinern. Am Ende dieses Zeitraums wird das Gremium seine Empfehlungen dem gesamten Vorstand präsentieren. Anschließend wird OpenAI die angenommenen Empfehlungen gemäß den Sicherheits- und Schutzprotokollen öffentlich kommunizieren.“
Dies deutet darauf hin, dass das neue Frontier Model—möglicherweise GPT-5 genannt—nicht vor mindestens 90 Tagen veröffentlicht wird, sodass dem Komitee ausreichend Zeit bleibt, bestehende Prozesse und Schutzmaßnahmen zu evaluieren. Der Vorstand wird voraussichtlich diese Empfehlungen bis zum 26. August 2024 erhalten.
Warum 90 Tage?
Obwohl OpenAI keine spezifischen Gründe für diesen Zeitrahmen angegeben hat, gilt eine Frist von 90 Tagen als gängige Geschäftspraxis zur Evaluation und Feedback-Schaffung, die einen ausgewogenen Zeitraum bietet, der weder zu kurz noch übermäßig lang ist.
Bedenken hinsichtlich der Unabhängigkeit des Komitees
Die Bildung dieses neuen Komitees hat Kritiker auf den Plan gerufen, da seine Mitglieder hauptsächlich Führungskräfte von OpenAI sind, was Bedenken hinsichtlich der Unabhängigkeit der Sicherheitsbewertungen aufwirft.
Die Zusammensetzung des Vorstands von OpenAI war historisch umstritten. In einem überraschenden Schritt entließ der Vorstand der gemeinnützigen Holdinggesellschaft am 17. November 2023 Altman, mit der Begründung, er sei „nicht durchgängig offen“ gewesen. Dies führte zu erheblichem Mitarbeiter-Protest und Kritik von wichtigen Investoren, darunter Microsoft, die Altman vier Tage später wieder einsetzten. Der vorherige Vorstand sah sich Kritik für seine ausschließlich männliche Besetzung ausgesetzt und wurde anschließend umstrukturiert.
Am 8. März dieses Jahres wurden neue Mitglieder in den Vorstand aufgenommen, darunter Sue Desmond-Hellmann und Fidji Simo, im Rahmen von Bemühungen, die Führung diverser zu gestalten.
Herausforderungen und Chancen für OpenAI
OpenAI hat kürzlich sein neuestes KI-Modell, GPT-4o, veröffentlicht, sieht sich jedoch nach dieser Veröffentlichung kritischen Stimmen gegenüber. Die Schauspielerin Scarlett Johansson verurteilte das Unternehmen öffentlich, da es angeblich eine KI-Stimme verwendet hatte, die ihrer ähnelte und mit ihrer Rolle im Film „Her“ in Verbindung gebracht wurde. OpenAI stellte klar, dass die betreffende Stimme unabhängig in Auftrag gegeben wurde und nicht dazu gedacht war, Johansson zu imitieren.
Darüber hinaus hat der Rücktritt des Chief Scientist Ilya Sutskever und des Co-Leiters des Superalignment-Teams Besorgnis ausgelöst, da letzterer einen besorgniserregenden Trend zum Priorisieren „glänzender Produkte“ über Sicherheit hervorhob. Das Superalignment-Team wurde letztendlich aufgelöst.
Trotz dieser Herausforderungen hat OpenAI erfolgreich neue Partnerschaften in den Mainstream-Medien für seine Trainingsdaten geschlossen und Interesse an seinem Sora-Videogenerierungsmodell geweckt, was die Aufmerksamkeit der Unterhaltungsindustrie erregte, die KI zur Effizienzsteigerung in der Produktion nutzen möchte.
Während OpenAI durch diese turbulenten Zeiten navigiert, wird die Effektivität des neuen Sicherheits- und Kompetenzgremiums entscheidend sein, um die Bedenken der Interessengruppen, insbesondere unter Aufsichtsbehörden und potenziellen Geschäftspartnern, vor der bevorstehenden Modelleinführung zu adressieren.