Angesichts wachsender Bedenken bezüglich der Sicherheit fortschrittlicher KI-Systeme hat OpenAI-CEO Sam Altman angekündigt, dass das nächste große generative KI-Modell des Unternehmens vor seiner Veröffentlichung Sicherheitsüberprüfungen durch die US-Regierung durchlaufen wird. In einem Beitrag auf X teilte Altman mit, dass OpenAI mit dem US AI Safety Institute – einer Bundesbehörde – an einer Vereinbarung zusammenarbeitet, die frühzeitigen Zugang zu seinem neuen Fundamentmodell gewährt. Diese Partnerschaft zielt darauf ab, die Wissenschaft der KI-Bewertung voranzutreiben und robuste Sicherheitsmaßnahmen sicherzustellen.
OpenAIs Engagement für Sicherheit
Altman betonte, dass OpenAI seine Anti-Diskriminierungsrichtlinien überarbeitet hat, um aktuellen und ehemaligen Mitarbeitern die Möglichkeit zu geben, Bedenken hinsichtlich der Unternehmenspraktiken offen zu äußern. Darüber hinaus verpflichtet sich das Unternehmen, mindestens 20 % seiner Rechenressourcen für Sicherheitsforschung zu verwenden.
Bedenken von US-Senatoren
Da OpenAI mit Produkten wie ChatGPT und dem neu eingeführten SearchGPT an der Spitze der KI-Industrie steht, hat die schnelle Entwicklungsstrategie des Unternehmens Kontroversen ausgelöst. Kritiker, darunter ehemalige Sicherheitsverantwortliche, werfen dem Unternehmen vor, die Sicherheit zugunsten schneller Fortschritte zu vernachlässigen. In Reaktion auf diese Bedenken schrieben fünf US-Senatoren kürzlich an Altman und hinterfragten OpenAIs Engagement für Sicherheit sowie Vorwürfe der Vergeltungsmaßnahmen gegen ehemalige Mitarbeiter, die durch die Anti-Diskriminierungsvereinbarung Alarm geschlagen hatten. Die Senatoren äußerten, dass die anhaltenden Sicherheitsbedenken scheinbar im Widerspruch zu OpenAIs erklärtem Engagement für verantwortungsvolle KI-Entwicklung stehen.
Antwort der OpenAI-Führung
Laut Bloomberg antwortete Jason Kwon, der Chief Strategy Officer von OpenAI, und bekräftigte die Unternehmensmission, KI zum Wohl der Menschheit zu entwickeln. Er hob OpenAIs Engagement hervor, strenge Sicherheitsmaßnahmen in allen Prozessen umzusetzen und Transparenz gegenüber den Mitarbeitern zu gewährleisten. Kwon wiederholte die Pläne, 20 % der Rechenleistung für Sicherheitsforschung bereitzustellen, Anti-Diskriminierungsklauseln aufzuheben, um offenen Dialog zu fördern, und mit dem AI Safety Institute an sicheren Modellveröffentlichungen zu arbeiten. Altman bekräftigte dieses Engagement auf X, ohne jedoch spezifische Details zur Zusammenarbeit mit dem AI Safety Institute zu nennen.
Zusammenarbeit für sichere KI
Das AI Safety Institute, Teil des National Institute of Standards and Technology (NIST), wurde während des UK AI Safety Summit gegründet, um die potenziellen Risiken fortschrittlicher KI, einschließlich nationaler Sicherheits- und öffentlicher Sicherheitsfragen, anzugehen. Es arbeitet mit über 100 Technologieunternehmen, darunter Meta, Apple, Amazon, Google und OpenAI, zusammen, um die Sicherheit in der KI-Entwicklung zu fördern. Wichtig ist, dass OpenAI nicht nur mit der US-Regierung zusammenarbeitet, sondern auch eine ähnliche Sicherheitsüberprüfung mit der britischen Regierung etabliert hat.
Sicherheitsbedenken eskalieren
Die Sicherheitsbedenken nahmen im Mai zu, als Ilya Sutskever und Jan Leike, die Co-Leiter des Superalignment-Teams von OpenAI, das auf die Entwicklung von Sicherheitssystemen für superintelligente KI fokussiert ist, abrupt zurücktraten. Leike kritisierte öffentlich das Unternehmen dafür, auffällige Produkte über wesentliche Sicherheitsmaßnahmen zu stellen. Nach ihren Abgängen gab es Berichte über die Auflösung des Superalignment-Teams. Trotz dieser Rückschläge hat OpenAI weiterhin Produkte veröffentlicht und sein Engagement für Sicherheit durch interne Forschung und die Bildung eines neuen Sicherheits- und Sicherheitsausschusses verstärkt. Dieser Ausschuss, geleitet von Bret Taylor (Vorsitzender des OpenAI-Vorstands), umfasst namhafte Mitglieder wie Adam D’Angelo (CEO von Quora), Nicole Seligman (ehemalige General Counsel von Sony Global) und Sam Altman.
Durch diese Bemühungen beabsichtigt OpenAI, die kritischen Sicherheitsbedenken im Zusammenhang mit fortschrittlichen KI-Technologien anzugehen und ein Gleichgewicht zwischen Innovation und verantwortungsvoller Entwicklung zu schaffen.