OpenAI sieht sich Kritik wegen seiner Haltung zu den vorgeschlagenen AI-Sicherheitsgesetzen ausgesetzt.

Ehemalige OpenAI-Mitarbeiter William Saunders und Daniel Kokotajlo haben einen Brief an den Gouverneur von Kalifornien, Gavin Newsom, verfasst, in dem sie ihre Enttäuschung über die Position des Unternehmens gegen einen Gesetzentwurf zum Ausdruck bringen, der strenge Sicherheitsrichtlinien für die zukünftige Entwicklung von KI einführen soll. Sie schrieben: „Wir sind zu OpenAI gekommen, um die Sicherheit der leistungsstarken KI-Systeme zu fördern, die es entwickelt. Wir haben jedoch gekündigt, weil wir das Vertrauen in das Engagement des Unternehmens für eine sichere, ehrliche und verantwortungsvolle Entwicklung dieser Technologien verloren haben.“

Die ehemaligen Mitarbeiter betonen, dass die Weiterentwicklung von KI ohne angemessene Sicherheitsvorkehrungen „voraussehbare Risiken katastrophalen Schadens für die Öffentlichkeit“ mit sich bringt, die sich in „beispiellosen Cyberangriffen oder sogar der Schaffung biologischer Waffen“ äußern könnten. Zudem kritisieren sie CEO Sam Altman wegen seiner widersprüchlichen Ansichten zur Regulierung. Obwohl er kürzlich vor dem Kongress für eine Regulierung der KI plädierte, widersprechen sie, dass er tatsächliche Regelungen ablehnt, sobald sie zur Diskussion stehen. Eine Umfrage von MITRE und Harris Poll aus dem Jahr 2023 zeigt besorgniserregende Ergebnisse: Nur 39 % der Teilnehmer halten die aktuelle KI-Technologie für „sicher und geschützt“.

Das betreffende Gesetz, SB-1047, bekannt als das Safe and Secure Innovation for Frontier Artificial Models Act, verlangt von Entwicklern die Einhaltung strenger Standards, bevor ein entsprechendes Modell trainiert wird. Dazu gehört die Möglichkeit, einen vollständigen Stopp einzuleiten, sowie die Etablierung eines umfassenden Sicherheits- und Schutzprotokolls. OpenAI hatte in den letzten Jahren mehrfach mit Datenverletzungen und Systemeingriffen zu kämpfen.

OpenAI hat in Reaktion auf den Brief erklärt, dass man die „falsche Darstellung unserer Position zu SB-1047“ vehement ablehne. Das Unternehmen argumentiert, dass „eine kohärente bundesweite KI-Politik, anstelle eines fragmentierten Ansatzes unterschiedlicher Landesgesetze, Innovationen fördert und den USA ermöglicht, globale Standards zu setzen“, so Chief Strategy Officer Jason Kwon in einem Schreiben an den kalifornischen Senator Scott Wiener.

Saunders und Kokotajlo entgegnen, dass die Befürwortung von Bundesregulierungen durch OpenAI nicht aufrichtig sei. „Wir können es uns nicht leisten, auf das Handeln des Kongresses zu warten – sie haben klar gemacht, dass sie nicht bereit sind, bedeutende KI-Regulierungen umzusetzen“, schrieben sie. „Wenn der Kongress schließlich handelt, könnte dies Kaliforniens legislative Bemühungen zunichte machen.“

Bemerkenswert ist, dass der Gesetzentwurf Unterstützung von einem unerwarteten Fürsprecher erhalten hat: xAI-CEO Elon Musk. Auf X erklärte er: „Dies ist eine schwierige Entscheidung und könnte einige verärgern, aber letztendlich glaube ich, dass Kalifornien das SB-1047-Gesetz zur KI-Sicherheit verabschieden sollte. Ich bin seit über 20 Jahren ein Befürworter der KI-Regulierung, genau wie wir jede Technologie regulieren, die potenzielle Risiken birgt.“ Musk, der kürzlich Pläne für „das leistungsfähigste KI-Training in der Welt“ in Memphis, Tennessee, angekündigt hat, hatte zuvor in Erwägung gezogen, die Hauptsitze seiner Unternehmen X (ehemals Twitter) und SpaceX nach Texas zu verlegen, um der regulatorischen Umgebung in Kalifornien zu entkommen.

Most people like

Find AI tools in YBX