Der Gouverneur von Kalifornien, Gavin Newsom, hat kürzlich SB 1047, ein Gesetz, das erhebliche Auswirkungen auf die KI-Entwicklung im Bundesstaat und landesweit haben könnte, abgelehnt. Dieses Veto, das am Sonntag bekannt gegeben wurde, bietet KI-Unternehmen die Möglichkeit, ihren proaktiven Schutz der Nutzer vor KI-bezogenen Risiken zu demonstrieren.
SB 1047 zielte darauf ab, KI-Unternehmen zu verpflichten, einen „Kill Switch“ für ihre Modelle zu implementieren, formale Sicherheitsprotokolle zu entwickeln und einen externen Sicherheitsprüfer zu engagieren, bevor mit dem Training der Modelle begonnen werden kann. Außerdem sollte das Gesetz dem Generalstaatsanwalt von Kalifornien Zugang zu Prüfberichten gewähren und ihm die Befugnis geben, gegen KI-Entwickler zu klagen.
Einige Branchenexperten äußerten Bedenken, dass das Gesetz die KI-Entwicklung behindern könnte, und viele bedankten sich bei Newsom für das Veto. Sie argumentieren, dass dies die zukünftige Förderung der Open-Source-Entwicklung begünstigen würde. Yann Le Cun, Chef-Wissenschaftler für KI bei Meta und Kritiker von SB 1047, bezeichnete die Entscheidung auf X (ehemals Twitter) als „sinnvoll“.
Der prominente KI-Investor Marc Andreessen charakterisierte Newsoms Veto als ein Bekenntnis zu „kalifornischem Dynamismus, wirtschaftlichem Wachstum und der Freiheit zu rechnen.“ Andere Branchenführer äußerten ähnliche Ansichten und forderten Regelungen, die kleinere Entwickler und Modelle nicht behindern.
„Das Kernproblem sind nicht die KI-Modelle selbst, sondern ihre Anwendungen“, sagte Mike Capone, CEO von Qlik. Er betonte, dass der Fokus auf Kontext und Anwendungsfälle gelegt werden sollte, statt auf die Technologie selbst. Capone forderte regulatorische Rahmenbedingungen, um eine sichere und ethische Nutzung zu gewährleisten.
Andrew Ng, Mitgründer von Coursera, lobte das Veto ebenfalls als „innovationsfreundlich“ und argumentierte, dass es die Open-Source-Initiativen schütze.
Gegner des Vetos äußerten allerdings auch Bedenken. Dean Ball, Experte für KI- und Technologiepolitik am Mercatus Center der George Mason University, erklärte, das Veto sei für Kalifornien und Amerika entscheidend. Er wies darauf hin, dass die Schwellenwerte für Modellgrößen im Gesetzentwurf veraltet seien und neuere Modelle wie die von OpenAI nicht berücksichtigten.
Lav Varshney, Associate Professor an der University of Illinois, kritisierte das Gesetz, da es Originalentwickler für die nachgelagerte Nutzung ihrer Technologien bestraft. Er schlug ein Modell geteilter Verantwortung vor, das Innovation im Open-Source-Ansatz ermögliche.
Das Veto gibt KI-Entwicklern die Gelegenheit, ihre Sicherheitsrichtlinien und -praktiken zu verbessern. Kjell Carlsson, Leiter der KI-Strategie bei Domino Data Lab, forderte Unternehmen auf, KI-Risiken proaktiv anzugehen und starke Governance im gesamten KI-Lebenszyklus zu integrieren.
Navrina Singh, Gründerin der KI-Governance-Plattform Credo AI, wies auf die Notwendigkeit eines differenzierten Verständnisses der erforderlichen Regulierungen hin und plädierte dafür, Governance im Mittelpunkt von Innovationen zu platzieren, während Vertrauen und Transparenz im Markt gewahrt bleiben.
Nicht alle Reaktionen waren positiv. Technologie-Policy-Gruppen kritisierten das Veto, wobei Nicole Gill, Mitgründerin von Accountable Tech, behauptete, es begünstige Big Tech auf Kosten der öffentlichen Sicherheit. Sie argumentierte, das Veto festige den Status quo und ermögliche großen Unternehmen profitorientiertes Handeln ohne Haftung.
Das AI Policy Institute teilte diese Bedenken; Executive Director Daniel Colson bezeichnete die Entscheidung als „fehlgeleitet und rücksichtslos.“
Kalifornien, Heimat der Mehrheit der KI-Unternehmen des Landes, hat keine robusten Regelungen, die mit der öffentlichen Nachfrage nach Aufsicht übereinstimmen. Derzeit gibt es keine bundesweiten Vorgaben für generative KI, die nächstgelegene Regelung ist ein Exekutivbefehl von Präsident Biden. Dieser Befehl skizziert einen Rahmen für die Nutzung von KI durch Agenturen und ermutigt Unternehmen, Modelle freiwillig zur Bewertung einzureichen.
Die Biden-Administration zielt auch darauf ab, Open-Weight-Modelle auf potenzielle Risiken zu überwachen, was die laufenden Diskussionen über KI-Sicherheit und Regulierung unterstreicht.