Das EU AI-Gesetz, das als wegweisende Gesetzgebung gilt, steht derzeit aufgrund von Streitigkeiten über die Regulierung von Basis-Modellen – großangelegten KI-Modellen wie GPT-4, Claude und Llama – vor Unsicherheiten.
Kürzlich drängten die Regierungen von Frankreich, Deutschland und Italien auf eine begrenzte Regulierung dieser Modelle, was viele auf erhebliches Lobbying von Big Tech und Open-Source-Unternehmen wie Mistral, beraten durch den ehemaligen französischen Digitalminister Cédric O, zurückführen. Kritiker befürchten, dass dieser Ansatz die Integrität des EU AI-Gesetzes gefährden könnte.
Befürworter einer strengeren Regulierung der Basis-Modelle haben entschieden reagiert. Eine Koalition aus deutschen und internationalen KI-Experten, darunter renommierte Forscher wie Geoffrey Hinton und Yoshua Bengio, veröffentlichte kürzlich einen offenen Brief, in dem die deutsche Regierung aufgefordert wird, diese Modelle nicht von dem EU AI-Gesetz auszunehmen. Sie warnen, dass eine solche Ausnahme die öffentliche Sicherheit gefährden und europäischen Unternehmen schaden würde.
Zusätzlich haben französische Experten in einer gemeinsamen Kolumne in Le Monde deutlichen Widerstand gegen die Versuche von Big Tech geäußert, diese entscheidende Gesetzgebung in den finalen Phasen zu verwässern.
Warum stößt das EU AI-Gesetz in dieser fortgeschrittenen Phase auf Widerstand? Über zweieinhalb Jahre nach der ersten Entwurfspräsentation und nach umfangreichen Verhandlungen befindet sich das Gesetz nun in der Trilog-Phase, in der die EU-Gesetzgeber die Details des Gesetzentwurfs abschließen. Die Europäische Kommission hofft, das AI-Gesetz bis Ende 2023, vor den Wahlen zum Europäischen Parlament 2024, zu verabschieden.
Die aktuellen Turbulenzen bei OpenAI bieten Einblicke in die internen Dynamiken, die diese Diskussionen beeinflussen. Nach einem dramatischen Umbruch im Vorstand, bei dem CEO Sam Altman kurzzeitig entlassen wurde, spiegelten die unterschiedlichen Sichtweisen innerhalb der Organisation die breitere Debatte über die KI-Regulierung in der EU wider. Einige Vorstandsmitglieder legten den Fokus auf kommerzielle Chancen und die Entwicklung von künstlicher allgemeiner Intelligenz (AGI), während andere große Bedenken hinsichtlich der Sicherheitsimplikationen von Hochrisikotechnologien äußerten.
Die vorsichtigen Vorstandsmitglieder standen in Verbindung mit der Effektiven Altruismus-Bewegung, die ebenfalls maßgeblichen Einfluss auf das Lobbying rund um das EU AI-Gesetz hatte. Berichten zufolge hat diese Gemeinschaft erhebliche Ressourcen eingesetzt, um auf die existenziellen Risiken von KI aufmerksam zu machen.
Im Gegensatz dazu hat Big Tech, einschließlich OpenAI, aktiv gegen strenge Vorschriften lobbyiert. Sam Altman plädierte zwar öffentlich für eine globale KI-Governance, versuchte jedoch gleichzeitig, bestimmte Bestimmungen der vorgeschlagenen EU-Regulierungen zu schwächen, um die Compliance-Anforderungen für sein Unternehmen zu reduzieren.
Gary Marcus hebt diese Entwicklungen hervor und argumentiert, dass das Chaos bei OpenAI die Notwendigkeit strenger Aufsicht betont, anstatt Big Tech die Selbstregulierung zu überlassen. Er unterstützt den gestaffelten Ansatz des Europäischen Parlaments und erklärt, dass eine Reduzierung wesentlicher Komponenten des EU AI-Gesetzes auf eine Selbstregulierungsübung katastrophale globale Folgen haben könnte.
Brando Benifei, ein führender Verhandlungsführer des Europäischen Parlaments, bringt diese Sichtweise zum Ausdruck, indem er feststellt, dass die Unberechenbarkeit von Altmans Handlungen die Gefahren zeigt, die mit einer Abhängigkeit von freiwilligen Branchenvereinbarungen verbunden sind.
Ist das EU AI-Gesetz tatsächlich in Gefahr? Laut dem deutschen Berater Benedikt Kohn sind die laufenden Verhandlungen entscheidend, wobei der nächste Trilog für den 6. Dezember geplant ist. Er warnt, dass ein Scheitern der Gespräche die Ambitionen der EU als globalen Führer in der KI-Regulierung erheblich untergraben könnte.