Regierungen weltweit prüfen intensiv Maßnahmen, um die Risiken im Zusammenhang mit Künstlicher Intelligenz (KI) zu mindern, doch die Skepsis über die Umsetzbarkeit effektiver Kontrollen bleibt unter Experten bestehen. Der jüngste AI Safety Summit im Vereinigten Königreich brachte Führungskräfte aus den USA, China, der Europäischen Union, Großbritannien und 25 anderen Ländern zusammen, um einen einheitlichen Ansatz zur Bekämpfung von Problemen wie Fehlinformationen sowie absichtlichen und unabsichtlichen Schäden zu entwickeln.
Die ehrgeizigen Ziele dieser Konferenz könnten jedoch nicht ganz realistisch sein. „KI umfasst ein breites Spektrum an Technologien, von Expertensystemen über traditionelles maschinelles Lernen bis hin zu generativer KI“, erklärte Kjell Carlsson, Leiter der Datenwissenschaftsstrategie bei Domino Data Lab. „Diese Vielfalt erschwert die Schaffung von Vorschriften, die all diese Technologien und ihre zahlreichen Anwendungen angemessen regeln können.“
Drang nach Sicherheit
Während des Gipfels betonten die Entscheidungsträger die dringende Notwendigkeit fortlaufender KI-Forschung, die sich auf Sicherheit konzentriert, wie in der Bletchley-Erklärung festgehalten. Diese gemeinsame Haltung entsteht vor dem Hintergrund alarmierender Warnungen von prominenten Persönlichkeiten bezüglich der potenziellen Risiken von KI, die von existenziellen Bedrohungen bis hin zu erheblichen Arbeitsplatzverlusten reichen. Einige Experten argumentieren jedoch, dass solche Weltuntergangsprognosen übertrieben oder sensationalisiert sind. „Die KI-Profetie wird schnell ununterscheidbar von einer apokalyptischen Religion“, bemerkte Yann LeCun, Chief AI Scientist von Meta, auf X (ehemals Twitter).
Die Bletchley-Erklärung proklamierte, dass „Künstliche Intelligenz (KI) enorme globale Chancen bietet: Sie hat das Potenzial, das menschliche Wohlbefinden, Frieden und Wohlstand zu transformieren und zu fördern.“ Die Erklärung hebt die Bedeutung eines menschenzentrierten, vertrauenswürdigen und verantwortungsvollen Ansatzes bei der Gestaltung und Implementierung von KI-Technologien hervor und fordert internationale Zusammenarbeit zur Identifizierung und zum Verständnis von KI-Risiken auf der Grundlage wissenschaftlicher Erkenntnisse.
„Viele Risiken, die aus KI entstehen, sind von Natur aus international und sollten daher am besten durch internationale Zusammenarbeit angegangen werden“, fügte die Erklärung hinzu und betonte die gemeinsame Verantwortung der Nationen.
Einzelne Maßnahmen und Skepsis
In Reaktion auf diese globalen Bemühungen ergreifen auch einzelne Regierungen Maßnahmen zur Regulierung von KI. Vor dem Gipfel gab Präsident Biden eine Executive Order heraus, die auf eine Zusammenarbeit zwischen Regierungsbehörden, Unternehmen und der Wissenschaft abzielt, um die verantwortungsvolle Entwicklung von KI zu fördern und dabei Arbeitsplätze sowie den Datenschutz zu wahren. „Meine Verwaltung kann – und wird – die Nutzung von KI, um diejenigen zu benachteiligen, die bereits oft benachteiligt werden, nicht tolerieren“, bekräftigte Biden.
Experten wie Milan Kordestani, ein Spezialist für KI-Regulierung, äußern jedoch Bedenken, dass die aktuellen Vorschläge die damit verbundenen Risiken nicht ausreichend adressieren. Er kritisierte die vage Natur von Bidens Executive Order, die Bundesbehörden anweist, KI-Schutzmaßnahmen umzusetzen, ohne spezifische Maßnahmen zu benennen. „Die vorgeschlagenen Vorschriften verhindern nicht, dass der private Sektor handelt, und übersehen, wie Einzelpersonen mit KI-Technologien interagieren werden“, argumentierte er. Kordestani betonte zudem die Notwendigkeit von Vorschriften, die die wissenschaftliche Gemeinschaft in Diskussionen über KI-Risiken einbeziehen.
Kordestani ist der Ansicht, dass effektive KI-Regulierung über die Technologie selbst hinausgehen sollte. Sie sollte auch die breiteren gesellschaftlichen Auswirkungen berücksichtigen, einschließlich Veränderungen in der Arbeitsdynamik, den Verteilungsnetzen und den kognitiven Prozessen. „Gesetzgeber der späten 1980er Jahre konnten nicht vorhersagen, wie notwendig die Regulierung von Fehlinformationen in sozialen Medien sein würde. Ähnlich muss sich die KI-Regulierung dynamisch weiterentwickeln, um aufkommende Risiken kontinuierlich zu adressieren“, sagte er.
Globale Herausforderungen und ethische Bedenken
Die Herausforderung, KI zu regulieren, wird durch ihre globale Reichweite verdeutlicht. Richard Gardner, CEO von Modulus, verglich die Regulierung von KI mit der Kontrolle von Atomwaffen. „Die Regulierung von KI innerhalb nationaler Grenzen ist komplex, da aversive Nationen die Entwicklung trotz internationaler Abkommen fortsetzen könnten“, bemerkte er. Die Möglichkeit, dass böswillige Entwickler unregulierte KI-Produkte schaffen, erschwert die Situation zusätzlich.
Bei Fragen zu urheberrechtlich geschütztem Material setzt Gardner auf den Einsatz von robots.txt-Dateien – gängige Protokolle, die Suchmaschinen-Bots anweisen, wie sie Websites durchsuchen sollen –, um das Training und die Nutzung von Daten durch KI zu regeln und sicherzustellen, dass geschützte Materialien ausgeschlossen werden. „Wir müssen Innovatoren die Freiheit geben, Forschung und Entwicklung voranzutreiben“, betonte er und warnte vor übermäßigen Regulierungsmethoden, die Innovationen behindern könnten.
Ethische Standards für KI zu definieren, ist eine Herausforderung. Aktuelle Menschenrechtsgesetze können die Grundlage für die Auseinandersetzung mit KI-Initiativen bilden, aber es besteht dringender Bedarf an präzisen Vorschriften, die diese Rechte in umsetzbare Richtlinien übersetzen. Rob van der Veer, ein Experte für KI und Anwendungssicherheit, wies darauf hin: „Bestehende Datenschutzvorschriften setzen Grenzen für die Zwecke von KI-Systemen, die persönliche Daten nutzen, aber Sicherheitsvorschriften übersehen oft die neuen Verwundbarkeiten, die durch KI-Engineering entstehen.“
Anpassung an eine sich entwickelnde Landschaft
Angesichts des rasanten Fortschritts der KI-Technologie muss Regulierung ein kontinuierlicher Prozess sein, begleitet von laufenden Bewertungen neuer Entwicklungen. Kordestani schlägt vor, dass dies neue Gesetze oder internationale Verträge umfassen könnte, die sich an innovative Trainingsmethoden und Anwendungen anpassen. Regierungen müssen in Zusammenarbeit mit Unternehmen ein Gleichgewicht zwischen der Notwendigkeit von Innovation und der Sicherheit in der KI-Entwicklung finden.
Darüber hinaus ist es entscheidend, Akademiker in diesen Diskurs einzubeziehen, um die öffentliche Sicherheit aus moralischer und ethischer Perspektive zu gewährleisten und Gespräche über gerechten Zugang, Datenethik und soziale Vorurteile zu fördern. Das ultimative Ziel ist es, die Bürger vor potenziellen Bedrohungen durch KI in verschiedenen Aspekten des täglichen Lebens zu schützen.
Kordestani warnt davor, dass böswillige Akteure KI für schädliche Zwecke ausnutzen könnten, was die Notwendigkeit robuster internationaler Vorschriften unterstreicht. „Die Etablierung eines Multi-Stakeholder-Ansatzes, der den öffentlichen, privaten und akademischen Sektor einbezieht, ist entscheidend, um gegenwärtige und aufkommende Bedrohungen zu adressieren“, beharrte er.
Carlsson spricht sich für einen gezielten Regulierungsansatz aus, der sich auf spezifische Anwendungsfälle konzentriert, anstatt pauschale Vorschriften für alle KI-Technologien zu erlassen. So kann es vorteilhafter sein, den Missbrauch von Deepfakes für Betrug zu behandeln, anstatt umfassende Mandate für Wasserzeichen auf Ausgaben generativer KI zu fordern.
Während die Regulierung zwangsläufig hinter den neuesten Entwicklungen in der KI zurückbleiben wird, ist es wichtig, ein responsive Rahmenwerk zu schaffen, das sich gemeinsam mit der Technologie weiterentwickelt und sicherstellt, dass menschliche Überlegungen im Vordergrund der KI-Innovation und ihrer Integration in die Gesellschaft stehen.