Generative KI und die Debatte über Sprache: Rechtliche Perspektiven und Risiken
Generative KI wird zunehmend ausgeklügelt und produziert Inhalte, die ausdrucksstark, informativ und oft überzeugend sind. Juristische Experten in den USA vertreten kontrovers die Meinung, dass Ausgaben von großen Sprachmodellen (LLMs) durch den First Amendment geschützt sein könnten. Dieser Schutz könnte sogar auf potenziell schädliche Inhalte ausgeweitet werden, was diese Ausgaben der staatlichen Kontrolle entziehen würde.
Der Ruf nach Regulierung
Peter Salib, Assistenzprofessor für Rechtswissenschaften am University of Houston Law Center, argumentiert, dass eine effektive Regulierung entscheidend ist, um katastrophale Folgen von KI-generierten Inhalten zu vermeiden. Seine Erkenntnisse werden im kommenden Washington University School of Law Review veröffentlicht. „Geschützte Rede ist eine sakrosankte verfassungsrechtliche Kategorie“, erklärt Salib und hebt die Bedenken hervor, die entstehen, wenn Ausgaben fortschrittlicher Modelle wie GPT-5 als geschützt eingestuft werden. Ein solches Szenario könnte unsere Fähigkeit, diese Technologien zu regulieren, erheblich beeinträchtigen.
Argumente, die KI als geschützte Rede unterstützen
Vor einem Jahr behauptete der Jurjournalist Benjamin Wittes, dass wir Maschinen wie ChatGPT „First Amendment-Rechte“ zugesprochen haben könnten. Er argumentierte, dass diese KI-Systeme „unbestreitbar ausdrucksvoll“ sind und redeähnliche Inhalte durch die Erzeugung von Texten, Bildern und Dialogen produzieren. Wittes stellte fest, dass, obwohl KI-Inhalte derivative Wesen haben mögen, der First Amendment den Ausdruck und nicht die Originalität schützt. Salib fügt hinzu, dass viele Forscher beginnen zu erkennen, dass die Ausgaben von KI der menschlichen Sprache ausreichend ähnlich sind, um einen Schutz zu rechtfertigen.
Einige behaupten, dass diese Ausgaben die geschützte Rede der menschlichen Programmierer darstellen, während andere argumentieren, sie gehörten den Unternehmensinhabern der KI-Systeme wie ChatGPT. Salib jedoch kontert: „KI-Ausgaben sind keine Kommunikationsmittel eines Sprechers mit First Amendment-Rechten; sie sind keine menschlichen Ausdrücke.“
Aufkommende Risiken der KI-Ausgaben
Die Fortschritte in der KI-Technologie sind rasant und führen zu erheblich leistungsfähigeren Systemen, die autonom und unberechenbar eingesetzt werden. Salib, Berater des Center for AI Safety, warnt, dass generative KI erhebliche Risiken bergen könnte, einschließlich der Synthese tödlicher Chemiewaffen und Angriffe auf kritische Infrastrukturen. „Es gibt starke empirische Beweise dafür, dass generative KI-Systeme in naher Zukunft erhebliche Risiken für das menschliche Leben darstellen werden“, sagt er und sieht potenzielle Szenarien wie Bioterrorismus und automatisierte politische Morde voraus.
KI: Sprache, aber keine menschliche Sprache
Weltweit beginnen Führungspersönlichkeiten, Vorschriften zu erlassen, die sichere und ethische KI-Operationen gewährleisten sollen. Diese Gesetze könnten verlangen, dass KI-Systeme von der Erzeugung schädlicher Inhalte absehen, was wie eine Zensur der Rede erscheine. Salib weist darauf hin, dass, falls KI-Ausgaben geschützte Rede darstellen, jede Regulierung strengen verfassungsrechtlichen Prüfungen unterzogen würde und nur in Fällen einer unmittelbaren Bedrohung zulässig wäre. Er betont den Unterschied zwischen KI-Ausgaben und menschlicher Sprache. Während traditionelle Software oft die menschliche Absicht widerspiegelt, zielt generative KI darauf ab, beliebige Inhalte zu produzieren, ohne einen spezifischen kommunikativen Anspruch.
Rechte der Unternehmensrede und Regulierung
Unternehmen, obwohl nicht menschlich, verfügen über derivative Rederechte. Salib argumentiert, dass die Rechte der Unternehmen von denen der menschlichen Schöpfer abhängen. Wenn die Ausgaben von LLMs nicht als geschützte Rede gelten, wäre es unlogisch, wenn sie bei der Verbreitung durch Unternehmen Schutz erlangten. Um Risiken effektiv zu mindern, plädiert Salib für eine Regulierung der KI-Ausgaben anstelle von Einschränkungen der generativen Prozesse der Systeme. Aktuelle LLMs können aufgrund ihrer Komplexität und Unvorhersehbarkeit nicht vollständig kontrolliert oder so programmiert werden, dass schädliche Ausgaben vermieden werden.
Erfolgreiche Vorschriften sollten sich auf die Art der KI-Ausgaben konzentrieren – die Bestimmung, ob der Inhalt eines Modells sicher genug für die Veröffentlichung ist. Dieser Ansatz würde KI-Unternehmen anreizen, Sicherheit in der Entwicklung zu priorisieren. Letztendlich betont Salib, dass „Gesetze so gestaltet werden müssen, dass Menschen nicht getäuscht oder geschädigt werden“, was die dringende Notwendigkeit sorgfältiger gesetzgeberischer Maßnahmen angesichts der fortschreitenden KI-Fähigkeiten verdeutlicht.