Anthropic reagiert auf Musikverlage in der KI-Urheberrechtsklage und erhebt den Vorwurf 'freiwilligen Handelns'.

Anthropic, ein führendes Startup im Bereich generative KI, hat kürzlich auf die Urheberrechtsklagen einer Koalition von Musikverlegern, darunter Concord, Universal und ABKCO, gegen seinen Chatbot Claude (nun ersetzt durch Claude 2) reagiert. Im Herbst 2023 reichten diese Musikverleger eine Bundesklage in Tennessee ein, in der sie behaupten, Anthropic habe Songtexte unrechtmäßig aus dem Internet gesammelt, um seine KI-Modelle zu trainieren, was zur Reproduktion urheberrechtlich geschützter Texte in Chatbot-Interaktionen führte.

Als Reaktion auf einen Antrag auf einstweilige Verfügung, der Anthropic zwingen würde, die Verfügbarkeit von Claude einzustellen, wiederholte Anthropic Argumente, die auch in anderen Urheberrechtsstreitigkeiten im Bereich KI häufig vorkommen. Unternehmen wie Anthropic und OpenAI sind der Ansicht, dass die Nutzung öffentlich zugänglicher Daten, einschließlich urheberrechtlich geschützter Materialien, unter Fair Use fällt, einer rechtlichen Doktrin, die bald vor dem Obersten Gerichtshof getestet werden könnte.

Minimale Auswirkungen der Songtexte in den Trainingsdaten

Anthropic argumentiert, dass die Verwendung der Songtexte der Kläger „transformativ“ sei und den ursprünglichen Werken neuen Sinn und Charakter verleihe. In der Eingabe wird auf Forschungsdirektor Jared Kaplan verwiesen, der betont, dass es das Ziel sei, einen Datensatz zu erstellen, der ein neuronales Netzwerk im Umgang mit menschlicher Sprache schult. Das Unternehmen argumentiert weiter, dass die Einbeziehung der Songtexte einen „winzigen Bruchteil“ der gesamten Trainingsdaten ausmache, was es finanziell unpraktikabel mache, Lizenzen für den umfassenden Text zu erwerben, der zur Ausbildung von Modellen wie Claude erforderlich ist. Die umfassende Lizenzierung für Billionen von Datenfragmenten aus verschiedenen Genres sei für kein Unternehmen praktikabel.

Ein einzigartiger Aspekt von Anthropics Argumentation ist der Vorwurf, dass die Kläger „willentliche Handlungen“ vorgenommen haben, die eine direkte Haftung für Urheberrechtsverletzungen begründen. In diesem Zusammenhang schlägt Anthropic vor, dass die Musikverleger durch gezielte Bemühungen, Lyrics von Claude zu erzeugen, effektiv die Generierung angeblich verletzender Inhalte kontrollierten, wodurch die Verantwortung von Anthropic abgelenkt wurde.

Widerlegung irreparabler Schäden

Neben der Herausforderung der Urheberrechtshaftung argumentiert Anthropic, dass die Kläger nicht nachweisen können, dass irreparabler Schaden entstanden ist. Es gibt ihrer Ansicht nach nicht genügend Beweise für gesunkene Lizenzrevenuen seit dem Start von Claude. Die Verleger selbst glauben, dass eine finanzielle Entschädigung etwaige Schäden beheben könnte, was ihren Ansprüchen auf irreparablen Schaden widerspricht.

Anthropic hält den Antrag auf eine einstweilige Verfügung gegen seine KI-Modelle für ungerechtfertigt, da die Beweise für irreparable Schäden schwach sind. Das Unternehmen gibt an, dass alle zuvor generierten lyrischen Ausgaben ein unbeabsichtigter „Fehler“ waren, der mit neuen Schutzmaßnahmen behoben wurde, um zukünftige Vorfälle zu verhindern. Zudem wird argumentiert, dass die Anfrage der Kläger zu weit gefasst sei, da sie nicht nur die spezifischen 500 Werke, die im Fall zitiert werden, sondern auch Millionen zusätzlicher Werke unter ihrer Kontrolle einschränken wollen.

Anthropic bestreitet auch die Zuständigkeit des Gerichts und erklärt, dass die Klage nicht ordnungsgemäß in Tennessee eingereicht wurde, da sich ihre Betriebe in Kalifornien befinden und keine der angeblichen Aktivitäten in Tennessee stattfand. Ihre Nutzungsbedingungen sehen vor, dass Streitigkeiten vor kalifornischen Gerichten verhandelt werden.

Der laufende Urheberrechtskampf

Der Urheberrechtskonflikt im sich entwickelnden Sektor der generativen KI intensiviert sich. Zahlreiche Künstler haben Klagen gegen kreative generative Modelle wie Midjourney und OpenAIs DALL-E eingereicht, was zusätzliche Beweise für Urheberrechtsverletzungen liefert. Kürzlich reichte die New York Times ebenfalls Klage gegen OpenAI und Microsoft ein, weil sie Inhalte ohne Genehmigung zur Schulung von KI-Modellen verwendet hatten, und fordert Milliarden in Schadensersatz sowie die Zerstörung aller KI-Modelle, die ihr Material nutzen.

Als Reaktion auf diese Spannungen hat sich eine gemeinnützige Organisation namens "Fairly Trained" gegründet, die sich für eine zertifizierte Lizenzierung von Trainingsmaterialien für KI einsetzt, unterstützt von Musikverlegern wie Concord und Universal.

Darüber hinaus haben große Unternehmen wie Anthropic, Google und OpenAI rechtliche Schutzmaßnahmen für Unternehmen versprochen, die KI-generierte Inhalte nutzen. Während die Kreativen in ihren rechtlichen Auseinandersetzungen, einschließlich Sarah Silvermans Fall gegen OpenAI, fest entschlossen bleiben, müssen die Gerichte die Komplexität technologischer Fortschritte im Vergleich zu gesetzlichen Rechten navigieren.

Mit der zunehmenden regulatorischen Kontrolle über Datenbeschaffungspraktiken könnte der Ausgang laufender Klagen und Anhörungen im Kongress die zukünftigen Urheberrechtsschutzregelungen im Kontext generativer KI beeinflussen. Die nächsten Schritte bleiben ungewiss, doch Anthropics aktuelle Eingabe deutet darauf hin, dass generative KI-Unternehmen sich um spezifische Verteidigungen rund um Fair Use und schadensbasierte Argumente scharen. Bisher hat kein Urheberrechtskläger in solchen KI-Streitigkeiten erfolgreich eine einstweilige Verfügung erwirkt, und Anthropic strebt an, diesen Trend aufrechtzuerhalten, während sich dieses juristische Drama entfaltet.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles