OpenAI wird 2025 ein Media Manager-Tool einführen, das Kreativen die Möglichkeit gibt, das Training von KI zu blockieren.

OpenAI hat heute mehrere bedeutende Updates angekündigt, darunter das mit Spannung erwartete "Media Manager", das 2025 gestartet werden soll. Dieses innovative Werkzeug gibt Kreativen die Möglichkeit, ihre Inhalte zu verwalten und festzulegen, welche Werke für das Training von KI genutzt werden dürfen und welche ausgeschlossen bleiben sollen.

Laut einem Blogbeitrag auf der Website von OpenAI ist der Media Manager darauf ausgelegt, „Kreativen und Rechteinhabern zu ermöglichen, zu identifizieren, was ihnen gehört, und zu bestimmen, wie ihre Werke in der Forschung zu maschinellem Lernen verwendet werden sollten. Wir planen, im Laufe der Zeit weitere Funktionen zu integrieren.“

Dieses bahnbrechende Tool wird fortschrittliche Forschung im Bereich des maschinellen Lernens nutzen, um urheberrechtlich geschützte Texte, Bilder, Audio und Videos auf verschiedenen Plattformen zu identifizieren und sicherzustellen, dass die Präferenzen der Kreativen respektiert werden. OpenAI arbeitet während der Entwicklung eng mit Kreativen, Rechteinhabern und Regulierungsbehörden zusammen, um bis 2025 Branchennormen festzulegen.

Preisinformationen sind bisher nicht verfügbar, jedoch wird erwartet, dass das Tool kostenlos sein wird, da sich OpenAI als ethischer Vorreiter in der KI-Entwicklung positioniert.

Warum Media Manager Unentbehrlich ist

Der Media Manager soll den Schutz der Kreativen vor unbefugtem Scraping von KI-Daten verbessern. Dadurch wird über die bisherige Methode, eine robots.txt-Datei zu konfigurieren („User-agent: GPTBot Disallow: /“), hinausgegangen, die OpenAI im August 2023 implementiert hat. Viele Kreative teilen ihre Arbeiten auf Plattformen, die sie nicht kontrollieren, wie DeviantArt und Patreon, was ihre Möglichkeiten zur Anpassung von Zugriffseinstellungen einschränkt. Darüber hinaus möchten einige möglicherweise nur bestimmte Werke vom Data Scraping ausschließen, und der Media Manager wird die erforderliche präzise Steuerung bieten.

OpenAI erkennt an, dass bestehende Lösungen unzureichend sind, da vielen Kreativen die Kontrolle über den Ort, an dem ihre Inhalte erscheinen, und die Art ihrer Nutzung im Internet fehlt. „Wir erkennen an, dass dies unvollständige Lösungen sind“, erklärt der Blog und unterstreicht die Notwendigkeit einer effizienteren Möglichkeit für Rechteinhaber, ihre Präferenzen hinsichtlich der Nutzung durch KI zu kommunizieren.

Reaktion auf die Kritik am AI-Daten-Scraping

Diese Initiative reagiert auf anhaltende Bedenken von visuellen Künstlern und Content-Schaffenden über AI-Unternehmen, einschließlich OpenAI, die Daten ohne Genehmigung oder Entschädigung scrapen. Zahlreiche Kreative haben Sammelklagen wegen Urheberrechtsverletzungen gegen diese KI-Firmen eingereicht.

OpenAI argumentiert, dass Web Crawling und Scraping historisch akzeptierte Praktiken im Internet sind und verweist auf die weit verbreitete Annahme des robots.txt-Standards, um Webcrawlern zu zeigen, worauf zugegriffen werden kann.

Dennoch stehen viele Künstler dem generativen KI-Training ihrer Werke kritisch gegenüber, da es direkt mit ihrem Lebensunterhalt konkurriert. OpenAI hat zudem einen Schadensersatz für zahlende Abonnenten eingeführt, die mit Urheberrechtsansprüchen konfrontiert sind, um Unternehmenskunden zu beruhigen.

Rechtlicher Kontext und zukünftige Auswirkungen

Der rechtliche Rahmen für das Scraping urheberrechtlich geschützten Materials durch KI entwickelt sich weiterhin. Unabhängig vom rechtlichen Ausgang scheint OpenAI jedoch darauf fokussiert zu sein, sich als ethisches Unternehmen gegenüber den Kreativen zu positionieren.

Viele Kreative könnten diese Bemühungen als unzureichend empfinden, da ihre Arbeiten möglicherweise bereits ohne Zustimmung zum Training von KI-Modellen verwendet wurden. OpenAI behauptet, keine umfassenden Kopien der gescrapten Daten zu speichern, sondern Modelle zu generieren, die auf Beziehungen und Prozessen basieren, die mit den Eingabedaten zusammenhängen.

Wie OpenAI erklärt: „Unsere KI-Modelle sind Lernmaschinen, keine Datenbanken. Sie sind darauf ausgelegt, neue Inhalte und Ideen zu schaffen und nicht, bestehende Inhalte zu replizieren. Wenn Modelle gelegentlich ausdrucksstarke Inhalte wiederholen, liegt das an den Einschränkungen des maschinellen Lernprozesses.“

Media Manager hat das Potenzial, eine benutzerfreundlichere Lösung zur Kontrolle des KI-Trainings im Vergleich zu bestehenden Methoden wie Glaze und Nightshade zu bieten. Doch ob Vertrauen in das Tool, insbesondere angesichts der Beteiligung von OpenAI, und seine Wirksamkeit gegenüber Konkurrenzmodellen gegeben sind, bleibt abzuwarten.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles