Experten fordern rechtlichen „Safe Harbor“, um Forschern, Journalisten und Künstlern die Bewertung von KI-Technologien zu ermöglichen.

Ein aktuelles Papier von 23 KI-Forschern, Akademikern und Kreativen betont die Notwendigkeit von rechtlichen und technischen „Schutzhäfen“, um unabhängige Bewertungen von KI-Produkten zu ermöglichen. Dieser Schutz ist entscheidend für Forscher, Journalisten und Künstler, die im „guten Glauben“ Untersuchungen zu diesen Technologien anstellen.

Das Dokument weist auf eine erhebliche Hürde hin: Die Nutzungsbedingungen führender KI-Anbieter—darunter OpenAI, Google, Anthropic, Inflection, Meta und Midjourney—verhindern oft rechtlich die Forschung zu KI-Schwachstellen. Die Autoren fordern diese Unternehmen auf, öffentliche Forschungsinteressen im Bereich KI zu unterstützen, indem sie Entschädigungen gegen Kontosperrungen und rechtliche Konsequenzen anbieten.

„Obwohl diese Bedingungen dazu gedacht sind, schädliche Nutzung zu verhindern, behindern sie versehentlich die Forschung zur KI-Sicherheit“, heißt es in einem begleitenden Blogbeitrag. Unternehmen könnten diese Richtlinien strenger durchsetzen, was grundlegende Forschung beeinträchtigen könnte.

Die Mitautoren Shayne Longpre vom MIT Media Lab und Sayash Kapoor von der Princeton University betonen die Relevanz dieses Themas im Kontext einer aktuellen Klage der New York Times. OpenAI bezeichnete die Bewertung von ChatGPT durch die Times als „Hacking“, woraufhin der leitende Anwalt der Times erwiderte, dass OpenAIs Auslegung legitime Untersuchungen als böswillige Aktivitäten falsch darstellt.

Longpre verwies auf frühere Bemühungen des Knight First Amendment Institute, Journalisten bei der Untersuchung von Social Media zu schützen. „Wir wollten aus dieser Initiative lernen und einen Schutzhafen für die KI-Forschung vorschlagen“, erklärte er. „Bei KI fehlt die Klarheit bezüglich Nutzung und damit verbundener Risiken, weshalb der Zugang für die Forschung entscheidend ist.“

Das Papier mit dem Titel „Ein Schutzhafen für KI-Evaluierung und Red Teaming“ dokumentiert Fälle von Kontosperrungen während öffentlicher Forschungsprojekte bei Unternehmen wie OpenAI, Anthropic, Inflection und Midjourney, wobei Midjourney für häufige Sperrungen bekannt ist. Mitautor und Künstler Reid Southen berichtete von mehreren Sperren, nachdem er mögliche Urheberrechtsverletzungen in den Ergebnissen von Midjourney untersucht hatte. Er stellte fest, dass die Plattform ohne die Absicht der Nutzer gegen das Urheberrecht verstoßen könnte.

„Midjourney hat mich dreimal gesperrt, was mich fast 300 Dollar gekostet hat“, erzählte Southen. „Die erste Sperre kam innerhalb von acht Stunden nach der Veröffentlichung meiner Ergebnisse, und sie änderten später ihre Bedingungen, ohne die Nutzer zu informieren, und schoben die Schuld für die verletzenden Inhalte auf andere.“

Southen plädiert für unabhängige Bewertungen und argumentiert, dass Unternehmen sich nicht selbstbewerten und dabei die Urheberrechtsinhaber schädigen.

Transparenz ist entscheidend für diese Diskussionen. Longpre betonte die Bedeutung, unabhängigen Forschern zu erlauben, die Fähigkeiten und Schwächen von KI-Produkten zu untersuchen, sofern sie eine verantwortungsvolle Nutzung nachweisen können. Er äußerte den Wunsch nach Zusammenarbeit mit Unternehmen zur Verbesserung der Transparenz und Erhöhung der Sicherheit.

Kapoor erkannte an, dass Unternehmen berechtigte Bedenken hinsichtlich des Missbrauchs ihrer Dienste haben, jedoch sollten Richtlinien nicht einheitlich für böswillige Nutzer und Forscher gelten, die kritische Sicherheitsarbeit leisten. Er erwähnte laufende Gespräche mit betroffenen Unternehmen und stellte fest: „Die meisten haben sich mit unserem Vorschlag auseinandergesetzt, und einige haben begonnen, ihre Bedingungen anzupassen—insbesondere OpenAI, das seine Formulierungen nach unserem ursprünglichen Entwurf geändert hat.“

Insgesamt plädiert das Papier für einen ausgewogenen Ansatz, der die KI-Sicherheit fördert und Forschung durch klare, schützende Maßnahmen unterstützt.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles