OpenAI setzt sich dafür ein, sein Versprechen von "Offenheit" im Bereich der KI zu erfüllen. Obwohl das Unternehmen seine neuen Modelle nicht als Open Source veröffentlicht hat, beschäftigt es sich aktiv mit den Auswirkungen von KI auf die Gesellschaft, einschließlich Herausforderungen wie Desinformation und Deepfakes. Diese Woche stellte OpenAI „Model Spec“ vor, ein Rahmenwerk, das das Verhalten von KI-Modellen leiten soll, die über die Programmierschnittstelle (API) und ChatGPT zugänglich sind. OpenAI bittet um öffentliches Feedback zu diesem Dokument über ein Webformular, das bis zum 22. Mai verfügbar ist.
Wie OpenAI-Mitgründer und CEO Sam Altman auf X anmerkte, “werden wir zuhören, debattieren und dies im Laufe der Zeit anpassen, aber ich denke, es wird sehr hilfreich sein, zu klären, wann etwas ein Fehler und wann eine Entscheidung ist.”
Warum ein Model Spec veröffentlichen?
Die Einführung von Model Spec steht im Einklang mit OpenAIs Mission, sicherzustellen, dass KI-Technologien den Nutzern sicher und nützlich dienen. Allerdings ist es komplex, dieses Ziel zu erreichen, da es oft mit langjährigen philosophischen Debatten über Technologie und Gesellschaft verflochten ist.
In einem Blogbeitrag betonte OpenAI: „Selbst wenn ein Modell allgemein von Nutzen sein soll, können praktische Anwendungen im Widerspruch stehen. So könnte ein Sicherheitsunternehmen synthetische Daten verwenden, um Anti-Phishing-Tools zu entwickeln, während dieselbe Fähigkeit von Betrügern ausgenutzt werden könnte.“
Mit der Veröffentlichung dieses ersten Entwurfs lädt OpenAI die Öffentlichkeit ein, an Diskussionen über die ethischen und praktischen Aspekte der KI-Entwicklung teilzunehmen. Die Nutzer haben zwei Wochen Zeit, ihre Einsichten über OpenAIs Feedback-Formular einzureichen.
Nach dieser Frist plant OpenAI, Updates zu Änderungen im Model Spec, Rückmeldungen der Nutzer und Fortschritte bei der Gestaltung des Modellverhaltens im kommenden Jahr zu veröffentlichen.
Obwohl OpenAI nicht detailliert beschrieben hat, wie Model Spec das KI-Verhalten beeinflussen wird oder ob seine Prinzipien in den „Systemprompt“ zur Modellanpassung integriert werden, werden bedeutende Auswirkungen erwartet.
In gewisser Weise ähnelt Model Spec dem „verfassungsrechtlichen“ Ansatz des Rivalen Anthropic AI – ein Konzept, das Anthropic ursprünglich unterschied, jedoch in letzter Zeit weniger betont wurde.
Rahmenwerk für KI-Verhalten
Model Spec besteht aus drei Kernkomponenten: Zielen, Regeln und Standardverhalten, die die Interaktionen von KI leiten und sowohl Effektivität als auch ethische Standards sicherstellen.
- Ziele: Das Dokument beschreibt allgemeine Prinzipien, die darauf abzielen, Entwicklern und Nutzern zu helfen. Dazu gehören die effiziente Förderung von Nutzerzielen, die Berücksichtigung verschiedener Stakeholder-Auswirkungen und die Verbesserung des Gemeinwohls.
- Regeln: Klare Regeln werden festgelegt, um KI-Interaktionen zu lenken und die Einhaltung geltender Gesetze, den Respekt vor geistigem Eigentum, den Schutz der Privatsphäre und ein Verbot gefährlicher Inhalte sicherzustellen.
- Standardverhalten: Die Leitlinien betonen die Wichtigkeit, von guten Absichten auszugehen, bei Bedarf Klarheit zu suchen und Hilfsbereitschaft ohne Übergreifung zu maximieren. Dieser Ansatz zielt darauf ab, die unterschiedlichen Bedürfnisse der Nutzer zu berücksichtigen.
Einige, darunter der KI-Influencer und Professor der Wharton School, Ethan Mollick, haben diese Prinzipien mit Isaac Asimovs fiktiven „Drei Gesetzen der Robotik“ von 1942 verglichen.
Kritik gab es jedoch zur Umsetzung von Model Spec, insbesondere in Bezug darauf, wie es die Antworten der KI beeinflusst. Der Technikautor Andrew Curran nannte ein Beispiel, in dem ein „KI-Assistent“ die falsche Behauptung eines Nutzers, die Erde sei flach, nicht herausfordert.
Kontinuierliches Engagement und Entwicklung
OpenAI erkennt an, dass Model Spec ein lebendes Dokument ist, das sowohl aktuelle Praktiken als auch das Engagement, sich basierend auf fortlaufender Forschung und öffentlicher Rückmeldung anzupassen, widerspiegelt. Die Organisation beabsichtigt, vielfältige Perspektiven, insbesondere von globalen Stakeholdern wie politischen Entscheidungsträgern und Fachexperten, zu sammeln.
Rückmeldungen werden die Verfeinerung von Model Spec und zukünftige KI-Entwicklungen erheblich beeinflussen. OpenAI hat die Absicht, die Öffentlichkeit über Änderungen und Erkenntnisse aus diesem Feedbackprozess zu informieren und damit sein Engagement für die verantwortungsvolle Entwicklung von KI zu bekräftigen.
Was kommt als Nächstes?
Durch die klare Artikulation des gewünschten KI-Verhaltens über Model Spec und die Einholung von Beiträgen aus der internationalen Gemeinschaft strebt OpenAI an, einen positiven gesellschaftlichen Einfluss für KI zu schaffen – auch im Kontext rechtlicher Überprüfungen und der Kritik an der Zustimmung von Künstlern zu Trainingsdaten.