OpenAI-Forscher fordern das "Recht zu warnen" vor Sicherheitsrisiken und drängen auf Maßnahmen zur Verhinderung einer "menschlichen Auslöschung".

Eine Gruppe von 11 Forschern, darunter aktuelle und ehemalige Mitarbeiter von OpenAI sowie ein Mitglied von Google DeepMind und ein ehemaliger Forscher bei Anthropic, hat einen offenen Brief veröffentlicht, in dem KI-Unternehmen aufgefordert werden, vier Prinzipien zu übernehmen, die darauf abzielen, Whistleblower und Kritiker zu schützen, die sich mit Fragen der KI-Sicherheit befassen.

Der Brief mit dem Titel „Recht zu Warnen“ betont die ernsthaften Risiken, die mit KI-Technologien verbunden sind, und erklärt: „Diese Risiken reichen von der Verfestigung bestehender Ungleichheiten über Manipulation und Desinformation bis hin zum potenziellen Verlust der Kontrolle über autonome KI-Systeme, was zur menschlichen Extinktion führen könnte.“

Zu den wichtigsten Bedenken, die im Brief geäußert werden, gehören unzureichende Aufsicht, profitgetriebenen Motive und die Unterdrückung abweichender Stimmen innerhalb der Organisationen, die fortschrittliche KI-Technologien entwickeln.

Um diese Probleme anzugehen, schlagen die Unterzeichner folgende vier Prinzipien für KI-Unternehmen vor:

1. Keine Durchsetzung von Vereinbarungen, die kritische Kommentare einschränken oder gegen Personen vorgehen, die Bedenken bezüglich Risiken äußern.

2. Einrichtung eines vertraulichen und überprüfbaren Verfahrens zur Meldung von risikobe related issues an den Vorstand, an Regulierungsbehörden und unabhängige Organisationen.

3. Förderung einer Kultur der Transparenz, die die Mitarbeiter ermutigt, potenzielle Risiken öffentlich zu diskutieren, während Geschäftsgeheimnisse geschützt werden.

4. Verbot von Repressalien gegenüber Mitarbeitern, die vertrauliche risikobe related Informationen offenlegen, nachdem andere Meldemethoden fehlschlugen.

Der heute von der New York Times veröffentlichte Brief hat Unterstützung von führenden Persönlichkeiten der KI wie Yoshua Bengio, Geoffrey Hinton und Stuart Russell erhalten. Zu den bemerkenswerten Unterzeichnern gehören ehemalige OpenAI-Mitarbeiter wie Jacob Hilton, Daniel Kokotajlo, William Saunders und Daniel Ziegler sowie Ramana Kumar von Google DeepMind und Neel Nanda, der derzeit bei DeepMind tätig ist.

In einer Reihe von Beiträgen auf X (ehemals Twitter) nach der Veröffentlichung des Artikels erläuterte Kokotajlo seinen Rücktritt von OpenAI und nannte den Verlust des Vertrauens in das Engagement des Unternehmens für verantwortungsvolle KI-Entwicklung als Grund. Er betonte die Notwendigkeit größerer Transparenz und ethischer Standards bei der Entwicklung von KI-Technologien.

Kokotajlo gab bekannt, dass er seine Anteile aufgegeben habe, um das Unternehmen ungehindert kritisieren zu können, und zeigte sich enttäuscht darüber, dass OpenAI die Sicherheitsforschung nicht priorisierte, während sich die Systeme weiterentwickelten. Außerdem berichtete er, dass ihm beim Verlassen des Unternehmens eine Vereinbarung zur Vertraulichkeit vorgelegt wurde, die er als unethisch empfand.

Diese Aussagen folgen früheren Enthüllungen über die Praktiken von OpenAI, einschließlich geleakter Dokumente, die Zwangstaktiken gegen ehemalige Mitarbeiter zeigen. OpenAI hat jedoch erklärt, dass keine NDAs durchgesetzt werden, die in der Tech-Branche üblich sind.

Der Brief erscheint in einer turbulenten Zeit für OpenAI, die mit der umstrittenen Entlassung des CEO Sam Altman im November 2023 wegen angeblicher Kommunikationsprobleme mit dem Vorstand begann. Altman wurde aufgrund des Drucks von Investoren schnell wieder eingesetzt, doch einige Vorstandsmitglieder äußerten weiterhin Bedenken hinsichtlich der Rechenschaftspflicht und Transparenz—Themen, die auch von öffentlichen Personen wie Scarlett Johansson angesprochen wurden, die das Unternehmen kritisierte, weil es ihre Stimme ohne Zustimmung verwendet hatte.

Trotz dieser Herausforderungen versucht das Unternehmen, Sicherheitsbedenken anzugehen, indem es einen neuen Sicherheits- und Ausschuss für Sicherheit bildet, der zusammen mit der Schulung seines neuesten KI-Modells angekündigt wurde.

Vollständiger Text des Briefes „Recht zu Warnen“:

Ein Recht zu Warnen über fortschrittliche künstliche Intelligenz

Wir sind aktuelle und ehemalige Mitarbeiter an vorderster Front der KI-Unternehmen und glauben an das Potenzial der KI-Technologie, der Menschheit bisher ungeahnte Vorteile zu bringen.

Wir erkennen jedoch auch die ernsthaften Risiken, die von diesen Technologien ausgehen, darunter die Verfestigung von Ungleichheiten, die Erleichterung von Manipulation und Desinformation sowie das potenzielle Risiko des Verlusts der Kontrolle über autonome KI-Systeme, mit katastrophalen Folgen.

KI-Unternehmen erkennen diese Risiken ebenso an wie Regierungen und Experten weltweit. Wir sind optimistisch, dass sie mit genügend Unterstützung aus der wissenschaftlichen Gemeinschaft, von politischen Entscheidungsträgern und der Öffentlichkeit gemildert werden können. Dennoch behindern erhebliche finanzielle Anreize oft eine wirksame Aufsicht.

KI-Unternehmen verfügen über kritische nicht öffentliche Informationen über die Fähigkeiten und Risiken ihrer Systeme, haben jedoch nur schwache Verpflichtungen, diese Informationen an Regierungen oder die Zivilgesellschaft offenzulegen. Daher sind aktuelle und ehemalige Mitarbeiter entscheidend für die Sicherstellung von Rechenschaft, doch Vertraulichkeitsvereinbarungen schränken uns oft ein. Konventionelle Whistleblower-Schutzmaßnahmen sind unzureichend, da viele Risiken unreguliert bleiben.

Wir fordern fortschrittliche KI-Unternehmen auf, sich zu folgenden Prinzipien zu verpflichten:

1. Keine Durchsetzung von Vereinbarungen, die risikobezogene Kritik unterbinden oder gegen Mitarbeiter für solche Kommentare vorgehen.

2. Einrichtung eines vertraulichen Verfahrens für Mitarbeiter, um Risiken an den Vorstand, Regulierungsbehörden und qualifizierte unabhängige Organisationen zu melden.

3. Unterstützung einer Kultur der offenen Kritik, die es den Mitarbeitern ermöglicht, Bedenken öffentlich zu äußern und gleichzeitig Geschäftsgeheimnisse zu schützen.

4. Schutz für diejenigen, die risikobe related Informationen offenlegen, wenn interne Meldemöglichkeiten versagen.

Unterzeichnet von (alphabetisch):

- Jacob Hilton, ehemals OpenAI

- Daniel Kokotajlo, ehemals OpenAI

- Ramana Kumar, ehemals Google DeepMind

- Neel Nanda, derzeit Google DeepMind, ehemals Anthropic

- William Saunders, ehemals OpenAI

- Carroll Wainwright, ehemals OpenAI

- Daniel Ziegler, ehemals OpenAI

- Anonym, derzeit OpenAI (vier Personen)

- Anonym, ehemals OpenAI (zwei Personen)

Unterstützt von (alphabetisch):

- Yoshua Bengio

- Geoffrey Hinton

- Stuart Russell

4. Juni 2024

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles