Ein offener Brief, der am Dienstag von mehr als einem Dutzend aktuellen und ehemaligen Mitarbeitern von OpenAI, Googles DeepMind und Anthropic veröffentlicht wurde, hebt die „erheblichen Risiken“ hervor, die mit der raschen Entwicklung von Künstlicher Intelligenz (KI) ohne effektiven Kontrollrahmen verbunden sind. Die Forscher warnen, dass unregulierte KI bestehende Ungleichheiten verschärfen, Informationen manipulieren, Desinformation verbreiten und möglicherweise zu einem Kontrollverlust über autonome KI-Systeme führen könnte, mit gravierenden Folgen für die Menschheit.
Die Unterzeichner sind der Ansicht, dass diese Risiken durch eine Zusammenarbeit zwischen der wissenschaftlichen Gemeinschaft, Gesetzgebern und der Öffentlichkeit „angemessen gemindert“ werden können. Sie äußern jedoch Bedenken, dass „KI-Unternehmen starke finanzielle Anreize haben, effektive Aufsicht zu vermeiden“ und nicht darauf vertrauen können, die verantwortungsvolle Entwicklung mächtiger Technologien zu leiten.
Seit der Einführung von ChatGPT im November 2022 hat sich generative KI schnell in der Tech-Landschaft verbreitet, wobei große Cloud-Anbieter wie Google Cloud, Amazon AWS, Oracle und Microsoft Azure an der Spitze stehen, in einem Markt, der bis 2032 auf mehrere Billionen Dollar geschätzt wird. Eine aktuelle McKinsey-Studie zeigt, dass bis März 2024 fast 75 % der befragten Organisationen KI in ihre Abläufe integriert haben. Darüber hinaus ergab die jährliche Work Index-Umfrage von Microsoft, dass drei Viertel der Büromitarbeiter bereits KI-Werkzeuge in ihren Jobs nutzen.
Daniel Kokotajlo, ein ehemaliger Mitarbeiter von OpenAI, wies in einem Gespräch mit der Washington Post darauf hin, dass einige Unternehmen eine Mentalität des „schnellen Handelns und Brechens“ angenommen haben, die für eine Technologie, die sowohl mächtig als auch schlecht verstanden ist, ungeeignet ist. KI-Startups wie OpenAI und Stable Diffusion haben Herausforderungen mit den US-Copyright-Gesetzen gegenübergestanden, während verschiedene öffentlich zugängliche Chatbots missbraucht wurden, um Hassreden, Verschwörungstheorien und Desinformation zu erzeugen.
Die besorgten KI-Mitarbeiter argumentieren, dass diese Unternehmen „substantielle, nicht öffentliche Informationen“ über die Fähigkeiten und Grenzen ihrer Produkte haben, einschließlich der potenziellen Risiken und der Wirksamkeit ihrer Sicherheitsmaßnahmen. Sie betonen, dass nur ein Bruchteil dieser Informationen den staatlichen Stellen durch „schwache Offenlegungspflichten“ zur Verfügung steht, wodurch die Öffentlichkeit weitgehend im Unklaren bleibt.
„Ohne ausreichende staatliche Aufsicht dieser Unternehmen stellen aktuelle und ehemalige Mitarbeiter einen der wenigen Wege dar, um sie zur Verantwortung gegenüber der Öffentlichkeit zu ziehen“, erklärte die Gruppe. Sie kritisierten die Abhängigkeit der Technologiebranche von Vertraulichkeitsvereinbarungen und die unzureichende Durchsetzung bestehender Whistleblower-Schutzmaßnahmen. Der Brief fordert KI-Unternehmen auf, Abmachungen zur Nichtabwertung abzuschaffen, einen anonymen Meldungsprozess einzurichten, um die Bedenken der Mitarbeiter durch die Unternehmensführung und Aufsichtsbehörden anzusprechen, und sicherzustellen, dass öffentliche Whistleblower bei Versagen interner Kanäle nicht mit Repressalien rechnen müssen.