Im Januar interviewte ich Mark Beall, Mitgründer und ehemaliger CEO von Gladstone AI, dessen Beratungsunternehmen kürzlich einen wegweisenden Bericht zur KI-Sicherheit für das Außenministerium veröffentlicht hat. Die wichtigsten Empfehlungen des Berichts, die von TIME berichtet wurden, skizzieren, wie die USA bedeutende nationale Sicherheitsrisiken im Zusammenhang mit fortschrittlicher KI angehen sollten.
In unserem Gespräch erforschte ich die wachsende Debatte unter KI- und Politikführern über den Einfluss des effektiven Altruismus (EA) innerhalb der KI-Sicherheitskreise in Washington, D.C. Beall, ehemaliger Leiter der KI-Politik im US-Verteidigungsministerium, äußerte eine starke Dringlichkeit, potenzielle katastrophale KI-Bedrohungen zu bewältigen. Er betonte die Notwendigkeit von „vernünftigen Sicherheitsvorkehrungen“ in sozialen Medien und warnte, dass wir handeln müssen, bevor wir mit einer KI-bedingten Katastrophe konfrontiert werden.
Für viele weckt „KI-Sicherheit“ Bedenken hinsichtlich existenzieller Risiken, die oft durch Glaubenssysteme wie den effektiven Altruismus befeuert werden. Die Autoren von Gladstone AI berichteten, dass sie über 200 Regierungsbeamte, Experten und Mitarbeiter führender KI-Labore wie OpenAI und Google DeepMind in ihre umfassenden Recherchen einbezogen haben.
Allerdings stieß der Bericht in den sozialen Medien auf Skepsis. Nirit Weiss-Blatt, Kommunikationsforscherin, wies auf die Kommentare von Co-Autor Eduoard Harris zum vielgescholtenen „Paperclip-Maximierer“-Problem hin, das einige als extremes Szenario betrachten. Zudem kritisierte Aidan Gomez, CEO von Cohere, die Legitimität der Umfrage und schlug vor, dass Nutzer durch Umfragen in sozialen Medien repräsentativere Ergebnisse erzielen könnten. William Falcon, CEO von Lightning AI, wies die Behauptungen über die Bedrohung durch Open-Source-KIs als potenziell aussterben-lassend zurück und argumentierte, dass Closed-Source-KIs möglicherweise gefährlicher seien.
Interessanterweise fiel Bealls Abgang von Gladstone mit der Einführung dessen zusammen, was er als „den ersten Super PAC für KI-Sicherheit“ bezeichnete. Parallel zum Gladstone-Bericht ins Leben gerufen, hat der PAC das Ziel, die Wähler über KI-Politik aufzuklären und hebt die wachsende öffentliche Bedeutung dieses Themas hervor. Beall erwähnte, dass er erste Finanzmittel für den Super PAC gesichert hat und plant, Millionen mehr zu sammeln.
Die Hintergrund von Mitgründer Brendan Steinhauser als republikanischer Berater verdeutlicht die überparteiliche Mission des PAC. Beall erklärte: „Wir wollen, dass Gesetzgeber beider Seiten Innovation fördern und die nationale Sicherheit schützen.“ Steinhausers zwanzigjährige Erfahrung in der Nationalpolitik unterstützt dieses Ziel.
Obwohl die gleichzeitige Einführung des Super PAC und des Gladstone-Berichts ungewöhnlich erscheinen mag, stellte Jeremie Harris, Mitgründer von Gladstone, klar, dass der Bericht vom Büro für internationale Sicherheit und Nichtverbreitung des Außenministeriums in Auftrag gegeben wurde, um eine neutrale Expertenanalyse bereitzustellen. Er versicherte, dass Gladstone unabhängig von politischen Zugehörigkeiten oder finanziellen Einflüssen arbeitet.
Beall erkannte die Bedeutung des Gladstone-Berichts an, betonte jedoch, dass „jetzt die eigentliche Arbeit beginnt“. Er forderte den Kongress auf, Gesetze zu verabschieden, die einen flexiblen, langfristigen Ansatz für die KI-Entwicklung gewährleisten. Auf die Frage nach potenziellen Spendern äußerte Beall die Hoffnung, eine vielfältige Koalition aufzubauen, da landesweit Besorgnis über katastrophale KI-Risiken besteht.
Während die öffentliche Aufmerksamkeit möglicherweise auch auf unmittelbare Bedrohungen wie Deepfakes und Wahl-Desinformation gelenkt wird, ist klar, dass KI-Sicherheit und -Politik in Zukunft eng mit Finanzierung und Politik verwoben sein werden.