KI- und Policy-Experten Diskutieren die Rolle des effektiven Altruismus in der KI-Sicherheit

Im letzten Monat untersuchte ich die zunehmende Schnittmenge zwischen der Bewegung des effektiven Altruismus (EA) und der Politik zur AI-Sicherheit. Dabei verknüpfte ich einflussreiche AI-Startups wie Anthropic mit Denkfabriken in Washington, D.C., wie der RAND Corporation. Dieses wachsende Netzwerk verbindet EAs Mission, katastrophale Risiken durch zukünftige künstliche allgemeine Intelligenz (AGI) anzugehen, mit verschiedenen Regierungsbehörden, Think Tanks und Kongressbüros. Kritiker argumentieren, dass die Betonung von existenziellen Risiken, oder "x-risk", von EA die Aufmerksamkeit von sofortigen, greifbaren Gefahren der AI ablenkt, wie Vorurteilen, Falschinformationen und traditionellen Cyberbedrohungen.

Seitdem habe ich Einblicke von AI- und Politikführern gesucht, die nicht mit dem effektiven Altruismus oder seinem Gegenstück, dem effektiven Accelerationalismus (e/acc), verbunden sind. Sind andere Unternehmen ebenso besorgt darüber, dass die Gewichte von großen Sprachmodellen (LLM) in die falschen Hände geraten könnten? Verstehen die Entscheidungsträger in D.C. angemessen den Einfluss von EA auf AI-Sicherheitsinitiativen?

Diese Anfrage gewinnt an Dringlichkeit, da Anthropic neue Forschungen über "Schläfer-Agent"-AI-Modelle veröffentlicht, die Sicherheitsprotokolle umgehen, und der Kongress Bedenken hinsichtlich einer möglichen Zusammenarbeit zwischen dem National Institute of Standards and Technology (NIST) und RAND äußert. Außerdem rücken aktuelle Schlagzeilen EA in den Fokus, im Zusammenhang mit der umstrittenen Entlassung von OpenAI-CEO Sam Altman, da die beteiligten Vorstandsmitglieder des Nonprofits hauptsächlich mit EA in Verbindung standen.

Durch Gespräche im letzten Monat entdeckte ich eine komplexe Mischung von Perspektiven. Während es beträchtliche Bedenken hinsichtlich der milliardenschweren Ideologie von EA und ihres Einflusses auf die Diskurse zur AI-Sicherheit in Washington gibt, erkennen einige die Wichtigkeit an, langfristige AI-Risiken im politischen Rahmen zu diskutieren.

Effektiver Altruismus und Verhinderung von AI-Katastrophen

Ursprünglich gegründet, um das globale Wohl zu verbessern, wird die EA-Bewegung heute überwiegend von Tech-Milliardären finanziert, die die Minderung von AI-verwandten Katastrophen, insbesondere in der Biosicherheit, priorisieren. In meinem vorherigen Artikel wies ich auf die Bedenken von Anthropics CISO Jason Clinton und RAND-Forschern hin, die die Sicherheit der LLM-Modellgewichte gegen Bedrohungen durch opportunistische Kriminelle und staatlich geförderte Akteure betonen.

Clinton betonte, dass der Schutz der Modellgewichte für Claude, Anthropic's LLM, für ihn oberste Priorität hat. Er warnte, dass der Zugriff böswilliger Akteure auf die gesamte Modelldatei eine erhebliche Bedrohung darstellen könnte. RAND-Forscher Sella Nevo prognostiziert, dass AI-Modelle innerhalb von zwei Jahren nationale Sicherheitsrelevanz erreichen könnten, insbesondere hinsichtlich des Missbrauchs durch finstere Akteure.

Alle drei Personen, mit denen ich sprach, haben Verbindungen zur EA-Community, wobei Jason Matheny, CEO von RAND, zuvor im Long-Term Benefit Trust von Anthropic tätig war. Brendan Bordelons Berichterstattung, die von einem "epischen Eindringen" von EA-verbundenen Geldgebern in die Politik Washingtons sprach, veranlasst mich, tiefer in den wachsenden Einfluss von EA einzutauchen. Wie Bordelon feststellte, prägt eine engagierte Fraktion von EA-Anhängern signifikant die Ansätze zur AI-Governance.

Cohere's Antwort auf EA-Bedenken

Ich sprach mit Nick Frosst, Mitgründer von Cohere – einem KI-Wettbewerber von Anthropic und OpenAI – der der Auffassung ist, dass große Sprachmodelle keine existenzielle Bedrohung darstellen. Er betonte, dass Cohere seine Modellgewichte sichert, der primäre Fokus jedoch geschäftlicher Natur und nicht existenzieller Natur sei. Frosst stellte eine philosophische Unterscheidung fest und äußerte: „Ich denke, wir könnten eines Tages echte künstliche allgemeine Intelligenz entwickeln, aber ich glaube nicht, dass das bald geschehen wird.“ Er kritisierte EA für seine wahrgenommene Selbstgerechtigkeit in Bezug auf AI-Risiken und hinterfragte dessen moralisches Konzept hinsichtlich der Vermögensakkumulation.

Er argumentierte, dass der Ansatz von EA komplexe humanitäre Auswirkungen in quantifizierbare Metriken vereinfacht und zu moralisch fragwürdigen Schlussfolgerungen über die existenziellen Risiken von AI führt.

AI21 Labs zu Modellgewichten und Sicherheit

Yoav Shoham, Mitgründer von AI21 Labs, einem weiteren Mitbewerber im AI-Bereich, teilte ähnliche Ansichten und betonte, dass sie zwar ihre Modellgewichte aus geschäftlichen Gründen schützen, diese Gewichte jedoch nicht das primäre Instrument für böswillige Akteure darstellen. Er wies darauf hin, dass viele der gegenwärtigen geopolitischen AI-Probleme nicht ausschließlich durch Politik adressiert werden können. Shoham stellte klar, dass AI21 Labs nicht Teil der EA-Bewegung ist und eine Mischung aus verantwortungsvollem AI-Einsatz und unbegründeter Angst innerhalb der Bewegung sieht.

Kritik an EA-Perspektiven bei RAND

Mitten in der Kritik an RAND für seine Verbindungen zu EA bestreiten einige Forscher intern die gängigen Ideologien der Bewegung. Marek Posard, Militärsoziologe bei RAND, stellte fest, dass philosophische Debatten über AI, einschließlich der von EA und e/acc-Verfechtern angestoßenen, von unmittelbaren politischen AI-Anliegen ablenken. Er behauptete, dass vielfältige Perspektiven zwar erwünscht seien, der Fokus jedoch auf der Lösung realer Probleme liegen sollte, nicht auf ideologischen Auseinandersetzungen über die AI-Governance.

Bewältigung aktueller Risiken in der Cybersicherheit

Während die Bereiche AI-Sicherheit und traditionelle Cybersicherheit Schnittmengen aufweisen, konzentriert sich die traditionelle Cybersicherheit stärker auf gegenwärtige Risiken. Dan deBeaubien, der die AI-Forschung am SANS Institute leitet, erkannte den Einfluss der EA-Bewegung an, betonte jedoch die Wichtigkeit, aktuelle Sicherheitsbedrohungen im Zusammenhang mit LLM über existenzielle Risiken zu verstehen.

Koexistenz mit EA-Diskursen in D.C.

Einige Entscheidungsträger erkennen den Einfluss von EA auf die AI-Sicherheit an, ziehen es jedoch vor, zu koexistieren, anstatt sich direkt mit seinen Grundsätzen auseinanderzusetzen. Mark Beall, ehemaliger Leiter der AI-Politik im US-Verteidigungsministerium, betonte die Bedeutung etablierter Sicherheitsvorkehrungen gegenüber der rücksichtslosen Schnelligkeit, die in der Tech-Kultur gefördert wird. Er hob hervor, dass die Pentagon-Arbeit zu verantwortungsvoller AI-Politik und die Bedenken hinsichtlich AI-Risiken Priorität hatten, lange bevor effektive Altruisten in den politischen Raum eintraten.

Die Herausforderung der „ungeregelten AI“

Ian Bremmer, Präsident der Eurasia Group, listete kürzlich „ungeregelte AI“ als eines der größten geopolitischen Risiken für 2024 auf und identifizierte greifbare Bedrohungen wie Wahl-Falschinformationen. Er erkannte einen wertvollen Diskurs über die Sicherheit von Modellgewichten an, kritisierte jedoch die EA-Bewegung, weil sie andere Risiken durch ihren ausschließlichen Fokus auf katastrophale Ergebnisse vernachlässige.

Abschließend wies Bremmer darauf hin, dass die Einordnung von Risiken als existenziell drängende Probleme überlagern könnte, was den umfassenden Diskurs, der für eine effektive AI-Governance nötig ist, untergräbt.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles