Der wachsende Einfluss des effektiven Altruismus auf die KI-Sicherheit

Ein US-Experte für KI-Politik bemerkte kürzlich: „Wenn Sie nicht den Einfluss des effektiven Altruismus (EA) untersuchen, verpassen Sie die Geschichte.“ In Anbetracht dessen wird mir klar, dass ich in meiner Berichterstattung in der letzten Woche einen wichtigen Aspekt übersehen habe.

Ironischerweise dachte ich, mein Artikel über die Bedenken zur Sicherung der Gewichte großer Sprachmodelle (LLM) sei ein klarer Gewinn. Der jüngste KI-Executive Order des Weißen Hauses verlangt von Firmen, die Grundlagenmodelle entwickeln, dass sie Eigentum und Sicherheitsmaßnahmen für duale Grundlagenmodelle dokumentieren, was dieses Thema aktuell und relevant macht. In meinem Artikel interviewte ich Jason Clinton, Chief Information Security Officer von Anthropic, der die dringende Notwendigkeit betonte, die Modellgewichte für Claude, das LLM von Anthropic, zu sichern. Er wies auf die Gefahr hin, die von Kriminellen, Terroristen und Nationen ausgeht, die auf diese hochentwickelten Modelle zugreifen können, und merkte an: „Wenn ein Angreifer auf die gesamte Datei zugreift, könnte er das gesamte neuronale Netzwerk kontrollieren.“ Auch andere führende Unternehmen haben diese Bedenken; das neue „Preparedness Framework“ von OpenAI beschäftigt sich mit der Notwendigkeit, den Zugang zu sensiblen Modellinformationen einzuschränken.

Ich sprach außerdem mit Sella Nevo und Dan Lahav von der RAND Corporation, Autoren eines bedeutenden Berichts mit dem Titel „Securing Artificial Intelligence Model Weights“. Nevo, der das Meselson Center bei RAND leitet, warnte, dass KI-Modelle bald erhebliche sicherheitspolitische Implikationen haben könnten, einschließlich der möglichen missbräuchlichen Entwicklung biologischer Waffen.

Das Netz der Verbindungen zum Effektiven Altruismus in der KI-Sicherheit

Bei näherer Betrachtung versäumte es mein Artikel, die komplexen Verbindungen zwischen der Gemeinschaft des effektiven Altruismus und dem aufstrebenden Bereich der KI-Sicherheit zu beleuchten. Diese Unterlassung ist bemerkenswert in Anbetracht des wachsenden Einflusses von EA, einer intellektuellen Bewegung, die den rationalen und evidenzbasierten Nutzen für die Menschheit betont, insbesondere bei der Vermeidung existenzieller Risiken aus fortgeschrittener KI. Kritiker argumentieren, dass EAs Fokus auf solche fernen Bedrohungen drängende Themen wie Bias, Fehlinformationen und Cybersicherheit in der KI-Entwicklung vernachlässigt.

Kürzlich machte EA Schlagzeilen durch die Beteiligung des OpenAI-Vorstands an der Entlassung von CEO Sam Altman, was die Verbindungen von EA in entscheidenden Entscheidungssituationen verdeutlicht. Obwohl ich die Verbindungen von Anthropic zu EA kannte – der FTX-Gründer Sam Bankman-Fried hielt einst einen Anteil von 500 Millionen Dollar an dem Start-up – versäumte ich es, tiefer in die EA-Relevanz für meine Geschichte einzutauchen. Nach dem Lesen eines Politico-Artikels, der zufällig am nächsten Tag erschien, entdeckte ich jedoch wesentliche Verbindungen zwischen RAND und EA, einschließlich bedeutender Finanzierungsverbindungen.

Der Politico-Artikel enthüllte, dass Forscher der RAND Corporation maßgeblich an der Gestaltung des Executive Orders zum Thema Modellgewichte beteiligt waren und dass die Organisation über 15 Millionen Dollar von Open Philanthropy, einer von Facebook-Mitbegründer Dustin Moskovitz unterstützten EA-Initiative, erhielt. Bemerkenswert ist, dass RAND-CEO Jason Matheny und Senior Scientist Jeff Alstott als anerkannte effektive Altruisten gelten, die zuvor Verbindungen zur Biden-Administration hatten.

Einblicke aus der Gemeinschaft des Effektiven Altruismus

In meinem Nachfolgespräch mit Nevo stellte er fest, dass die starke Präsenz von EA-Befürwortern in der KI-Sicherheit nicht überraschend sein sollte. Historisch gesehen war EA an vorderster Front in Diskussionen zur KI-Sicherheit beteiligt, was bedeutet, dass jeder, der sich in diesem Bereich engagiert, wahrscheinlich mit den Perspektiven von EA in Kontakt gekommen ist.

Nevo äußerte auch Frustration über den Ton des Politico-Artikels und schlug vor, dass er unangemessen ein Fehlverhalten impliziert, während er RANDs langjährige Rolle bei der Bereitstellung wertvoller Forschungen für Entscheidungsträger hervorhebt. Er betonte, dass weder er noch sein Zentrum an dem Executive Order beteiligt waren und dass die Bestimmungen zur Modellsicherheit bereits zuvor festgelegte freiwillige Verpflichtungen des Weißen Hauses waren.

Während das Meselson Center relativ unbekannt bleibt, wies Nevo darauf hin, dass es eines von vielen Forschungszentren bei RAND ist, die sich auf Biosurveillance und die Schnittstelle von KI mit biologischer Sicherheit konzentrieren.

Die Bedeutung des Effektiven Altruismus in der KI-Sicherheit

Hat der Einfluss von EA wirklich Bedeutung? Wenn wir an Jack Nicholsons ikonische Worte denken: „Sie brauchen mich an dieser Wand!“ stellt sich die Frage: Ist ihre Ideologie für engagierte Personen in der KI-Sicherheit relevant?

Für viele, die Transparenz und effektive Politik in der KI fordern, lautet die Antwort ja. Wie die Berichterstattung von Politico über den Einfluss von EA in Washington verdeutlicht, werden diese Verbindungen zukünftige Politiken, Vorschriften und die Entwicklung von KI nachhaltig prägen. Der US-Experte für KI-Politik, mit dem ich sprach, stellte fest, dass viele im politischen Bereich potenzielle ideologische Agenden in der KI übersehen. Leider unterschätzen sie deren Einfluss.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles