Verstehen von Erklärbarkeit: Nutzung der Prinzipien klinischer Prüfungen für verbesserte Sicherheitsprüfungen von Künstlicher Intelligenz.

Der Aufstieg von KI in verbraucherorientierten Unternehmen geht mit wachsenden Bedenken hinsichtlich ihrer langfristigen Governance einher. Die Dringlichkeit effektiver KI-Regulierung wird durch die kürzlich erlassene Exekutivverordnung der Biden-Administration unterstrichen, die neue Protokolle für die Entwicklung und Implementierung fortgeschrittener KI-Systeme vorschreibt.

Heute betonen KI-Anbieter und Regulierungsbehörden die Erklärbarkeit als zentrales Element der KI-Governance. Dieser Fokus ermöglicht es den von KI-Systemen betroffenen Personen, die durch diese Technologien erzeugten Ergebnisse zu verstehen und anzufechten, einschließlich potenzieller Vorurteile.

Während die Erklärung einfacherer Algorithmen, wie sie bei Autokreditgenehmigungen verwendet werden, unkompliziert sein kann, beinhalten neuere KI-Technologien komplexe Algorithmen, die oft schwer zu interpretieren sind, aber erhebliche Vorteile bieten. Ein Beispiel dafür ist OpenAI’s GPT-4, das mit einem umfangreichen Datensatz und Milliarden von Parametern menschenähnliche Gespräche generiert und zahlreiche Branchen transformiert. Ähnlich nutzen die Krebsfrüherkennungssysteme von Google DeepMind Deep Learning, um eine präzise Krankheitsdiagnose zu liefern, die Leben retten kann.

Diese komplexen Modelle können die Entscheidungsprozesse verschleiern, was eine entscheidende Frage aufwirft: Sollten wir auf diese teilweise erklärbaren, aber vorteilhaften Technologien verzichten, um Unsicherheiten zu vermeiden? Selbst US-Gesetzgeber, die die KI regulieren möchten, erkennen die Komplexität der Erklärbarkeit an und betonen die Notwendigkeit eines ergebnisorientierten Ansatzes zur KI-Governance, anstatt sich nur auf die Erklärbarkeit zu konzentrieren.

Das Auseinandergehen mit den Unsicherheiten um aufkommende Technologien ist nicht neu. Die medizinische Gemeinschaft hat lange erkannt, dass die Identifizierung potenzieller Schäden entscheidend ist, wenn neue Therapien entwickelt werden. Dieses Verständnis hat zur Schaffung von randomisierten kontrollierten Studien (RCTs) geführt, um Risiken zu bewerten.

In RCTs werden Teilnehmer in Behandlungs- und Kontrollgruppen eingeteilt, wobei die Behandlungsgruppe die medizinische Intervention erhält und die Kontrollgruppe nicht. Durch den Vergleich der Ergebnisse dieser vergleichbaren Kohorten können Forscher Kausalität feststellen und die Wirksamkeit einer Behandlung überprüfen.

Historisch verwendeten medizinische Forscher stabile Testdesigns, um langfristige Sicherheit und Effektivität zu bewerten. Im Bereich der KI, wo Systeme kontinuierlich lernen, können jedoch neue Vorteile und Risiken mit jedem Retraining und jeder Bereitstellung entstehen. Daher könnten traditionelle RCTs die Risikoabschätzung von KI nicht angemessen adressieren. Alternative Rahmenbedingungen wie A/B-Tests könnten wertvolle Einblicke in die Ergebnisse von KI-Systemen über die Zeit hinweg bieten.

A/B-Tests werden seit 15 Jahren in der Produktentwicklung eingesetzt. Diese Methode beinhaltet, verschiedene Nutzergruppen unterschiedlich zu behandeln, um den Einfluss verschiedener Funktionen zu bewerten, etwa welchen Buttons auf einer Webseite die meisten Klicks zufallen. Ronny Kohavi, der ehemalige Leiter der Experimente bei Bing, hat online kontinuierliche Experimente entwickelt, bei denen Nutzer zufällig entweder der aktuellen Version einer Website oder einer neuen Version zugewiesen werden. Dieses rigorose Monitoring ermöglicht es Unternehmen, Produkte iterativ zu verbessern und gleichzeitig die Vorteile dieser Änderungen anhand entscheidender Kennzahlen zu verstehen.

Viele Technologieunternehmen, darunter Bing, Uber und Airbnb, haben Systeme etabliert, um technologische Änderungen kontinuierlich zu testen. Dieses Framework ermöglicht es den Unternehmen, nicht nur Geschäftskennzahlen wie Klickrate und Umsatz zu bewerten, sondern auch potenzielle Schäden wie Diskriminierung zu identifizieren.

Eine effektive Messung der KI-Sicherheit könnte folgendermaßen aussehen: Eine große Bank könnte besorgt sein, dass ein neuer Preisalgorithmus für Privatkredite Frauen unfair benachteiligt. Obwohl das Modell Geschlecht nicht explizit verwendet, vermutet die Bank, dass Stellvertreter unbeabsichtigt die Ergebnisse beeinflussen können. Um dies zu testen, könnte die Bank ein Experiment erstellen, bei dem die Behandlungsgruppe den neuen Algorithmus verwendet, während eine Kontrollgruppe Entscheidungen aus einem älteren Modell erhält.

Durch die Sicherstellung, dass Demographien wie Geschlecht gleichmäßig zwischen den Gruppen verteilt sind, kann die Bank etwaige ungleiche Auswirkungen messen und die Fairness des Algorithmus bewerten. Zudem kann die KI-Exposition durch schrittweise Einführungen neuer Funktionen kontrolliert werden, was ein gemessenes Risikomanagement ermöglicht.

Alternativ nutzen Organisationen wie Microsoft „Red Teaming“, bei dem Mitarbeiter das KI-System adversarial herausfordern, um signifikante Risiken vor einer breiteren Bereitstellung zu identifizieren.

Letztendlich fördert die Messung der KI-Sicherheit die Verantwortlichkeit. Im Gegensatz zur subjektiven Erklärbarkeit bietet die Bewertung der Ausgaben eines KI-Systems über verschiedene Bevölkerungsgruppen hinweg einen quantifizierbaren Rahmen zur Beurteilung potenzieller Schäden. Dieser Prozess schafft Verantwortlichkeit und ermöglicht es KI-Anbietern, sicherzustellen, dass ihre Systeme effektiv und ethisch arbeiten.

Während die Erklärbarkeit nach wie vor im Mittelpunkt der KI-Anbieter und Regulierungsbehörden steht, kann die Übernahme von Methoden aus dem Gesundheitswesen helfen, das universelle Ziel sicherer und effektiver KI-Systeme zu erreichen, die so funktionieren, wie sie sollten.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles