Das National Institute of Standards and Technology (NIST) hat mit Nachdruck einen Bericht veröffentlicht, der sich mit den wachsenden Bedrohungen für Systeme der künstlichen Intelligenz (KI) beschäftigt. Der Bericht mit dem Titel „Adversarial Machine Learning: Eine Taxonomie und Terminologie von Angriffen und Gegenmaßnahmen“ erscheint zu einem entscheidenden Zeitpunkt, da KI-Systeme immer leistungsfähiger, aber auch anfälliger für Angriffe werden.
Techniken des adversarialen maschinellen Lernens (ML) ermöglichen es Angreifern, KI-Systeme subtil zu manipulieren, was potenziell zu katastrophalen Ausfällen führen kann. Der Bericht beschreibt die Methoden dieser Angriffe und kategorisiert sie nach den Zielen, Fähigkeiten und dem Wissen der Angreifer über das Ziel-KI-System.
Laut dem NIST-Bericht können „Angreifer absichtlich künstliche Intelligenzsysteme verwirren oder sogar 'vergiften', um sie zum Fehlverhalten zu bringen“, indem sie Schwachstellen in der Entwicklung und Bereitstellung von KI ausnutzen.
Der Bericht behandelt verschiedene Angriffstypen, darunter „Datenvergiftung“, bei der Gegner die Daten, die zum Trainieren von KI-Modellen verwendet werden, verändern. „Jüngste Arbeiten zeigen, dass Vergiftung in großem Maßstab orchestriert werden könnte, was selbst budget-schwachen Gegnern ermöglicht, öffentliche Datensätze, die für das Modelltraining genutzt werden, zu beeinflussen“, wird festgestellt.
Ein weiteres ernstes Anliegen sind „Backdoor-Angriffe“, bei denen Trigger in Trainingsdaten eingebettet werden, um später spezifische Fehlklassifikationen zu induzieren. Der Bericht warnt, dass „Backdoor-Angriffe bekanntermaßen schwer abzuwehren sind.“
Zusätzlich spricht der Bericht die Datenschutzrisiken an, die mit KI-Systemen verbunden sind. Techniken wie „Mitgliedschaftsinferenzangriffe“ können aufdecken, ob ein bestimmtes Datenbeispiel im Training verwendet wurde. NIST warnt: „Es gibt noch keinen narrensicheren Weg, um Fehlleitungen in KI-Systemen zu verhindern.“
Während KI das Potenzial hat, Branchen zu revolutionieren, betonen Sicherheitsexperten die Notwendigkeit zur Vorsicht. Der Bericht feststellt: „KI-Chatbots, angetrieben durch jüngste Fortschritte im Deep Learning, bieten leistungsstarke Möglichkeiten für verschiedene Geschäftsanwendungen. Diese aufkommende Technologie muss jedoch mit großer Vorsicht eingesetzt werden.“
Das Ziel von NIST ist es, ein gemeinsames Verständnis für die Herausforderungen der KI-Sicherheit zu schaffen. Dieser Bericht wird voraussichtlich eine wichtige Ressource für die KI-Sicherheitsgemeinschaft sein, die sich mit diesen sich entwickelnden Bedrohungen auseinandersetzt.
Joseph Thacker, leitender KI-Ingenieur und Sicherheitsforscher bei AppOmni, bemerkte: „Das ist die beste Veröffentlichung zur KI-Sicherheit, die ich gesehen habe. Die Tiefe und Abdeckung sind bemerkenswert; sie bietet die umfassendsten Einblicke in adversariale Angriffe gegen KI-Systeme, die ich jemals getroffen habe.“
Während Experten weiterhin mit den aufkommenden Bedrohungen der KI-Sicherheit kämpfen, ist es offensichtlich, dass wir uns in einem unaufhörlichen Kampf um den Schutz befinden. Stärkere Verteidigungen sind unerlässlich, bevor KI sicher in verschiedene Branchen integriert werden kann, da die Risiken zu erheblich sind, um sie zu ignorieren.