Wann man ART nutzen sollte: IBM's Adversarial Robustness Toolbox für KI-Lösungen einsetzen

IBM fördert die Sicherheit von Künstlicher Intelligenz (KI) durch die Open-Source-Initiative Adversarial Robustness Toolbox (ART). Heute startet ART auf Hugging Face und bietet Werkzeuge, die darauf abzielen, potenzielle Sicherheitsrisiken für KI-Nutzer und Datenwissenschaftler zu minimieren. Obwohl diese Veröffentlichung einen neuen Meilenstein darstellt, wird ART bereits seit 2018 entwickelt und wurde 2020 als Open-Source-Projekt zur Linux Foundation beigetragen. Im Laufe der Jahre hat IBM ART im Rahmen der DARPA-Initiative „Guaranteeing AI Robustness Against Deception“ (GARD) weiterentwickelt.

Die Fokussierung auf KI-Sicherheit wird zunehmend dringlicher, da die Verbreitung von KI-Technologien steigt. Häufige Bedrohungen sind das Vergiften von Trainingsdaten sowie Ausweichtechniken, die KI-Modelle durch das Injizieren schädlicher Daten oder die Manipulation von Eingabeobjekten täuschen können. Durch die Integration von ART in Hugging Face möchte IBM den Zugang zu Verteidigungstools für KI-Sicherheit für Entwickler verbessern, damit diese Bedrohungen effektiver entschärfen können. Organisationen, die KI-Modelle von Hugging Face nutzen, können jetzt ihre Systeme gegen Ausweich- und Vergiftungsangriffe absichern und diese Verteidigungsmaßnahmen nahtlos in ihre Arbeitsabläufe integrieren.

„Hugging Face bietet eine umfangreiche Sammlung von hochmodernen Modellen“, sagte Nathalie Baracaldo Angel, Managerin für KI-Sicherheits- und Datenschutzlösungen bei IBM. „Diese Integration befähigt die Community, die Red-Blue-Team-Tools innerhalb von ART für Hugging Face-Modelle zu nutzen.“

Die Reise von ART: Von DARPA zu Hugging Face

IBMs Engagement für KI-Sicherheit reicht über den aktuellen Boom der generativen KI hinaus und zeigt einen proaktiven Ansatz zur Sicherung von KI-Technologien. Als Open-Source-Initiative ist ART Teil des LF AI & Data-Projekts der Linux Foundation und profitiert von vielfältigen Beiträgen verschiedener Organisationen. Zudem hat DARPA IBM finanziert, um die Fähigkeiten von ART im Rahmen der GARD-Initiative auszubauen.

Während die Einbindung von ART in die Linux Foundation unverändert bleibt, bietet sie nun Unterstützung für Hugging Face-Modelle. Hugging Face hat sich schnell als Plattform zum Teilen von KI-Modellen etabliert, und IBM hat mehrere Partnerschaften mit der Organisation aufgebaut, einschließlich eines gemeinsamen Projekts mit NASA, das sich auf geospatiale KI konzentriert.

Verständnis der adversarialen Robustheit und ihrer Bedeutung für die KI

Adversariale Robustheit ist entscheidend für die Stärkung der KI-Sicherheit. Angel erklärt, dass dieses Konzept die Erkennung potenzieller Angriffe auf maschinelles Lernen umfasst und proaktive Verteidigungssysteme erfordert. „Das Feld verlangt ein Verständnis adversarialer Taktiken, um die Pipeline des maschinellen Lernens effektiv zu schützen“, betonte sie und hob einen Red-Team-Ansatz hervor, um relevante Risiken zu identifizieren und zu mindern.

Seit seiner Gründung im Jahr 2018 hat sich ART weiterentwickelt, um den sich ändernden Rahmenbedingungen von KI-Bedrohungen gerecht zu werden, darunter verschiedene Angriffe und Verteidigungen über mehrere Medien wie Objekterkennung, Tracking, Audioverarbeitung und mehr. „In letzter Zeit haben wir uns auf die Integration multimodaler Modelle wie CLIP konzentriert, die bald im System verfügbar sein werden“, bemerkte sie. „In der dynamischen Sicherheitslandschaft ist es entscheidend, kontinuierlich neue Werkzeuge als Reaktion auf sich entwickelnde Bedrohungen und Verteidigungen zu entwickeln.“

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles