Die Bedrohung durch Hacking interner KI-Chatbots mit ASCII-Art: Ein Alptraum für jedes Sicherheitsteam

Insider-Bedrohungen: Die Risiken von KI-Chatbots

Insider-Bedrohungen gehören zu den schwerwiegendsten Arten von Cyberangriffen und gefährden die wichtigen Systeme und Vermögenswerte eines Unternehmens. Durch die rasche Einführung neuer interner und kundenorientierter KI-Chatbots eröffnen Unternehmen ungewollt neue Angriffsvektoren und Risiken.

Die Verwundbarkeit von KI-Chatbots

Eine aktuelle Studie mit dem Titel "ArtPrompt: ASCII Art-based Jailbreak Attacks against Aligned LLMs" beleuchtet die Anfälligkeit von KI-Systemen. Forscher gelang es, fünf hochmoderne (SOTA) Large Language Models (LLMs)—darunter OpenAI's ChatGPT-3.5, GPT-4, Gemini, Claude und Meta's Llama2—mithilfe von ASCII-Kunst zu jailbreaken.

ArtPrompt nutzt die Schwierigkeiten der LLMs bei der Interpretation von ASCII-Kunst aus, wodurch Angreifer Sicherheitsmaßnahmen umgehen können. Besonders bemerkenswert ist, dass der Angriff mit eingeschränktem Zugang zu dem LLM und mit weniger Versuchen erfolgreich durchgeführt werden kann.

Verständnis der ASCII-Kunst-Verwundbarkeit

Obwohl LLMs in der semantischen Interpretation hervorragend sind, haben sie Schwierigkeiten mit komplexer räumlicher und visueller Erkennung. Die Forscher zielt darauf ab, zu validieren, warum ASCII-Kunst effektiv für Jailbreaks ist. Sie entwickelten die Vision-in-Text Challenge (VITC), einen Benchmark, der die Fähigkeiten von LLMs zur Erkennung von ASCII-Kunst anhand zweier einzigartiger Datensätze bewertet:

- VITC-S konzentriert sich auf einzelne Zeichen in ASCII-Kunst und umfasst 36 Klassen mit 8.424 Proben, um die Erkennungskompetenz der LLMs herauszufordern.

- VITC-L erhöht die Komplexität durch Sequenzen von Zeichen in 800 Klassen und 10 verschiedenen Schriftarten.

Der Übergang von VITC-S zu VITC-L verdeutlicht die Grenzen der LLMs in Bezug auf die Interpretation von ASCII-Kunst.

ArtPrompt verwendet eine zweistufige Angriffsstrategie, die ASCII-Text einsetzt, um Sicherheitsbegriffe, die LLMs normalerweise herausfiltern, zu verschleiern. Im ersten Schritt wird ein Sicherheitswort, wie "Bombe", offenbart und in der zweiten Stufe mit ASCII-Kunst verschleiert. Diese Methode hat sich über fünf SOTA LLMs hinweg als effektiv erwiesen.

Der Anstieg interner KI-Chatbots

Unternehmen beschleunigen die Einführung interner und kundenorientierter KI-Chatbots, um potenzielle Gewinne in Produktivität, Kosteneffizienz und Umsatz zu erzielen. Laut einem Bericht der Boston Consulting Group (BCG) haben 10 % der Unternehmen generative KI-Anwendungen vollständig integriert, wobei 44 % signifikante Erträge aus skalierten prädiktiven KIs realisieren. Bemerkenswerterweise sind zwei Drittel dieser leistungsstarken Organisationen in Branchen wie Biopharma, Energie und Versicherung führend, nicht nur digitale Pioniere wie Amazon oder Google.

Ein Beispiel: Ein in den USA ansässiges Energieunternehmen implementierte eine generative KI-gesteuerte Plattform für Frontlinientechniker und steigerte die Produktivität um 7 %. Ein Biopharmaunternehmen nutzte generative KI, um den Zeitrahmen für die Arzneimittelforschung um 25 % zu verkürzen.

Sicherheitsherausforderungen bei internen Chatbots

Wachsende interne Chatbots stellen eine bedeutende Angriffsfläche dar, wobei Sicherheitsmaßnahmen Schwierigkeiten haben, Schritt zu halten. Der CISO eines großen Finanzdienstleistungsunternehmens betonte, dass diese Chatbots so gestaltet werden müssen, dass sie sich von Benutzerfehlern und Nachlässigkeit erholen, während sie gleichzeitig gegen Angriffe gewappnet sind.

Der Bericht "Cost of Insider Risks 2023" des Ponemon Institutes hebt die Notwendigkeit hervor, robuste Sicherheitsmaßnahmen für zentrale Systeme, einschließlich Cloud-Konfigurationen und KI-Chatbots, zu implementieren. Die Kosten zur Minderung eines Angriffs belaufen sich im Durchschnitt auf 7,2 Millionen USD pro Vorfall, wobei Nachlässigkeit für 55 % der internen Sicherheitsvorfälle verantwortlich ist.

Evolving Defense Strategies

Um ASCII-Kunst-Angriffe zu bekämpfen, sind iterative Verbesserungen notwendig, um falsch-positive und falsch-negative Ergebnisse zu minimieren. Wenn sich die Erkennungsmethoden weiterentwickeln, werden Angreifer sich anpassen und kontinuierlich die Grenzen der Möglichkeiten der LLMs testen. Experten empfehlen multimodale Verteidigungsstrategien, die maschinelles Lernen zur Erkennung von ASCII-Kunst integrieren, zusammen mit kontinuierlicher Überwachung.

Cybersecurity-Anbieter wie Cisco, Ericom Security, Menlo Security, Nightfall AI, Wiz und Zscaler entwickeln Methoden, um vertrauliche Daten während ChatGPT-Sitzungen zu schützen. Zscaler empfiehlt einen fünfstufigen Ansatz:

1. Definieren Sie einen Minimalumfang an generativen KI- und maschinellen Lernanwendungen zur Risikokontrolle.

2. Genehmigen Sie interne Chatbots und Anwendungen für den skalierten Einsatz.

3. Erstellen Sie private Serverinstanzen für ChatGPT in sicheren Umgebungen.

4. Implementieren Sie Single Sign-On (SSO) mit robuster Multi-Faktor-Authentifizierung (MFA).

5. Setzen Sie Datenverlustpräventionsprotokolle (DLP) ein, um Datenlecks zu verhindern.

Der Senior Product Marketing Manager von Ericom stellte fest, dass der isolierte Zugang zu generativen KI-Tools es Mitarbeitern ermöglichen könnte, zeitersparende Ressourcen zu nutzen und gleichzeitig sensible Informationen zu schützen.

Angesichts der komplexen Natur von ASCII-Kunst ist es entscheidend, effektive Abwehrmechanismen gegen solche Angriffe für Chatbots und ihre unterstützenden LLMs zu etablieren. Wie Forscher betonen, ist eine multimodale Verteidigungsstrategie entscheidend, um diese sich entwickelnden Bedrohungen zu mindern.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles