Lasso Security präsentiert innovative Lösungen zur Sicherung von Large Language Models (LLMs)

Die Naivität großer Sprachmodelle in der Cybersicherheit

Trotz ihrer Komplexität zeigen große Sprachmodelle (LLMs) oft eine erstaunliche Naivität in Fragen der Cybersicherheit. Durch geschickte Eingabefragen können sie unbeabsichtigt vertrauliche Informationen offenbaren, bösartigen Code generieren oder voreingenommene Ausgaben entwickeln, was ernsthafte ethische Bedenken aufwirft. Elad Schulman, Mitgründer und CEO von Lasso Security, betont diese Gefahr: „So leistungsfähig sie auch sind, LLMs sollten nicht kritiklos vertraut werden. Ihre fortschrittlichen Funktionen machen sie anfällig für zahlreiche Sicherheitsanfälligkeiten.“ Lasso Security, das kürzlich mit 6 Millionen Dollar an Seed-Finanzierung von Entrée Capital und Samsung Next gestartet wurde, hat sich dem Ziel verschrieben, diese Herausforderungen anzugehen. „Die LLM-Revolution könnte sowohl die Cloud- als auch die Internet-Revolution zusammen übertreffen. Mit erheblichem Fortschritt kommt ein beträchtliches Risiko.“

Sicherheitsbedenken: Jailbreaking, Datenlecks und Vergiftung

LLMs sind schnell zu einem unverzichtbaren Werkzeug für Unternehmen geworden, die sich einen Wettbewerbsvorteil verschaffen wollen. Ihre konversationelle und unstrukturierte Natur macht sie jedoch zu einfachen Zielen für Ausbeutung. Durch Manipulation von Eingaben mittels Techniken wie Prompt-Injection oder Jailbreaking können diese Modelle ihre Trainingsdaten und sensible Unternehmensinformationen preisgeben.

Die Risiken beschränken sich nicht nur auf absichtliche Angriffe. Der Missbrauch durch Mitarbeitende, wie die Entscheidung von Samsung, generative KI-Tools nach Datenlecks zu verbannen, verdeutlicht das Potenzial für versehentliche Datenexpositionen. Schulman weist darauf hin: „Da der Inhalt, der von LLMs generiert wird, von der Eingabe beeinflusst werden kann, können Benutzer versehentlich auf zusätzliche Funktionen des Modells zugreifen.“

Datenvergiftung stellt ein weiteres großes Problem dar; manipulierte Trainingsdaten können Vorurteile einführen, die Sicherheits- und ethische Standards gefährden. Darüber hinaus kann eine unzureichende Validierung der LLM-Ausgaben zu kritischen Schwachstellen führen. Laut OWASP können unüberwachte Ausgaben Systeme ernsthaften Bedrohungen wie Cross-Site-Scripting (XSS), Cross-Site-Request-Forgery (CSRF) und Remote Code Execution aussetzen.

OWASP hebt weitere Bedenken hervor, wie beispielsweise Denial-of-Service-Angriffe auf Modelle, bei denen Angreifer LLMs mit Anfragen überlasten und damit Dienstunterbrechungen verursachen, sowie Schwachstellen, die aus Drittanbieter-Komponenten innerhalb der Software-Lieferkette resultieren.

Vorsicht vor übermäßiger Abhängigkeit

Experten betonen die Gefahren, sich ausschließlich auf LLMs für Informationen zu verlassen, da dies zu Fehlinformationen und Sicherheitsverletzungen führen kann. Zum Beispiel könnte ein Entwickler während eines Prozesses namens „Package Hallucination“ ein LLM um Vorschläge für ein bestimmtes Code-Paket bitten und möglicherweise eine fiktive Empfehlung erhalten. Böswillige Akteure könnten daraufhin schädlichen Code erstellen, um diese Halluzination auszunutzen, wodurch sie Zugriff auf Unternehmenssysteme erhalten.

„Dieser Missbrauch nutzt das Vertrauen aus, das Entwickler in KI-gesteuerte Empfehlungen setzen“, warnt Schulman.

Überwachung von LLM-Interaktionen zur Sicherheit

Die Technologie von Lasso erfasst Interaktionen zwischen Mitarbeitenden und LLMs wie Bard und ChatGPT sowie Integrationen mit Tools wie Grammarly und IDE-Plugins. Durch die Einrichtung einer Beobachtungsebene erfasst und analysiert Lasso die Daten, die an und von LLMs gesendet werden, indem fortschrittliche Bedrohungserkennungstechniken zur Identifizierung von Anomalien eingesetzt werden. Schulman rät Organisationen, zunächst zu identifizieren, welche LLM-Tools eingesetzt werden, und dann deren Anwendungen und Zwecke zu analysieren. „Diese Maßnahmen werden kritische Diskussionen über notwendige Schutzmaßnahmen anstoßen“, erklärt er.

Schlüsselfunktionen von Lasso Security

- Shadow AI Discovery: Aktive Tools, Benutzer und Erkenntnisse identifizieren.

- LLM-Datenflussüberwachung: Alle Datenübertragungen in und aus der Organisation verfolgen und protokollieren.

- Echtzeit-Erkennung und Warnung: Sofortige Einblicke in potenzielle Bedrohungen.

- Blockierung und Schutz: Sicherstellen, dass alle Eingaben und generierten Ausgaben mit Sicherheitsrichtlinien übereinstimmen.

- Benutzerfreundliches Dashboard: Überwachung und Verwaltung von LLM-Interaktionen vereinfachen.

Technologie sicher nutzen

Lasso hebt sich durch ein umfassendes Paket hervor, das sich speziell auf die Sicherheit von LLMs konzentriert, anstatt nur eine einzelne Funktion anzubieten. Schulman bemerkt: „Sicherheitsteams gewinnen die Kontrolle über jede LLM-Interaktion, was ihnen ermöglicht, maßgeschneiderte Richtlinien zu erstellen und durchzusetzen.“

Organisationen müssen LLM-Technologien sicher nutzen, da pauschale Verbote nicht nachhaltig sind. „Ohne eine dedizierte Risikomanagementstrategie werden Unternehmen, die generative KI nicht annehmen, im Nachteil sein“, erklärt Schulman. Letztendlich möchte Lasso die notwendigen Sicherheitswerkzeuge bereitstellen, damit Organisationen moderne Technologie nutzen können, ohne ihre Sicherheitslage zu gefährden.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles