Mit der steigenden Nachfrage nach generativer KI wird die sichere und zuverlässige Implementierung wichtiger denn je. Unternehmen streben danach, Anwendungen mit großen Sprachmodellen (LLM) zu entwickeln, die konsistent hochwertige Ergebnisse liefern und gleichzeitig potenzielle Fallstricke vermeiden.
In diesem Zusammenhang hat Microsoft neue Azure AI-Tools vorgestellt, die darauf abzielen, Probleme wie automatische Halluzinationen – häufig bei generativer KI – und Sicherheitsbedrohungen wie Prompt Injection zu bewältigen. Bei dieser Technik manipulieren Angreifer das Modell, um schädliche oder persönliche Inhalte zu erzeugen, wie beispielsweise Deepfakes, die mit Microsofts KI-Bilderzeuger erstellt werden.
Hauptmerkmale der neuen Microsoft-Angebote
Diese Verbesserungen von Azure AI, die sich derzeit in der Vorschau befinden, sollen in den kommenden Monaten allgemein verfügbar sein, ein spezifisches Veröffentlichungsdatum wurde jedoch noch nicht kommuniziert. Prompt Injection-Angriffe können die Sicherheit gefährden, da böswillige Akteure Eingabeaufforderungen verändern, um normale Modelloperationen und Sicherheitskontrollen zu umgehen. Microsoft reagiert auf diese Bedrohungen, indem es Prompt Shields in Azure AI integriert, die sowohl direkte Interaktionen als auch indirekte Methoden, wie die Nutzung bösartiger Webseiten, berücksichtigen. Dieses fortschrittliche Feature nutzt maschinelles Lernen (ML) und natürliche Sprachverarbeitung, um Eingaben und externe Daten auf böswillige Absichten zu analysieren und schädliche Eingaben zu blockieren, bevor sie das Modell erreichen.
Prompt Shields werden mit drei KI-Angeboten von Microsoft kompatibel sein: Azure OpenAI Service, Azure AI Content Safety und Azure AI Studio.
Zuverlässigkeit und Sicherheit verbessern
Neben der Blockierung von Prompt Injection-Angriffen setzt sich Microsoft dafür ein, die Zuverlässigkeit generativer KI-Anwendungen zu erhöhen. Zu den neuen Tools gehören vorgefertigte Vorlagen für sicherheitsorientierte Systemnachrichten und eine Funktion namens „Groundedness Detection“.
Die vorgefertigten Vorlagen unterstützen Entwickler dabei, Systemnachrichten zu erstellen, die sichere, verantwortungsvolle und datengestützte Ergebnisse fördern. Groundedness Detection verwendet ein fein abgestimmtes benutzerdefiniertes Sprachmodell, um Halluzinationen oder Ungenauigkeiten im generierten Text zu erkennen. Beide Funktionen werden in Azure AI Studio und Azure OpenAI Service integriert.
Zusätzlich wird die Groundedness-Metrik automatisierte Bewertungen bieten, die es Entwicklern ermöglichen, generative KI-Anwendungen auf Risiken und Sicherheitsbedenken zu testen. Diese Bewertungen beurteilen die Wahrscheinlichkeit, dass die Anwendung ausgenutzt wird, um unangemessene Inhalte zu produzieren, und bieten Erklärungen in natürlicher Sprache, um Entwicklern bei der Entwicklung wirksamer Gegenmaßnahmen zu helfen.
Sarah Bird, Chief Product Officer von Responsible AI bei Microsoft, betonte, dass vielen Organisationen die Ressourcen für umfassende Stresstests generativer KI-Anwendungen fehlen. Hochwertige Testdatensätze zu erstellen, die neu auftretende Risiken wie Jailbreak-Angriffe widerspiegeln, ist herausfordernd, und die Interpretation von Bewertungsergebnissen kann oft komplex sein.
Echtzeitüberwachung für Produktionsanwendungen
Sobald Anwendungen in der Produktion sind, wird Microsoft Echtzeitüberwachungsfunktionen anbieten. Diese Tools verfolgen Eingabe- und Ausgabeinteraktionen, die Sicherheitsmechanismen wie Prompt Shields auslösen. Über Azure OpenAI Service und Azure AI Studio verfügbar, bietet diese Überwachung detaillierte Visualisierungen blockierter Benutzereingaben und Modellausgaben, die nach Schweregrad kategorisiert sind.
Diese Transparenz ermöglicht es Entwicklern, über die Zeit schädliche Anforderungstrends zu identifizieren, sodass sie Inhaltsfilter und Kontrollen zur Verbesserung der Anwendungssicherheit verfeinern können.
Microsoft hat seine KI-Angebote kontinuierlich erweitert, zunächst mit einem Fokus auf die Modelle von OpenAI und anschließend durch Partnerschaften mit Unternehmen wie Mistral. Die kürzliche Aufnahme von Mustafa Suleyman und dem Inflection AI-Team stellt einen strategischen Schritt dar, um die KI-Fähigkeiten zu diversifizieren.
Mit diesen neuen Sicherheits- und Zuverlässigkeitswerkzeugen möchte Microsoft Entwicklern ermöglichen, sichere generative KI-Anwendungen zu erstellen und sein Engagement für vertrauenswürdige KI-Lösungen zu stärken - eine essentielle Anforderung für Unternehmen in diesem sich schnell entwickelnden Umfeld.