Wie können wir Generative KI schützen? Einblicke in IBMs Ansatz.

Mit der zunehmenden Nutzung von generativer KI in Unternehmen steigen auch die Sicherheitsherausforderungen. Heute kündigt IBM ein neues Sicherheitsframework an, das speziell für generative KI entwickelt wurde. Das IBM-Framework zum Schutz von generativer KI zielt darauf ab, Workflows über ihren gesamten Lebenszyklus hinweg zu sichern, von der Datenerfassung bis zur Produktionsbereitstellung. Dieses Framework bietet Einblicke in häufige Sicherheitsbedrohungen, mit denen Organisationen beim Einsatz generativer KI konfrontiert werden könnten, sowie umsetzbare Empfehlungen für effektive Verteidigungsstrategien. Im letzten Jahr hat IBM seine Fähigkeiten in der generativen KI durch das watsonX-Portfolio erweitert, das fortschrittliche Modelle und Governance-Tools umfasst.

Ryan Dougherty, Programmdirektor für aufkommende Sicherheitstechnologien bei IBM, betonte die Bedeutung dieses Frameworks: "Wir haben unser Fachwissen gebündelt, um die wahrscheinlichsten Angriffe und die wichtigsten Verteidigungsmaßnahmen darzulegen, die Organisationen implementieren sollten, um ihre Initiativen im Bereich generative KI zu sichern."

Was macht die Sicherheit von generativer KI einzigartig?

Obwohl IBM umfassende Erfahrung im Bereich Sicherheit hat, sind die Risiken im Zusammenhang mit generativen KI-Workloads sowohl bekannt als auch neu. Die drei wesentlichen Pfeiler von IBMs Ansatz sind die Sicherung der Daten, des Modells und der Nutzung. Diese Grundsätze verdeutlichen die Notwendigkeit einer sicheren Infrastruktur und einer angemessenen KI-Governance während des gesamten Prozesses.

Sridhar Muppidi, IBM Fellow und CTO von IBM Security, hob hervor, dass grundlegende Praktiken der Datensicherheit, wie Zugriffskontrolle und Infrastruktursicherheit, auch bei generativer KI von entscheidender Bedeutung sind, ebenso wie in herkömmlichen IT-Umgebungen. Dennoch sind bestimmte Risiken spezifisch für generative KI. Beispielsweise beinhaltet Datenvergiftung die Einführung falscher Daten in einen Datensatz, was zu ungenauen Ergebnissen führt. Muppidi wies außerdem darauf hin, dass Probleme im Zusammenhang mit Verzerrung und Datenvielfalt sowie Datenverschiebung und Datenschutz besondere Aufmerksamkeit erfordern. Darüber hinaus stellt die Eingabeverfälschung—bei der Benutzer böswillig die Modelldaten durch Eingaben ändern—ein neues Risikogebiet dar, das neuartige Kontrollen erfordert.

Kernkonzepte der Sicherheit: MLSecOps, MLDR und AISPM

Das IBM-Framework zum Schutz von generativer KI ist nicht nur ein einzelnes Werkzeug, sondern eine Sammlung von Richtlinien und Empfehlungen zur Sicherung von generativer KI-Workflows. Mit der Entwicklung des Bereichs generative KI entstehen neue Sicherheitskategorien, darunter Machine Learning Detection and Response (MLDR), AI Security Posture Management (AISPM) und Machine Learning Security Operations (MLSecOps). MLDR konzentriert sich auf die Identifizierung potenzieller Risiken innerhalb von Modellen, während AISPM Ähnlichkeiten mit Cloud Security Posture Management (CSPM) aufweist und die Bedeutung einer ordnungsgemäßen Konfiguration und bewährter Praktiken für sichere Bereitstellungen betont.

Muppidi erklärte: „Ähnlich wie wir DevOps haben, das sich mit zusätzlicher Sicherheit zu DevSecOps entwickelt hat, stellt MLSecOps einen umfassenden Lebenszyklusansatz vom Design bis zur Nutzung dar, der Sicherheit durchgängig integriert.“ Dieses Framework positioniert Organisationen, um die Komplexität der Sicherheit in der generativen KI besser zu bewältigen und robuste Verteidigungen gegen aufkommende Bedrohungen zu gewährleisten.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles