Sicherheitsteams ziehen zunehmend innovative Werkzeuge wie ChatGPT in Betracht, um ihre Bedrohungserkennungsstrategien zu verbessern. Laut Dennis Xu, Senior Director und Analyst bei Gartner, bieten generative KI-Tools wie ChatGPT vielversprechendes Potenzial für Sicherheitsfachleute—insbesondere in Bereichen wie Detection Engineering und Schulung—doch die Kosten für Premium-Versionen können eine Hürde darstellen.
Auf dem Gartner Security & Risk Management Summit in London wies Xu darauf hin, dass die kostenlose Basisversion von ChatGPT, die auf dem GP-3.5 Turbo-Modell basiert, Schwierigkeiten mit der Kontextbewahrung und Programmieraufgaben hat. Daher müssen Sicherheitsfachleute möglicherweise auf das $20 pro Monat teure ChatGPT Plus oder die neue ChatGPT Enterprise-Version umsteigen, um die für ihre Aufgaben erforderliche Funktionalität zu erreichen. Mit zunehmender Skalierung der Organisationen können diese Kosten erheblich steigen, abhängig von der Anzahl der Nutzer.
Xu betonte, dass die Enterprise-Version im Vergleich zu ihren Basis- und Plus-Varianten verbesserte Datenkontrolle bietet, warnte jedoch, dass sie möglicherweise noch nicht vollständig einsatzbereit ist. Trotz dieser Einschränkung arbeiten zahlreiche große Sicherheitsanbieter aktiv an generativen KI-Funktionen. Beispielsweise zielt Ciscols Übernahme von Splunk darauf ab, die Datenanalysefähigkeiten zu stärken, während Privacera im Juni eine generative KI-Lösung eingeführt hat. Nvidia hat zudem seine Deep-Learning-Sicherheitssoftware-Bibliothek Morpheus als Teil der AI Enterprise 3.0-Suite vorgestellt. Xu beobachtete einen Trend, bei dem Unternehmen die natürliche Sprachschnittstelle von ChatGPT in bestehende Produkte integrieren, um die Funktionalität zu optimieren.
Obwohl innovative Sicherheitswerkzeuge wie WormGPT und FraudGPT entwickelt wurden, die dazu bestimmt sind, "Scammer zu betrügen", warnte Xu, dass auch der Zugang zu diesen Lösungen Investitionen erfordert. Er stellte fest, dass weit verbreitete Modelle wie ChatGPT ähnliche Funktionen erfüllen können, wie das Erzeugen von Phishing-E-Mails. Diese Situation hat das geschaffen, was Xu als „Rüstungswettlauf“ im Bereich der KI-Sicherheit bezeichnet, wobei böswillige Akteure oft im Vorteil sind. „Für nur $20 im Monat kann ein böswilliger Nutzer Malware entwickeln oder Phishing-E-Mails erstellen, während Verteidiger deutlich höhere Kosten haben, um ähnliche Effizienzen zu erreichen“, betonte er.
Das Verständnis der Einschränkungen von KI-Tools ist entscheidend. Xu verglich ChatGPT mit einem fünfjährigen Kind, das auf einem umfangreichen Datensatz trainiert wurde: Es kann für bestimmte Sicherheitsaufgaben nützlich sein, ist jedoch für andere schlecht gerüstet. "Es gibt Fragen, die man einem fünfjährigen Kind einfach nicht stellen würde“, scherzte er und betonte die Bedeutung realistischer Erwartungen und Validierung. Im Bereich der Sicherheitsoperationen (SecOps) kann die Bestimmung der Genauigkeit von KI-generierten Einsichten eine Herausforderung darstellen.
Xu stellte auch das Fehlen robuster Anwendungsfälle für KI-Systeme im Schwachstellenmanagement oder im Management von Angriffsflächen fest und hob Google’s Sec-PaLM als das einzige etablierte Bedrohungserkennungs-Sprachmodell hervor, das schädliche Skripte erkennen kann. Dennoch bemerkte er, dass es sich noch in der frühen Phase befindet und bisher keine Benchmarks veröffentlicht wurden.
Für Sicherheitsteams, die KI-Tools wie ChatGPT implementieren möchten, ist es wichtig, klare Governance-Regeln und Playbooks aufzustellen. „Versteht, wann und wie ihr KI-Tools nutzen könnt, und legt klare SecOps-Anwendungsfälle fest“, riet er. Xu betonte die Bedeutung, zeitkritische Fälle und Szenarien mit sensiblen Unternehmensdaten zu vermeiden und empfahl, Schulungen zu KI-Interaktionen durchzuführen und Überwachungsprotokolle zu implementieren.
Das Bewusstsein für KI-Drift ist ebenfalls entscheidend. Generative KI-Tools liefern möglicherweise keine konsistenten Antworten auf dieselbe Anfrage. Zudem ermutigte Xu die Teams, über Updates zur Technologie selbst informiert zu bleiben. OpenAI hat kürzlich neue Funktionen für ChatGPT mit GPT-4V eingeführt, die Sprach- und Bildinteraktionen ermöglichen. Xu zeigte sich begeistert von diesem Potenzial und stellte sich Szenarien vor, in denen Teams intuitiver mit ihren Systemen interagieren könnten, indem sie einfach ein Bild aufnehmen und nach Diagnosen fragen.
Letztlich sind KI-Tools wie ChatGPT zwar bereit, Sicherheitsprofis bei der Optimierung ihrer Arbeitsabläufe zu unterstützen, nicht jedoch dazu gedacht, menschliche Expertise zu ersetzen. Xu warnte, dass „diese Technologie noch ein fünfjähriges Kind ist“, das viel lernen muss, und betonte die Bedeutung eines überlegten und effektiven Einsatzes dieser Tools während ihrer Weiterentwicklung.