Zscaler verzeichnet einen Anstieg von 600% bei der Nutzung von Enterprise-KI innerhalb weniger als eines Jahres und hebt die Risiken für die Datensicherheit hervor.

Unternehmen setzen zunehmend auf Künstliche Intelligenz (KI) und Machine Learning (ML) Tools, wobei die Transaktionen um fast 600% gestiegen sind. Dieser Anstieg ging von 521 Millionen im April 2023 auf 3,1 Milliarden bis Januar 2024. Als Reaktion auf erhöhte Sicherheitsbedenken haben Organisationen 18,5% aller KI/ML-Transaktionen blockiert, was einem erstaunlichen Anstieg von 577% in nur neun Monaten entspricht.

CISOs und die von ihnen geschützten Organisationen haben gute Gründe für ihren vorsichtigen Ansatz, was zu beispiellosen Blockierungen von KI/ML-Transaktionen führt. Angreifer haben sich angepasst und nutzen große Sprachmodelle (LLMs), um unbemerkt in Organisationen einzudringen. Dieser Anstieg von feindlicher KI stellt eine wachsende Bedrohung dar, die oft unbemerkt bleibt.

Laut dem Zscaler ThreatLabz 2024 AI Security Report müssen Unternehmen skalierbare Cybersicherheitsstrategien annehmen, um ihre wachsenden KI/ML-Tools zu schützen. Wichtige Themen in dem Bericht umfassen Datenschutz, Management der Datenqualität in der KI und Datenschutzbedenken. ThreatLabz analysierte über 18 Milliarden Transaktionen von April 2023 bis Januar 2024 und untersuchte die aktuelle Nutzung von KI- und ML-Tools in verschiedenen Sektoren.

Branchen wie Gesundheitswesen, Finanzen, Versicherungen, Dienstleistungen, Technologie und Fertigung verzeichnen sowohl eine signifikante Einführung von KI/ML-Tools als auch eine erhöhte Anfälligkeit für Cyberangriffe. Die Fertigung erzeugt das höchste Volumen an KI-Traffic und macht 20,9% der Transaktionen aus, gefolgt von Finanzen und Versicherungen mit 19,9% und Dienstleistungen mit 16,8%.

Das Blockieren von Transaktionen stellt eine kurzfristige, aber schnelle Reaktion dar. Im Bemühen, sich gegen potenzielle Cyberangriffe abzusichern, blockieren CISOs und ihre Teams Rekordzahlen von KI/ML-Transaktionen. Diese proaktive Maßnahme zielt darauf ab, hochriskante Sektoren vor einer Welle von Cyberbedrohungen zu schützen.

Aktuell ist ChatGPT das am häufigsten genutzte und blockierte KI-Tool, gefolgt von OpenAI, Fraud.net, Forethought und Hugging Face. Zu den am häufigsten blockierten Domains gehören Bing.com, Divo.ai, Drift.com und Quillbot.com. Zwischen April 2023 und Januar 2024 blockierten Unternehmen über 2,6 Milliarden Transaktionen.

In der Fertigung werden nur 15,65% der KI-Transaktionen blockiert, eine besorgniserregend niedrige Zahl angesichts der Anfälligkeit für Cyberangriffe, insbesondere Ransomware. Im Gegensatz dazu blockiert der Finanz- und Versicherungssektor 37,16% der Transaktionen, was auf gestiegene Datenschutz- und Sicherheitsbedenken hinweist. Alarmierend ist, dass die Gesundheitsbranche lediglich 17,23% der KI-Transaktionen blockiert, was Fragen zu ihrem Engagement für den Schutz sensibler Daten aufwirft.

Störungen in kritischen Sektoren wie Gesundheitswesen und Fertigung können erhebliche Ransomware-Zahlungen nach sich ziehen. Der kürzliche Ransomware-Angriff auf United Healthcare zeigt, wie ein koordinierter Angriff ganze Lieferketten lahmlegen kann.

Das Blockieren ist eine kurzfristige Lösung für eine viel umfassendere Herausforderung. Um über bloßes Blockieren hinauszugehen, sollten Organisationen die Telemetrie-Funktionen fortschrittlicher Cybersicherheitsplattformen nutzen. CrowdStrike, Palo Alto Networks und Zscaler gehören zu den Unternehmen, die Erkenntnisse aus Telemetriedaten fördern.

CrowdStrike-CEO George Kurtz betonte die Bedeutung, schwache Signale von verschiedenen Endpunkten zu verknüpfen, um die Erkennungsmöglichkeiten zu verbessern. Dieser Ansatz erstreckt sich auch auf die Zusammenarbeit mit Dritten und ermöglicht tiefere Einblicke sowie verbesserte Neu-Entdeckungen.

Wichtige Anbieter von Cybersicherheit mit umfangreicher Erfahrung in KI und jahrzehntelanger ML-Expertise sind Blackberry Persona, Broadcom, Cisco Security, CrowdStrike, CyberArk, Cybereason, Ivanti, SentinelOne, Microsoft, McAfee, Sophos und VMware Carbon Black. Diese Unternehmen werden voraussichtlich ihre LLMs mit KI-gesteuerten Angriffsdatensätzen trainieren, um mit den raffinierten Methoden der Angreifer Schritt zu halten.

Eine neue, gefährlichere Bedrohungslandschaft durch KI ist entstanden. Laut dem Zscaler-Bericht können KI-gesteuerte Risiken in zwei Hauptbereiche kategorisiert werden: die Sicherheits- und Datenschutzrisiken im Zusammenhang mit Unternehmens-KI-Tools und die neue Cyber-Bedrohungslandschaft, die durch generative KI und Automatisierung angetrieben wird.

CISOs stehen vor enormen Herausforderungen, um sich gegen verschiedene im Bericht beschriebene KI-Angriffstechniken zu verteidigen. Die Behandlung der Nachlässigkeit von Mitarbeitern im Umgang mit ChatGPT und die Sicherstellung, dass vertrauliche Daten nicht versehentlich geteilt werden, sollten zentrale Themen auf der Vorstandsebene sein. Ein prioritärer Umgang mit Risikomanagement ist entscheidend für jede robuste Cybersicherheitsstrategie.

Der Schutz des geistigen Eigentums vor Leaks über ChatGPT, die Kontrolle von Shadow AI und die Gewährleistung von Datenschutz und Sicherheit sind integrale Bestandteile einer erfolgreichen KI/ML-Strategie. Im vergangenen Jahr teilte Alex Philips, CIO bei National Oilwell Varco (NOV), Einblicke zu generativer KI mit seinem Vorstand und betonte die Bedeutung des Verständnisses sowohl der Vorteile als auch der Risiken von ChatGPT. Philips informiert den Vorstand regelmäßig über Entwicklungen in den Technologien der generativen KI und fördert somit eine informierte Erwartung über potenzielle Sicherheitsmaßnahmen, die zur Verhinderung schwerwiegender Verstöße erforderlich sind.

Ein Gleichgewicht zwischen Produktivität und Sicherheit zu finden, ist entscheidend, um die Herausforderungen der neuen Bedrohungslandschaft durch KI zu bewältigen. Der CEO von Zscaler war selbst Ziel eines Vishing- und Smishing-Versuchs, bei dem Angreifer ihn in WhatsApp-Nachrichten nachahmten, um einen Mitarbeiter zu täuschen und sensible Informationen zu enthüllen. Glücklicherweise konnten die Systeme von Zscaler den Angriff abwehren, was auf einen wachsenden Trend hinweist, der sich gegen hochrangige Führungskräfte und Technologieführer richtet.

Angreifer nutzen zunehmend KI, um schnelle Ransomware-Angriffe zu orchestrieren. Zscaler berichtet, dass KI-gesteuerte Ransomware ein Werkzeug im Arsenal staatlich unterstützter Hacker ist und ihre Häufigkeit zunimmt. Durch den Einsatz generativer KI erstellen Angreifer umfassende Tabellen von Schwachstellen in den Firewalls und VPNs einer Organisation. Diese Informationen ermöglichen es ihnen, Code-Ausnutzungen zu optimieren und Payloads auf spezifische Umgebungen zuzuschneiden.

Darüber hinaus hebt Zscaler hervor, wie generative KI Schwächen innerhalb von Unternehmenslieferketten identifizieren kann, um optimale Verbindungspfade zum Kernnetzwerk zu finden. Während starke Sicherheitsmaßnahmen implementiert sein mögen, stellen nachgelagerte Schwachstellen oft das größte Risiko dar. Angreifer verfeinern kontinuierlich ihre Taktiken mithilfe generativer KI, was zu raffinierten und gezielten Angriffen führt, die zunehmend schwerer zu erkennen sind.

Letztendlich haben es die Gegner darauf abgesehen, generative KI in die gesamte Ransomware-Angriffs-Kette zu integrieren, um die Aufklärung und Code-Ausnutzung zu automatisieren und somit fortschrittliche polymorphe Malware und Ransomware zu generieren. Indem sie kritische Komponenten des Angriffsprozesses optimieren, können Bedrohungsakteure schneller, gezielter und raffinierter gegen Unternehmen vorgehen.

Most people like

Find AI tools in YBX