Neue Erkenntnisse von Menlo Security beleuchten die dringenden Cybersecurity-Herausforderungen, die durch die schnelle Einführung generativer KI in Unternehmen entstehen. Da Werkzeuge wie ChatGPT einen festen Platz in den täglichen Arbeitsabläufen einnehmen, müssen Unternehmen ihre Sicherheitsstrategien neu bewerten.
„Mitarbeiter setzen KI zunehmend in ihren täglichen Aufgaben ein. Unsere Kontrollen müssen nicht nur Missbrauch verhindern, sondern auch unregulierten Zugang ausschließen“, erklärte Andrew Harding, VP für Produktmarketing bei Menlo Security, in einem exklusiven Interview. „Obwohl die Nutzung generativer KI in Unternehmen erheblich zugenommen hat, stehen die Sicherheits- und IT-Teams weiterhin vor hartnäckigen Herausforderungen. Wir benötigen effektive Werkzeuge, die strenge Kontrollen für KI-Anwendungen anwenden, damit CISOs Risiken managen und gleichzeitig die Produktivitätsvorteile der generativen KI nutzen können.“
Ein Anstieg der KI-Nutzung trotz Risiken
Der Bericht von Menlo Security zeigt alarmierende Trends: Die Besuche auf generativen KI-Seiten in Unternehmen sind in den letzten sechs Monaten um über 100 % gestiegen, und die Zahl der häufigen Nutzer hat um 64 % zugenommen. Diese schnelle Integration hat neue Schwachstellen offengelegt.
Trotz der Bemühungen vieler Organisationen, Sicherheitsmaßnahmen für generative KI zu verbessern, stellen Forscher fest, dass die meisten ineffektive domänenbasierte Richtlinien implementieren. „Organisitionen stärken ihre Sicherheit, aber sie treffen nicht das Ziel. Domainbasierte Richtlinien reichen nicht aus“, betonte Harding.
Dieser fragmentierte Ansatz kann mit den neuaufkommenden generativen KI-Plattformen nur schwer Schritt halten. Der Bericht weist darauf hin, dass die versuchten Datei-Uploads auf generative KI-Websites in sechs Monaten um 80 % gestiegen sind, bedingt durch neue Funktionen. Die Risiken gehen über potenziellen Datenverlust hinaus.
Experten warnen, dass generative KI Phishing-Bedrohungen erheblich verstärken kann. Harding bemerkte: „KI-gestützte Phishing-Angriffe sind einfach raffiniertestes Phishing. Unternehmen benötigen einen Echtzeitschutz, um zu verhindern, dass KI-gesteuerte Betrügereien ein ernsthaftes Problem werden.“
Von der Neuheit zur Notwendigkeit
Der Aufstieg der generativen KI, insbesondere mit der Einführung von ChatGPT, hat sich von einer technologischen Neuheit zu einer geschäftlichen Notwendigkeit gewandelt. OpenAI führte im Juni 2018 GPT-1, sein generatives KI-System, ein. Darauf folgten Fortschritte wie Google Brains PaLM mit 540 Milliarden Parametern, die im April 2022 eingeführt wurden.
Die öffentliche Faszination wuchs mit der Einführung von DALL-E Anfang 2021, aber es war der Debüt von ChatGPT im November 2022, der ein breites Engagement hervorrief. Die Nutzer begannen schnell, diese Werkzeuge in verschiedenen Aufgaben zu integrieren, von der Erstellung von E-Mails bis zum Debuggen von Code, und demonstrierten die Vielseitigkeit der KI.
Allerdings bringt diese rasche Integration erhebliche Risiken mit sich, die oft übersehen werden. Generative KI-Systeme sind nur so sicher, ethisch und genau wie die Daten, die zu ihrer Ausbildung verwendet werden. Sie können unbeabsichtigt Vorurteile offenbaren, Fehlinformationen verbreiten und sogar sensible Informationen preisgeben.
Darüber hinaus ziehen diese Modelle Daten aus umfangreichen Teilen des Internets, was zu Herausforderungen bei der Kontrolle des aufgenommenen Inhalts führt. Wenn proprietäre Informationen öffentlich gepostet werden, können diese KI-Systeme diese unbeabsichtigt erfassen und später offenlegen.
Der Balanceakt zwischen Sicherheit und Innovation
Um effektiv Sicherheit und Innovation in Einklang zu bringen, plädieren Experten für einen mehrschichtigen Ansatz. Harding schlägt vor, „Kopier- und Einfügungsbeschränkungen einzuführen, Sicherheitsrichtlinien zu erstellen, Sitzungen zu überwachen und gruppenbasierte Kontrollen über generative KI-Plattformen durchzusetzen.“
Organisationen müssen aus vergangenen technologischen Wandel lernen. Technologien wie Cloud Computing und mobile Geräte haben von Natur aus neue Risiken eingeführt, was fortlaufende Anpassungen an den Sicherheitsstrategien erfordert. Derselbe proaktive Ansatz ist für die generative KI notwendig.
Es ist jetzt an der Zeit zu handeln. „Die Besuche auf generativen KI-Websites und die aktiven Nutzer steigen, aber Sicherheits- und IT-Teams stehen weiterhin vor Herausforderungen“, warnte Harding.
Um ihre Geschäftsabläufe zu schützen, müssen Unternehmen schnell ihre Sicherheitsstrategien anpassen, um mit der raschen Einführung generativer KI Schritt zu halten. Die Balance zwischen Sicherheit und Innovation ist entscheidend, damit die Risiken der generativen KI nicht außer Kontrolle geraten.