Eine kürzlich stattgefundene virtuelle Diskussion präsentierte Nir Valtman, CEO und Mitgründer von Arnica. Valtman bringt umfangreiche Erfahrung im Bereich Cybersicherheit mit, darunter seine vorherige Tätigkeit als CISO bei Kabbage (erworben von American Express), die Leitung von Produkt- und Datensicherheit bei Finastra sowie das Management der Anwendungssicherheit bei NCR. Er ist zudem Mitglied des Beratungsgremiums von Salt Security.
Als innovative Kraft in der Branche hat Valtman maßgeblich zu Open-Source-Projekten beigetragen und hält sieben Patente im Bereich der Software-Sicherheit. Er ist ein gefragter Redner auf bedeutenden Cybersicherheitsveranstaltungen wie Black Hat, DEF CON, BSides und RSA.
Unter Valtmans Leitung entwickelt Arnica die nächste Generation von Anwendungssicherheitswerkzeugen, die speziell auf die Bedürfnisse von Entwicklern zugeschnitten sind.
A Media: Wie sehen Sie die Rolle der generativen KI in der Cybersicherheit in den nächsten 3-5 Jahren?
Nir Valtman: Wir beginnen zu verstehen, wo generative KI den größten Nutzen bringen kann. Sie hat Potenzial in der Anwendungssicherheit, indem sie Entwicklern Werkzeuge zur Verfügung stellt, die standardmäßig sicher sind, insbesondere um weniger erfahrene Entwickler bei der Erreichung dieses Ziels zu unterstützen.
A Media: Welche aufkommenden Technologien oder Methoden beobachten Sie, die die Nutzung von generativer KI für die Sicherheit beeinflussen könnten?
Valtman: Es besteht ein wachsender Bedarf an umsetzbaren Maßnahmen zur Behebung von Sicherheitsanfälligkeiten. Dieser Prozess beginnt mit der Priorisierung kritischer Assets, der Identifizierung verantwortlicher Personen für die Behebung und einer effektiven Risikominderung. Generative KI wird eine wesentliche Rolle bei der Risikobehebung spielen, erfordert jedoch eine klare Priorisierung von Assets und Zuständigkeiten.
A Media: Wo sollten Organisationen Investitionen priorisieren, um das Potenzial der generativen KI in der Cybersicherheit zu maximieren?
Valtman: Organisationen sollten sich darauf konzentrieren, repetitive und komplexe Probleme anzugehen, wie die Minderung spezifischer Kategorien von Quellcodeanfälligkeiten. Während generative KI weitere Anwendungen demonstriert, werden sich die Investitionsprioritäten weiterentwickeln.
A Media: Wie kann generative KI den Sicherheitsansatz von reaktiv zu proaktiv verschieben?
Valtman: Damit generative KI wirklich vorhersagend ist, muss sie auf hochrelevanten Datensätzen trainiert werden. Ein genaueres Modell erhöht das Vertrauen in KI-gestützte Entscheidungen. Dieses Vertrauen aufzubauen, wird Zeit brauchen, insbesondere in kritischen Bereichen wie der Sicherheit. Sobald jedoch stabil, können generative KI-Tools Risiken proaktiv mit minimalem menschlichen Eingriff mindern.
A Media: Welche organisatorischen Veränderungen sind notwendig, um generative KI für die Sicherheit zu integrieren?
Valtman: Organisationen müssen strategische und taktische Anpassungen vornehmen. Entscheidungsträger müssen über die Vorteile und Risiken der KI-Technologie informiert werden und sich mit den Sicherheitszielen des Unternehmens abstimmen. Taktisch sollten Budgets und Ressourcen für die Integration von KI mit Asset-, Anwendungs- und Datenerkennungstools sowie die Entwicklung eines Aktionsplans zur Behebung bereitgestellt werden.
A Media: Welche Sicherheitsherausforderungen könnte generative KI mit sich bringen und wie können diese angegangen werden?
Valtman: Datenschutz und Datenlecks stellen erhebliche Risiken dar. Maßnahmen zur Minderung umfassen das Hosting von Modellen intern, die Anonymisierung von Daten vor der externen Verarbeitung und regelmäßige Compliance-Audits. Darüber hinaus erfordern Bedenken hinsichtlich der Integrität von Modellen, wie z.B. Model Poisoning, umfassende Schwachstellenbewertungen und fortgeschrittenes Penetration Testing.
A Media: Wie könnte generative KI Bedrohungserkennung, Sicherheitsupdates und andere Prozesse automatisieren?
Valtman: Generative KI kann Bedrohungen erkennen, indem sie historische Verhaltensmuster über verschiedene Datenquellen hinweg analysiert, einschließlich Netzwerkprotokollen und Transaktionen. Mögliche Anwendungsfälle könnten die Bedrohungsmodellierung während der Softwareentwicklung, die automatisierte Bereitstellung von Patches mit ausreichender Testabdeckung und selbstverbessernde Incident-Response-Protokolle umfassen.
A Media: Welche Pläne oder Strategien sollten Organisationen in Bezug auf generative KI und Datenschutz verfolgen?
Valtman: Organisationen müssen klare Richtlinien für die Datenerhebung, -speicherung, -nutzung und -weitergabe festlegen und dabei definierte Rollen und Verantwortlichkeiten sicherstellen. Diese Richtlinien sollten mit einer übergreifenden Cybersicherheitsstrategie übereinstimmen, um Datenschutzfunktionen wie Incident Response, Datenverletzungsbenachrichtigung und Risikomanagement bei Dritten zu erleichtern.