Genau wie sich Cloud-Plattformen schnell entwickelt haben, um Unternehmensinfrastruktur bereitzustellen, sieht Menlo Ventures den modernen KI-Stack auf einem ähnlichen Wachstumspfad mit einem enormen Wertschöpfungspotenzial, vergleichbar mit öffentlichen Cloud-Plattformen.
Die Risikokapitalgesellschaft hebt hervor, dass die aktuellen foundationalen KI-Modelle die frühen Tage der öffentlichen Cloud-Dienste widerspiegeln. Um das Potenzial des sich entwickelnden Marktes auszuschöpfen, ist es entscheidend, das richtige Gleichgewicht zwischen KI und Sicherheit zu finden.
Im neuesten Blogbeitrag von Menlo Ventures, „Teil 1: Sicherheit für KI: Die neue Welle von Startups, die den KI-Stack sichern“, wird erläutert, wie die Schnittstelle von KI und Sicherheit neues Marktwachstum antreiben kann. Rama Sekhar, Partner bei Menlo Ventures mit Schwerpunkt auf Cybersicherheit, KI und Cloud-Infrastruktur, erklärt: „Ich ziehe die Analogie, dass diese foundationalen Modelle sehr ähnlich sind wie die öffentlichen Clouds, die wir heute kennen, wie AWS und Azure. Vor 12 bis 15 Jahren, als die Infrastruktur-as-a-Service-Schicht begann, erlebten wir immense Wertschöpfung, sobald das neue Fundament etabliert war.“
Sekhar fügte hinzu: „Wir glauben, dass etwas Ähnliches am Horizont steht; die Anbieter foundationaler Modelle befinden sich an der Basis des Infrastruktur-Stacks.“
Sicherheitsherausforderungen angehen, um das Wachstum von generativer KI zu beschleunigen
In einem Interview betonten Sekhar und Feyza Haskaraman, Principal bei Menlo Ventures mit Spezialisierung auf Cybersicherheit, SaaS, Lieferketten und Automatisierung, dass KI-Modelle zentral für einen modernen KI-Stack sind. Dieser Stack basiert auf einem kontinuierlichen Fluss sensibler Unternehmensdaten für das selbstlernende System. Sie merkten an, dass der Anstieg von KI zu einer exponentiellen Zunahme von Bedrohungsflächen führt, wobei große Sprachmodelle (LLMs) zu Hauptzielen werden.
Die Sicherung von LLMs mit den derzeit verfügbaren Tools gestaltet sich als herausfordernd, was eine Vertrauenslücke in Unternehmen schafft und die Akzeptanz generativer KI behindert. Diese Lücke ergibt sich aus der Diskrepanz zwischen dem Hype um generative KI und der tatsächlichen Implementierung. Währenddessen nutzen Angreifer zunehmend KI-basierte Techniken, was die Unternehmenssorgen bezüglich des Wettbewerbs in der KI verstärkt.
Um das wahre Markpotenzial generativer KI freizusetzen, glauben Sekhar und Haskaraman, dass es entscheidend ist, Sicherheitsbedenken anzugehen. Eine Umfrage von Menlo Ventures identifizierte drei zentrale Barrieren für die Akzeptanz generativer KI: unbewiesene ROI, Datenschutzprobleme und das Missverständnis, dass Unternehmensdaten schwer mit KI zu nutzen sind.
Die Verbesserung der Sicherheit für KI kann dazu beitragen, die Bedenken hinsichtlich des Datenschutzes zu mildern und gleichzeitig die anderen beiden genannten Barrieren anzugehen. Sie hoben hervor, dass die Modelle von OpenAI in letzter Zeit Cyberangriffen ausgesetzt waren, einschließlich eines DoS-Angriffs im letzten November, der ihre API und ChatGPT-Dienste betraf und zahlreiche Ausfälle zur Folge hatte.
Governance, Beobachtbarkeit und Sicherheit: Wesentliche Grundlagen
Menlo Ventures betont, dass Governance, Beobachtbarkeit und Sicherheit grundlegende Elemente sind, die notwendig sind, um die Sicherheit von KI zu skalieren. Diese Komponenten bilden das Fundament ihrer Marktstrategie.
Governance-Tools erleben ein rapides Wachstum. Medienberichte zeigen einen Anstieg bei KI-basierten Governance- und Compliance-Startups, insbesondere cloudbasierte Lösungen, die zeitliche Marktvorteile und globale Skalierbarkeit bieten. Tools wie Credo und Cranium unterstützen Unternehmen dabei, ihre KI-Dienste zu überwachen, Sicherheitsrisiken zu bewerten und umfassende Kenntnisse über die Nutzung von KI innerhalb der Organisation sicherzustellen - alles entscheidend für den Schutz und die Überwachung von LLMs.
Beobachtbarkeitstools sind entscheidend für die Überwachung von Modellen und das Aggregieren von Protokollen zu Zugriffen, Eingaben und Ausgaben, um Missbrauch zu erkennen und vollständige Prüfbarkeit zu gewährleisten. Menlo Ventures verweist auf Startups wie Helicone und CalypsoAI als Schlüsselakteure, die diese Bedürfnisse im Lösungsstack ansprechen.
Sicherheitslösungen konzentrieren sich darauf, Vertrauensgrenzen zu etablieren. Sekhar und Haskaraman plädieren für strenge Kontrollen rund um die Modellnutzung, sowohl intern als auch extern. Menlo Ventures zeigt besonderes Interesse an Anbietern von KI-Firewalls wie Robust Intelligence und Prompt Security, die Eingaben und Ausgaben validieren, sich vor Eingabe-Manipulationen schützen und persönlich identifizierbare Informationen (PII) erkennen. Unternehmen wie Private AI und Nightfall haben sich auf die Identifizierung und Schwärzung sensibler Daten spezialisiert, während Firmen wie Lakera und Adversa versuchen, Red-Teaming-Aktivitäten zu automatisieren, um die Robustheit von Sicherheitsmaßnahmen zu testen. Lösungen zur Bedrohungserkennung wie Hiddenlayer und Lasso Security sind ebenfalls entscheidend, um LLMs auf verdächtiges Verhalten zu überwachen. Darüber hinaus sind Lösungen wie DynamoFL und FedML für föderiertes Lernen, Tonic und Gretel zur Erstellung synthetischer Daten sowie Private AI oder Kobalt Labs zur Identifizierung sensibler Informationen integraler Bestandteil der nachfolgenden Sicherheitskarte für KI.
Sicherheit für KI im DevOps priorisieren
Da ein erheblicher Teil der Unternehmensanwendungen Open-Source-Lösungen nutzt, ist die Sicherung von Softwarelieferketten ein weiterer Bereich, in dem Menlo Ventures darauf abzielt, die Vertrauenslücke zu verringern.
Sekhar und Haskaraman sind der Ansicht, dass die Sicherheit von KI inhärent in den DevOps-Prozess integriert werden muss, um sicherzustellen, dass sie eine grundlegende Rolle in der Architektur von Unternehmensanwendungen spielt. Sie betonten, dass die Einbettung von Sicherheit für KI so allgegenwärtig sein sollte, dass ihr Schutzwert dazu beiträgt, die bestehende Vertrauenslücke zu überbrücken und somit die breitere Akzeptanz generativer KI zu erleichtern.