Enkrypt sichert sich Seed-Finanzierung zur Entwicklung einer 'Kontrollschicht' für sichere generative KI.

Enkrypt AI sichert sich 2,35 Millionen Dollar Seed-Finanzierung für Sicherheit von generativer KI

Das in Boston ansässige Startup Enkrypt AI, das sich auf die Bereitstellung einer Kontrollschicht zur sicheren Nutzung generativer KI spezialisiert hat, hat erfolgreich 2,35 Millionen Dollar in einer Seed-Finanzierungsrunde unter der Leitung von Boldcap gesammelt. Obwohl diese Investition im Vergleich zu typischen KI-Finanzierungen bescheiden ist, adressiert Enkrypt mit seiner innovativen Lösung ein entscheidendes Bedürfnis: die private, sichere und compliant Implementierung von generativen KI-Modellen. Gegründet von Yale-PhD-Absolventen Sahil Agarwal und Prashanth Harshangi, behauptet Enkrypt, dass die Technologie die Akzeptanz generativer KI in Unternehmen erheblich steigern und die Bereitstellung um bis zu das Zehnfache beschleunigen kann.

Harshangi bemerkte: „Wir fördern ein Paradigma, in dem Vertrauen und Innovation zusammenkommen, wodurch die Einführung von KI-Technologien mit der Gewissheit ermöglicht wird, dass sie genauso sicher und zuverlässig wie revolutionär sind.“

Neben Boldcap zählen zu den bemerkenswerten Unterstützern der Seed-Runde auch Berkeley SkyDeck, Kubera VC, Arka VC, Veredas Partners, Builders Fund und mehrere Engel-Investoren aus den Bereichen KI, Gesundheitswesen und Unternehmen.

Was bietet Enkrypt AI an?

Mit der steigenden Nachfrage nach generativer KI sind viele Unternehmen bestrebt, diese Technologie zur Verbesserung von Arbeitsabläufen und zur Steigerung der Effizienz zu nutzen. Allerdings gibt es bei der Bereitstellung grundlegender Modelle Sicherheitsherausforderungen, darunter der Schutz der Datenprivatsphäre, die Abwehr von Sicherheitsbedrohungen und die Sicherstellung der Einhaltung von Vorschriften sowohl vor als auch nach der Bereitstellung.

Derzeit verwalten die meisten Organisationen diese Probleme manuell über interne Teams oder externe Berater. Dieser traditionelle Ansatz, obwohl er funktional ist, erweist sich als zeitaufwendig und kann KI-Projekte um bis zu zwei Jahre verzögern, was zu verpassten Geschäftsmöglichkeiten führt.

Gegründet im Jahr 2023, zielt Enkrypt darauf ab, diese Lücke mit Sentry zu schließen, einer All-in-One-Lösung, die Einblick in die Nutzung und Leistung von Large Language Models (LLMs) über Unternehmensfunktionen hinweg bietet. Sentry schützt vertrauliche Informationen, wehrt Sicherheitsbedrohungen ab und stellt durch automatisierte Überwachung sowie robuste Zugangskontrollen die Einhaltung von Vorschriften sicher.

„Sentry fungiert als sicheres Unternehmensgateway, das Modellzugangskontrollen mit Datenprivatsphäre und Modellsicherheit kombiniert“, erklärte CEO Sahil Agarwal. „Es leitet alle LLM-Interaktionen durch unsere proprietären Schutzmaßnahmen, um Datenpannen zu verhindern und die Einhaltung von Vorschriften aufrechtzuerhalten.“

Sicherheit und Compliance für generative KI verbessern

Die Schutzmaßnahmen von Sentry, die auf der proprietären Technologie von Enkrypt basieren, verhindern proaktiv Prompt-Injection-Angriffe und Datenanfälligkeiten. Diese Lösung kann Modell-Daten bereinigen und sensible persönliche Informationen anonymisieren, während sie KI-generierte Inhalte kontinuierlich auf Toxizität und Relevanz überwacht.

CISOs und Produktleiter erhalten vollständige Transparenz über alle generativen KI-Initiativen, was ihnen ermöglicht, die Schutzmaßnahmen von Enkrypt effektiv umzusetzen, wodurch regulatorische, finanzielle und reputationsbezogene Risiken minimiert werden.

Auswirkungen von Sentry auf Schwachstellen von generativer KI testen

Obwohl Enkrypt noch vor der Umsatzphase steht und noch keine spezifischen Wachstumskennzahlen mitteilt, wird die Sentry-Technologie von mittelgroßen bis großen Unternehmen in regulierten Sektoren wie Finanzen und Biowissenschaften bewertet.

Ein Fortune-500-Unternehmen, das das Llama2-7B-Modell von Meta verwendet, erlebte beispielsweise eine Verringerung der Jailbreak-Schwachstellen von 6 % auf 0,6 % nach der Implementierung von Sentry. Diese Verbesserung ermöglichte es dem Unternehmen, LLMs schneller zu übernehmen – von Jahren auf Wochen für verschiedene Anwendungen in verschiedenen Abteilungen.

Agarwal hob hervor, dass Unternehmen umfassende Lösungen suchen, anstatt mehrere Einzellösungen zu nutzen, um mit sensiblen Datenlecks, Prompt-Injection-Angriffen und Compliance-Management umzugehen, was die einzigartige All-in-One-Natur ihres Angebots unterstreicht.

Für die Zukunft plant Enkrypt, seine Lösung auf eine breitere Palette von Unternehmen auszuweiten und ihre Fähigkeiten in verschiedenen Modellen und Umgebungen zu demonstrieren. Dieser Schritt ist entscheidend, da die Priorisierung von Sicherheit für jede Organisation, die generative KI-Lösungen entwickelt oder einführt, unerlässlich geworden ist.

„Wir arbeiten derzeit mit Designpartnern zusammen, um das Produkt zu verfeinern. Unser Hauptwettbewerber ist Protect AI, der kürzlich Laiyer AI übernommen hat, um sein Sicherheits- und Compliance-Angebot zu erweitern“, bemerkte Agarwal.

Darüber hinaus hat die NIST-Standardschriftstelle der US-Regierung ein KI-Sicherheitskonsortium mit über 200 Unternehmen gegründet, um grundlegende Standards für die Messung der KI-Sicherheit zu entwickeln.

Most people like

Find AI tools in YBX