Chet Kapoor, CEO von DataStax – einem Cloud-Datenbankunternehmen, das die Open-Source-Technologie Apache Cassandra nutzt – erklärte auf der AI.Dev-Konferenz im Silicon Valley, dass Cassandra die "beste Datenbank für generative KI" sei.
AI-Agenten stehen vor der Tür
Kapoor äußerte seine Gedanken vor 700 Zuhörern während der Veranstaltung der Linux Foundation und betonte den erbitterten Wettbewerb unter Start-ups und etablierten Unternehmen, die um die Führung im schnell wachsenden Bereich der generativen KI kämpfen. Während Unternehmen verschiedene Technologielösungen erkunden, wird die Wahl der Datenbankanbieter entscheidend. Auch wenn große Anbieter wie OpenAI, Anthropic, Google (Gemini) und Meta (Llama) viel Aufsehen erregen, ist der Wettbewerb um die Marktführerschaft unter den Datenbank-Unternehmen, die LLM-Anwendungen unterstützen, ebenso intensiv.
In seiner Hauptrede hob Kapoor mehrere Gründe hervor, warum die Cassandra-Datenbank von DataStax heraussticht. Vor allem ist sie eine der zuverlässigsten operativen Datenbanken, die von Unternehmen bevorzugt wird. Viele Organisationen haben generative KI erfolgreich in großem Maßstab mit Cassandra implementiert, und ihre technologischen Vorteile helfen, Konkurrenten wie MongoDB und Pinecone zu übertreffen.
DataStax erwägt zudem einen Börsengang, und Kapoor scheint daran interessiert, das Interesse zu wecken. Im Juni vergangenen Jahres sammelte das Unternehmen 115 Millionen Dollar bei einer Bewertung von 1,6 Milliarden Dollar. Während DataStax keine finanziellen Details veröffentlicht hat, bemerkte Kapoor, dass die Firma für Banken, die Unternehmen 2024-2025 an die Börse bringen möchten, interessant sei.
Kapoor’s Schlüsselpunkte:
1. Beliebtheit und Zuverlässigkeit von Cassandra
Cassandra ist eine führende operative Datenbank, insbesondere da Unternehmen wie Microsoft und Amazon ihre Cloud-Dienste mit integrierten Datenbanken für generative KI anbieten. Diese Tech-Riesen haben Nutzer durch die Beseitigung von Hürden, einschließlich komplexer Datenmigrationen, zur Nutzung ihrer Plattformen angeregt. Kapoor kritisierte humorvoll, dass diese Cloud-Anbieter Lösungen zu kompliziert machen: "Es gibt eine für den Gang zur Toilette am Morgen… und dann eine für den Nachmittag und eine für den Abend." Er erklärte, dass generative KI CIOs in Unternehmen dazu veranlasst hat, integrierte Datenbanken für nahtlose Abfragen zu suchen, ein Bereich, in dem Cassandra glänzt. Im Gegensatz dazu konzentrieren sich die Datenbanken von Microsoft und Amazon typischerweise auf analytische Arbeitslasten, was zu kostspieligen Ineffizienzen bei operativen Aufgaben im Zusammenhang mit generativer KI führen kann. DataStax priorisiert Kosteneffektivität und Leistung, was Fortune-500-Kunden anspricht. Zu den prominenten Nutzern von Cassandra gehören Netflix für Filmdaten, FedEx für Paketverfolgung, Apple für iCloud- und iMessage-Daten sowie Home Depot für Website-Operationen. Während Organisationen neue KI-Anwendungen entwickeln, ermutigt ihr bisheriger Erfolg mit Cassandra zu einer fortlaufenden Fokussierung auf diese Technologie.
2. Aktive Implementierungen von generativer KI
Kapoor hob neun Unternehmen hervor, die die Astra DB-Cloud-Datenbank von DataStax für generative KI nutzen. Während viele Unternehmen mit generativer KI experimentieren, haben nur wenige in die großangelegte Produktion gewechselt, hauptsächlich wegen Bedenken hinsichtlich Sicherheit und Zuverlässigkeit. Mit dem zunehmenden Druck in der Branche wird für das kommende Jahr ein Wandel hin zu tatsächlichen Implementierungen erwartet. Einige bemerkenswerte Kunden, die LLMs einsetzen, sind:
- Physics Wallah: Eine indische Bildungsplattform mit 6 Millionen Nutzern und einem vielseitigen LLM-getriebenen Bot, der in nur 55 Tagen entwickelt wurde.
- Skypoint: Ein Gesundheitsdienst für Senioren, der ein LLM zur personalisierten Behandlungsplanung nutzt und Ärzten über 10 Stunden pro Woche frei gibt.
Weitere Kunden sind Hey You, Reel Star, Arre, Hornet, Restworld, Sourcetable und Concide. Kapoor bemerkte, dass kleine und mittelständische Unternehmen sich schnell anpassen können, während größere Unternehmen mehr regulatorische Hürden zu überwinden haben.
3. Überlegene Technologie-Performance
Kapoor betonte die Fortschritte von DataStax bei den Vektorsuchfunktionen von Astra, einem entscheidenden Element für generative KI-Datenbanken. Die JVector-Technologie von Astra bietet eine um 16 % höhere Relevanz im Vergleich zum führenden Wettbewerber Pinecone. Dies ist entscheidend für die Sicherstellung präziser Ergebnisse. Ein bevorstehender Benchmark-Bericht wird weitere Einblicke geben, aber vorläufige Ergebnisse zeigen, dass Astra eine überlegene Transaktionsverarbeitung im Vergleich zu sowohl Pinecone als auch MongoDB bietet. Astra DB bietet einzigartig null Latenz beim Zugriff auf vektorisierte Daten, von der Indizierung bis zur Abfrage.
Blick in die Zukunft: Schnelle Akzeptanz von generativer KI
Kapoor prognostizierte, dass die Akzeptanz von generativer KI schneller erfolgen wird als frühere technologische Revolutionen und bestehende Rahmenwerke wie Web-, Mobile- und Cloud-Technologien aufgreifen wird. Er erwartet, dass im nächsten Jahr transformative Nutzungsmöglichkeiten entstehen werden, darunter fortschrittliche LLM-Funktionen, die es KI-Agenten ermöglichen, komplexe Aufgaben zu erfüllen. Wesentliche Einnahmen aus Integrationen mit generativer KI könnten bereits im zweiten Quartal 2024 sichtbar werden, insbesondere in Sektoren wie Einzelhandel und Reisen. Während Kapoor und Anuff die Stärken von Cassandra hervorhoben, erkannten sie an, dass generative KI den gesamten Datenbanksektor antreiben wird. Die Anforderungen an KI-Anwendungen erfordern mehr Speicher- und Rechenressourcen, was das Interesse von Cloud- und Datenbankanbietern weckt. "Wenn KI-Anwendungen relevant werden, werden sie der primäre Wachstumstreiber für sowohl private als auch öffentliche Datenbankunternehmen in den nächsten fünf Jahren sein", erklärte Anuff.