Confluent präsentiert benutzerfreundliche Lösung zur Beschleunigung von Echtzeit-Streaming mit KI

Datenstreaming-Innovation: Höhepunkte des ersten Kafka Summits in Asien

Der Datenstreaming-Leiter Confluent veranstaltete kürzlich den ersten Kafka Summit in Bengaluru, Indien, der eine bemerkenswerte Teilnehmerzahl aus der Kafka-Community anlockte, von denen über 30% aus der Region stammen. Die Veranstaltung bot fesselnde Sessions mit Kunden und Partnern und unterstrich die wachsende Bedeutung von Echtzeit-Datenlösungen.

Keynote-Einsichten von Jay Kreps

In seiner Eröffnungsrede skizzierte CEO und Mitbegründer Jay Kreps seine Vision zur Schaffung universeller Datenprodukte, die Betrieb und Analyse verbessern. Er stellte mehrere anstehende Innovationen im Confluent-Ökosystem vor, insbesondere eine neue Funktion, die die Ausführung von Echtzeit-AI-Workloads vereinfacht.

Vereinfachte AI-Modell-Inferenz

Kreps betonte, dass dieses neue Angebot darauf abzielt, die Komplexität zu reduzieren, mit der Entwickler beim Management verschiedener Tools und Sprache für das Training und die Inferenz von AI-Modellen mit Live-Daten konfrontiert sind. Während einer Medienrunde erklärte der Chief Product Officer (CPO) von Confluent, Shaun Clowes, die Strategie für die Navigation in der modernen AI-Landschaft.

Die Evolution von Kafka

Vor einem Jahrzehnt verließen sich Unternehmen hauptsächlich auf Batch-Daten für Analysen, was ihre Fähigkeit einschränkte, die neuesten Informationen zu nutzen. Um diesem Problem zu begegnen, entstanden Open-Source-Technologien wie Apache Kafka, die Echtzeit-Datenbewegung, -management und -verarbeitung ermöglichen. Heute ist Apache Kafka die bevorzugte Lösung für Streaming-Daten in zahlreichen Unternehmen. Confluent, gegründet von Kreps—einem der ursprünglichen Schöpfer von Kafka—hat kommerzielle Produkte und Dienstleistungen rund um diese leistungsstarke Plattform entwickelt.

Zusätzlich zu Kafka erwarb Confluent im letzten Jahr Immerok, einen wichtigen Akteur im Apache Flink-Projekt, um seine Echtzeit-Datenverarbeitungsfähigkeiten zu erweitern, was effizientes Filtern, Zusammenführen und Anreichern von Datenströmen ermöglicht.

Spannende Entwicklungen in Echtzeit-AI

Auf dem Kafka Summit stellte Confluent die AI-Modell-Inferenz als Teil seiner cloudnativen Angebote für Apache Flink vor. Diese Innovation verbessert die Integration von AI und maschinellem Lernen in Streaming-Datenanwendungen. Clowes betonte, dass Kafka entwickelt wurde, um verschiedene Systeme in Echtzeit zu verbinden, und mit dem Aufstieg von AI haben sich die Möglichkeiten nur erweitert.

Früher standen Teams, die Flink einsetzen, vor Herausforderungen beim Aufrufen von AI mit Streaming-Daten, was erheblichen Programmieraufwand und Tool-Integration erforderte. Jetzt können Benutzer mit der AI-Modell-Inferenz einfache SQL-Anweisungen direkt innerhalb der Plattform nutzen, um auf AI-Engines von OpenAI, AWS SageMaker, Google Cloud Vertex und Microsoft Azure zuzugreifen, was die Zugänglichkeit und Effizienz verbessert.

Flexibilität bei der Modellauswahl

Der Plug-and-Play-Ansatz von Confluent ermöglicht den Benutzern Flexibilität bei der Auswahl von AI-Modellen, die auf ihre Bedürfnisse zugeschnitten sind. Während sich die Modellleistung weiterentwickelt, können Benutzer problemlos zwischen verschiedenen Modellen wechseln, ohne ihre zugrunde liegenden Datenpipelines zu ändern—was Anpassungsfähigkeit und Kosteneffizienz maximiert.

Clowes veranschaulichte dies mit einem Beispiel, das zwei Flink-Jobs betrifft: Ein Job verarbeitet Kundendaten und speichert Embeddings in einer Vektordatenbank, während der andere Inferenzanfragen bearbeitet. Dieser optimierte Ansatz ermöglicht schnelle Antworten auf Kundenanfragen.

Pläne für Expansion und Innovation

Aktuell ist die AI-Modell-Inferenz für ausgewählte Kunden verfügbar, mit Plänen für einen breiteren Zugang und zusätzliche Funktionen in den kommenden Monaten. Confluent will seine cloudnativen Angebote verbessern und einen generativen AI-Assistenten integrieren, der Benutzern bei ihren Programmier- und Arbeitsabläufen unterstützt.

Kosteneffiziente Lösungen mit Freight Clusters

Confluent stellte auch Freight Clusters vor, eine innovative Art von serverlosem Cluster, das Auto-Scaling und kosteneffektive Replikationsmethoden über Rechenzentren hinweg nutzt. Obwohl dies möglicherweise einige Verzögerungen einführt, können Kosteneinsparungen von bis zu 90% erzielt werden. Clowes bemerkte, dass diese Lösung ideal für spezifische Anwendungsfälle ist, wie die Verarbeitung von Logging- und Telemetriedaten.

Zukünftiges Wachstum in der APAC-Region

In der Zukunft äußerten Clowes und Kreps das Engagement von Confluent für die Expansion in der APAC-Region, insbesondere in Indien, wo sie planen, ihre Belegschaft um 25% zu erhöhen. Sie konzentrieren sich auch darauf, die Datenverwaltung und Self-Service-Funktionen im Streaming-Bereich zu verbessern, ein Bereich, der im Vergleich zu traditionellen Data Lakes noch unterentwickelt ist.

Zusammenfassend ist Confluent bereit, bedeutende Fortschritte im Echtzeit-Datenstreaming und der AI-Integration voranzutreiben, indem es weiterhin in dieser sich schnell entwickelnden Branche innoviert und sich anpasst.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles