Heute hat der in Montana ansässige Daten-als-Service- und Cloud-Speicheranbieter Snowflake Cortex vorgestellt, einen vollständig verwalteten Service, der große Sprachmodelle (LLMs) in die Snowflake-Daten-Cloud integriert. Die Enthüllung fand auf dem jährlichen Snowday-Event statt. Cortex bietet Unternehmen, die die Snowflake-Daten-Cloud nutzen, eine Reihe von KI-Tools, einschließlich Open-Source-LLMs, um Daten zu analysieren und Anwendungen für verschiedene geschäftsspezifische Anwendungsfälle zu entwickeln.
„Mit Snowflake Cortex können Unternehmen schnell große Sprachmodelle nutzen, maßgeschneiderte LLM-gesteuerte Anwendungen in Minuten entwickeln und die Kontrolle über ihre Daten behalten—so wird die Nutzung von generativer KI für das Unternehmenswachstum revolutioniert“, erklärte Sridhar Ramaswamy, SVP für KI bei Snowflake.
Cortex ist ab sofort in der privaten Vorschau verfügbar und umfasst eine Suite von aufgabenbasierten Modellen, die bestimmte Funktionen innerhalb der Daten-Cloud verbessern. Snowflake plant, diesen Service für drei ihrer generativen KI-Tools zu nutzen: Snowflake Copilot, Universal Search und Document AI.
LLM-Anwendungen mit Cortex entwickeln
Während Unternehmen eager sind, generative KI zu nutzen, kämpfen viele mit den Herausforderungen der Technologieimplementierung, darunter der Bedarf an spezialisiertem Talent und die Verwaltung komplexer GPU-Infrastrukturen. Snowflake Cortex zielt darauf ab, diesen Prozess zu vereinfachen.
Der Service bietet den Nutzern eine Reihe von serverlosen KI-Funktionen, sowohl spezialisierte als auch allgemeine. Diese Funktionen können mit einfachen SQL- oder Python-Aufrufen aktiviert werden, sodass Benutzer funktionale KI-Anwendungen auf der kosteneffizienten Infrastruktur von Cortex initiieren können.
Architektur von Snowflake Cortex
Die spezialisierten Funktionen nutzen Sprach- und maschinelle Lernmodelle, um spezifische analytische Aufgaben mit natürlichen Spracheingaben zu erleichtern. Diese Modelle können beispielsweise Antworten extrahieren, Daten zusammenfassen und Sprachen übersetzen. Außerdem können sie Prognosen basierend auf bereitgestellten Daten erstellen oder Anomalien erkennen.
Im Gegensatz dazu bieten allgemeine Funktionen Entwicklern eine Vielzahl von Modellen, von Open-Source-LLMs wie Llama 2 bis zu Snowflakes proprietären Modellen, darunter eines, das Texteingaben in SQL umwandelt, um Daten abzufragen. Besonders wichtig ist, dass diese allgemeinen Funktionen Vektor-Einbettung und Suchfähigkeiten umfassen, die es Benutzern ermöglichen, Antworten basierend auf ihren Daten zu kontextualisieren und maßgeschneiderte Anwendungen für verschiedene Anwendungsfälle zu erstellen, unterstützt durch Streamlit in Snowflake.
„Das ist fantastisch für unsere Nutzer, denn sie müssen keine Ressourcen bereitstellen“, erklärte Ramaswamy. „Wir übernehmen die Bereitstellung und Implementierung, ähnlich wie bei einer API, vergleichbar mit Angeboten von OpenAI, jedoch vollständig innerhalb von Snowflake. Unsere Kunden können sicher sein, dass ihre Daten isoliert und sicher bleiben, ohne Risiken durch das Training über Kunden hinweg.“
Ramaswamy betonte, dass umfangreiche Programmierkenntnisse nicht erforderlich sind; Nutzer können innerhalb von SQL arbeiten, um ihre Aufgaben zu erfüllen.
Auf der Anwendungsseite können Nutzer einfach konversationsbasierte Chatbots entwickeln, die auf ihr spezifisches Geschäftswissen zugeschnitten sind, wie beispielsweise einen Copilot für Hilfsinhalte.
Native LLM-Erfahrungen mit Cortex
Obwohl Cortex gerade erst für die Unternehmensnutzung angekündigt wurde, verbessert Snowflake bereits seine Plattform mit drei von Cortex getriebenen Funktionen in der privaten Vorschau: Snowflake Copilot, Universal Search und Document AI.
Snowflake Copilot fungiert als konversationeller Assistent, der es Nutzern ermöglicht, Fragen zu ihren Daten in einfacher Sprache zu stellen, SQL-Abfragen zu erstellen, diese zu verfeinern und Erkenntnisse zu gewinnen.
Universal Search integriert LLM-gestützte Suchfunktionen, die Nutzern helfen, wertvolle Daten und Anwendungen schnell zu identifizieren, die relevant für ihre Bedürfnisse sind.
Document AI unterstützt bei der Extraktion von Informationen aus unstrukturierten Dokumenten, die in der Snowflake-Daten-Cloud gespeichert sind, wie z.B. Rechnungsbeträgen oder Vertragsbedingungen.
Andere Akteure in der Datenbranche, wie Databricks, haben ähnliche Fähigkeiten eingeführt, darunter den jüngsten Start von LakehouseIQ, was den Wettbewerb mit Snowflake stärkt. Informatica und Dremio bieten ebenfalls LLM-Lösungen an, die es Unternehmen ermöglichen, Daten mithilfe natürlicher Sprache zu verwalten und abzufragen.
Weitere Ankündigungen von Snowday 2023
Neben Cortex kündigte Snowflake Fortschritte bei Iceberg Tables an, die es Nutzern ermöglichen, Datensilos abzubauen und ihre Informationen innerhalb der Daten-Cloud zu bündeln. Das Unternehmen stellte auch neue Funktionen für seine Horizon Governance-Lösung vor, darunter Datenqualitätsüberwachung, verbesserte Datenherkunftsvisualisierung, optimierte Klassifizierung sowie ein Vertrauenszentrum für Sicherheits- und Compliance-Anforderungen über verschiedene Clouds hinweg.
Schließlich kündigte Snowflake eine Investitionsinitiative an, die darauf abzielt, bis zu 100 Millionen Dollar in Start-ups in der Frühphase zu investieren, die Snowflake-native Anwendungen entwickeln, unterstützt von seiner Risikokapitaltochter und mehreren Firmen, darunter Altimeter Capital, Amplify Partners und Menlo Ventures.