Fast jedes Unternehmen untersucht heute die Vorteile großer Sprachmodelle (LLMs) und generativer KI für seine Betriebsabläufe. Dennoch bestehen viele Bedenken, die an die Anfänge des Cloud Computing und der Big Data-Analytik erinnern: Wie starten sie die Implementierung? Wie können sie ihre sensiblen, proprietären Informationen schützen? Und wie bewältigen sie den ressourcenintensiven Feinabstimmungsprozess?
Heute arbeiten Dell und Hugging Face zusammen, um diese Herausforderungen anzugehen und die On-Premises-Bereitstellung maßgeschneiderter LLMs zu vereinfachen, damit Unternehmen die Vorteile dieser sich entwickelnden Technologie maximieren können. Matt Baker, SVP der Dell AI-Strategie, betonte während einer kürzlichen Pressemitteilung die transformative Wirkung der generativen KI und sagte: „Man kommt an generativer KI oder KI nicht vorbei.“ Er erkannte die beängstigende Komplexität der Technologie an.
Partnerschaft zwischen Dell und Hugging Face
Im Rahmen dieser Partnerschaft werden Dell und Hugging Face ein spezielles Portal auf der Hugging Face-Plattform einführen, das benutzerdefinierte Container, Skripte und technische Dokumentationen für die Bereitstellung von Open-Source-Modellen auf Dell-Servern und -Speichersystemen bietet. Zunächst wird dieser Service für Dell PowerEdge-Server über die APEX-Konsole verfügbar sein und später auf Precision- und andere Dell-Arbeitsplatztools ausgeweitet. Das Portal wird regelmäßig mit optimierten Modellcontainern aktualisiert, um die neuesten Anwendungsfälle der generativen KI zu unterstützen. Jeff Boudier, Head of Product bei Hugging Face, bemerkte: „Der einzige Weg, Ihre KI-Zukunft zu steuern, besteht darin, ein Entwickler und nicht nur ein Nutzer zu werden. Dies kann nur mit Open-Source erreicht werden.“ Diese Allianz ist Teil von Dells fortlaufendem Bestreben, sich als führend im Bereich generative KI zu positionieren, was jüngste Ergänzungen wie das ObjectScale XF960 zu seiner ObjectScale-Toolreihe umfasst, die speziell für AI- und Analytics-Workflows entwickelt wurde. Baker kommentierte humorvoll die Partnerschaft: „Ich versuche, Wortspiele über Dell und Hugging Face, die Praktiker ‚umarmen‘, zu vermeiden, aber genau das tun wir.“
Herausforderungen bei der Einführung generativer KI
Baker identifizierte mehrere Hürden für die Einführung generativer KI in Unternehmen, darunter Komplexität, Time-to-Value, Anbieterzuverlässigkeit, ROI und Kostenmanagement. Ähnlich wie bei den frühen Herausforderungen von Big Data fällt es Unternehmen schwer, Projekte von der Konzeptphase in die Produktion zu überführen, während sie ihr geistiges Eigentum schützen. „Viele Unternehmen sind von dem Druck überwältigt, den aktuellen Trends in der generativen KI gerecht zu werden und gleichzeitig ihre einzigartigen Daten zu schützen“, merkte Boudier an und hob die Risiken beliebter Tools wie GitHub Copilot hervor, bei denen die Codeexposition ein Anliegen darstellt. Laut Dells Forschung bevorzugen 83 % der Unternehmen On-Premises- oder hybride Implementierungen zur Verbesserung der Sicherheit ihres geistigen Eigentums. Baker wies darauf hin: „Die Bereitstellung vor Ort ist entscheidend, wenn es um Ihre wertvollsten Vermögenswerte geht.“
Kurierte Modelle für Leistung und Genauigkeit
Das Dell-Hugging Face-Portal wird eine kuratierte Auswahl von Modellen bieten, die auf Leistung, Genauigkeit und spezifische Anwendungsfälle optimiert sind. Organisationen können ihr gewünschtes Modell und die Dell-Konfiguration wählen, um eine einfache Bereitstellung innerhalb ihrer Infrastruktur zu ermöglichen. „Stellen Sie sich ein LLama 2-Modell vor, das speziell für Ihre Plattform feinabgestimmt ist und bereit zur Nutzung“, sagte Baker und verwies auf potenzielle Anwendungen wie die Generierung von Marketinginhalten, Chatbots und Softwareentwicklung. Baker hat sich zum Ziel gesetzt, die Komplexität für Nutzer zu beseitigen und beschreibt dies als „den einfachen Knopf“ für die Bereitstellung notwendiger Fähigkeiten von Hugging Face. Was diese Initiative von vielen anderen unterscheidet, ist Dells Fähigkeit, Konfigurationen durchgängig zu kalibrieren, was eine schnelle Bereitstellung der besten Modell-Setups ohne Datenfreigabe mit öffentlichen Modellen ermöglicht. „Ihre Daten bleiben Ihre“, bekräftigte Baker und fügte hinzu: „Sobald das Modell feinabgestimmt ist, gehört es Ihnen.“
Verticalisierung in der KI
Die Feinabstimmung von Modellen für optimale Leistung kann zeitintensiv sein. Viele Unternehmen, die mit generativer KI experimentieren, nutzen mittlerweile die retrieval-augmented generation (RAG) neben Standard-LLMs. Diese Technik verbessert generative Aufgaben, indem sie externe Wissensquellen einbezieht, um den notwendigen Kontext bereitzustellen. Baker erklärte: „RAG ermöglicht es Nutzern, präzise Anweisungen zu generieren, ohne ein neues Modell von Grund auf zu erstellen.“ Um den Feinabstimmungsprozess weiter zu optimieren, plant Dell die Einführung containerisierter Tools, die parameter-effiziente Methoden wie LoRA und QLoRA nutzen. Während Unternehmen zunehmend auf ihre spezifischen Vertikalen fokussiert sind, behauptet Baker: „Alle Unternehmen werden letztendlich vertikale Einheiten, die ihre spezifischen Daten nutzen.“ Dieser Trend bedeutet nicht nur domänenspezifische Modelle; es geht darum, proprietäre Daten mit Modellen zu integrieren, um maßgeschneiderte generative Ergebnisse zu erzielen.