Da Unternehmen zunehmend danach streben, KI-Anwendungen und -Agenten zu entwickeln, wird die Bedeutung der Nutzung verschiedener Sprachmodelle und Datenbanken für optimale Ergebnisse deutlich. Der Wechsel einer Anwendung von Llama 3 zu Mistral erfordert möglicherweise technologische Raffinesse. Der Schlüssel liegt in der Orchestrierungsebene, einem entscheidenden Bindeglied, das Grundmodelle mit Anwendungen verbindet und API-Anfragen zur effektiven Durchführung von Aufgaben verwaltet.
Diese Orchestrierungsebene besteht hauptsächlich aus Softwarelösungen wie LangChain und LlamaIndex, die die Integration von Datenbanken ermöglichen. Eine wichtige Frage stellt sich jedoch: Ist diese Schicht ausschließlich softwarebasiert, oder spielt Hardware eine bedeutende Rolle über die bloße Stromversorgung der KI-Modelle hinaus?
Die Antwort ist eindeutig: Hardware ist entscheidend für die Unterstützung von Rahmenwerken wie LangChain und den Datenbanken, die KI-Anwendungen zugrunde liegen. Unternehmen benötigen leistungsstarke Hardware-Stacks, die in der Lage sind, umfangreiche Datenströme zu verwalten, während sie auch Geräte in Betracht ziehen müssen, die erhebliche Rechenzentrumsaufgaben vor Ort durchführen können.
„Während die KI-Mittelschicht primär ein Software-Thema ist, können Hardwareanbieter die Leistung und Effizienz erheblich beeinflussen“, erklärt Scott Gnau, Leiter der Datenplattformen bei InterSystems. Experten für KI-Infrastruktur betonen, dass, obwohl Software grundlegend für die KI-Orchestrierung ist, deren Effektivität auf der Fähigkeit von Servern und GPUs beruht, umfassende Datenbewegungen zu meistern. Folglich muss die zugrunde liegende Hardware für eine optimale Funktionsweise der Orchestrierungsebene intelligent und effizient sein, wobei ein Fokus auf Hochgeschwindigkeits- und Niedrig-Latenz-Verbindungen erforderlich ist, um hohe Arbeitslasten zu bewältigen.
„Diese Orchestrierungsebene erfordert schnelle Chips“, erklärt Matt Candy, Managing Partner für generative KI bei IBM Consulting. „Ich stelle mir eine Zukunft vor, in der Silizium, Chips und Server basierend auf dem Typ und der Größe des Modells optimieren, während die Orchestrierungsebene dynamisch zwischen Aufgaben wechselt.“ Aktuelle verfügbare GPUs können diese Anforderungen bereits effektiv unterstützen.
John Roese, Global CTO und Chief AI Officer bei Dell, weist darauf hin: „Es ist eine Hardware- und Software-Frage. Viele vergessen, dass KI als Software manifestiert, die auf Hardware läuft. KI-Software ist die anspruchsvollste, die wir je entwickelt haben, was ein Verständnis für Leistungsmetriken und Rechenanforderungen erfordert.“
Obwohl die KI-Mittelschicht schnelle und leistungsstarke Hardware benötigt, sind neue spezialisierte Geräte über die vorhandenen GPUs und Chips hinaus nicht notwendig. „Gewiss ist Hardware ein entscheidender Enabler, aber ich bezweifle, dass es spezialisierte Hardware gibt, die wesentliche Fortschritte bringen kann, außer GPUs zur Verbesserung der Modellleistung“, betont Gnau. „Die Optimierung wird von Software und Architektur ausgehen und die Datenbewegung minimieren.“
Das Aufkommen von KI-Agenten hat die Notwendigkeit erhöht, diese Mittelschicht zu stärken. Da KI-Agenten miteinander kommunizieren und mehrere API-Aufrufe einleiten, ist eine effektive Orchestrierungsebene entscheidend für das Management dieses Datenverkehrs mit schnellen Servern. „Diese Schicht sorgt für nahtlosen API-Zugriff auf alle Arten von KI-Modellen und -Technologien und verbessert das gesamte Benutzererlebnis“, sagt Candy. „Ich bezeichne sie als KI-Controller innerhalb des Middleware-Stacks.“
KI-Agenten sind ein heißes Thema in der Branche und werden voraussichtlich die Entwicklung der KI-Infrastruktur in Unternehmen in den kommenden Jahren prägen. Roese fügt eine weitere Überlegung hinzu: On-Device-KI. Unternehmen müssen Szenarien planen, in denen KI-Agenten lokal arbeiten müssen, insbesondere bei Verlust der Konnektivität. „Die entscheidende Frage ist, wo die Operationen stattfinden“, schlägt Roese vor. „Hier kommen Konzepte wie der AI PC ins Spiel. Wenn eine Gruppe von Agenten in Ihrem Auftrag zusammenarbeitet, müssen sie dann alle zentralisiert sein?“
Er bespricht Dells Erkundung von On-Device-„Concierge“-Agenten, die die Abläufe auch bei Internetausfällen am Laufen halten. Generative KI hat eine Explosion an Technologiestacks ermöglicht, da neue Dienstanbieter GPU-Ressourcen, Datenbanken und AIOps-Dienste anbieten. Diese Expansion könnte jedoch nicht von Dauer sein, warnt Uniphore-CEO Umesh Sachdev. „Obwohl der Technologiestack explodiert ist, glaube ich, dass wir eine Phase der Normalisierung erleben werden“, prognostiziert Sachdev. „Letztlich werden Organisationen Ressourcen intern konsolidieren, und die Nachfrage nach GPUs wird stabilisieren. Die Verbreitung von Schichten und Anbietern ist typisch für neue Technologien, und ähnliche Trends werden wir auch bei KI sehen.“
Für Unternehmen besteht die beste Praktik darin, das gesamte KI-Ökosystem – von Hardware bis Software – zu berücksichtigen, um effektive KI-Workflows zu gewährleisten.