Dell Technologies erweitert Generative AI-Fähigkeiten auf der Dell Technologies World Konferenz
Dell Technologies verbessert seine generativen KI-Angebote mit mehreren Ankündigungen während der jährlichen Dell Technologies World Konferenz.
Einführung der Dell AI Factory
Die Dell AI Factory stellt eine neue Strategie dar, die darauf abzielt, die Einführung von KI für Unternehmen zu vereinfachen, zu sichern und kosteneffektiver zu gestalten. Diese Initiative umfasst eine umfassende Zusammenarbeit mit Nvidia und baut auf den im Juli 2023 angekündigten Lösungen auf. Die Partnerschaft integriert Dell und Nvidias Hardware und Software, um Unternehmen bei ihren generativen KI-Initiativen zu unterstützen, insbesondere im Bereich der fortschrittlichen Retrieval Augmented Generation (RAG) und digitalen Assistenten. Zudem bringt Dell neue Hardware auf den Markt, die für die kürzlich vorgestellten Nvidia Blackwell GPUs optimiert ist.
Stärkung der Beziehungen zu Hugging Face und Meta
Dell vertieft seine Integration mit Hugging Face und baut auf einer im November 2023 gestarteten Zusammenarbeit auf, um die Unternehmensangebote zu verbessern. Gleichzeitig wird die Partnerschaft mit Meta fortgesetzt, um Llama 3 zu unterstützen und über die vorherige Arbeit mit Llama 2 hinauszugehen.
Vereinfachung der Implementierung von On-Premises KI
Vor dem Hintergrund zahlreicher cloudbasierter generativer KI-Optionen hat Dell das Ziel, die Bewertung und Implementierung von generativen KI-Technologien für Unternehmen vor Ort zu vereinfachen. „Unser Ziel ist es, unseren Kunden zu helfen, so schnell wie möglich Wert aus ihren KI-Arbeitslasten zu schöpfen“, sagte Varun Chhabra, Senior Vice President von Dell Technologies.
Fortschritte über Project Helix hinaus
Die Ankündigungen von Dell auf der Konferenz markieren einen Fortschritt von der Projekt Helix-Initiative des letzten Jahres, die stark auf Training fokussiert war. „Als wir Project Helix ins Leben riefen, lag der Schwerpunkt stark auf dem Training“, erklärte Manuvir Das, VP für Enterprise Computing bei Nvidia. „Jetzt priorisieren wir Inferenz und praktische Modellanwendungen.“
Nvidia Inference Microservices
Die neu eingeführten Nvidia Inference Microservices (NIMs) stellen eine bedeutende Ergänzung der Partnerschaft dar. Diese Microservices erleichtern Entwicklern die Bereitstellung, indem sie die Umgebung automatisch für eine effiziente und sichere Ausführung von KI-Modellen konfigurieren. So können sich Entwickler auf die Anwendungsentwicklung konzentrieren, ohne sich um die Herausforderungen bei der Bereitstellung kümmern zu müssen.
Beschleunigung von RAG-Bereitstellungen
Die Landschaft der generativen KI hat sich weiterentwickelt, insbesondere im Hinblick darauf, wie Unternehmen auf ihre Daten zugreifen. RAG ist entscheidend geworden, um bestehende Datenspeicher mit generativen KI-Bereitstellungen zu verknüpfen. Die neuen Dell Accelerator Services für RAG, speziell für Precision AI Workstations entwickelt, unterstützen Entwickler dabei, RAG-Anwendungsfälle zu erstellen und zu testen, indem sie Dell-Hardware in Kombination mit der Nvidia AI Workbench Entwicklungsplattform nutzen. Die NeMo Retriever-Technologie von Nvidia ist Teil dieser Initiative und bietet den Organisationen Flexibilität bei der Auswahl vektorbasierter Datenbanken, die für RAG-Implementierungen entscheidend sind.
Zusammenarbeit mit Partnern zur Verbesserung generativer KI
Über Nvidia hinaus arbeitet Dell aktiv mit verschiedenen Partnern zusammen, um seine generativen KI-Fähigkeiten zu stärken. Das Unternehmen erweitert die Partnerschaft mit Hugging Face, um Unternehmensanwendern kuratierte offene Modelle anzubieten. Der Dell Enterprise Hub zielt darauf ab, die Bereitstellung dieser Modelle vor Ort zu vereinfachen.
Dell arbeitet weiterhin mit Meta zusammen, um Implementierungsanleitungen und Leistungstests für die Llama 3-Modelle bereitzustellen. Darüber hinaus wird die Zusammenarbeit mit Microsoft vorangetrieben, um Azure KI-Lösungen auf Dell-Infrastrukturen anzubieten. Die neue Dell AI-Lösung für Microsoft Azure AI Services ermöglicht es Unternehmen, Microsoft Azure-Funktionen vor Ort mit denselben APIs zu nutzen, die in Azure verfügbar sind. „Diese Flexibilität erlaubt es Organisationen, verschiedene Azure KI-Dienste—wie Sprachverarbeitung, Übersetzung, Spracherkennung, Dokumentenintelligenz und Vision—näher an ihren Daten zu integrieren, die oft vor Ort gespeichert sind“, bemerkte Chhabra.