NVIDIA präsentiert neues 8B AI-Modell: Höchste Präzision und Effizienz, kompatibel mit RTX-Workstations

NVIDIA stellt den Mistral-NeMo-Minitron 8B vor: Ein kompaktes KI-Sprachmodell

Am 21. August kündigte NVIDIA die Veröffentlichung des Mistral-NeMo-Minitron 8B an, eines kompakten KI-Sprachmodells, das für außergewöhnliche Genauigkeit und rechnerische Effizienz entwickelt wurde. Dieses Modell ist für den Einsatz in GPU-beschleunigten Rechenzentren, Cloud-Computing-Umgebungen und Arbeitsstationen optimiert.

Nach der Zusammenarbeit mit Mistral AI im letzten Monat zur Einführung des Open-Source-Modells Mistral NeMo 12B bietet der neue Mistral-NeMo-Minitron 8B 8 Milliarden Parameter und ist speziell für Systeme mit NVIDIA RTX-Grafikkarten konzipiert. Zu den Verbesserungen des Mistral NeMo 12B-Modells gehören Breitenbeschneidung und Wissensdistillation, die in dem Papier „Kompakte Sprachmodelle durch Beschneidung und Wissensdistillation“ detailliert beschrieben werden.

Der Beschneidungsprozess beseitigt Modellgewichte, die nur minimal zur Genauigkeit beitragen, und optimiert somit die Größe des neuronalen Netzwerks. Während der Distillationsphase trainierte das Forschungsteam das beschnittene Modell mit einem kleineren Datensatz erfolgreich neu, wodurch der Genauigkeitsverlust durch die Beschneidung gemindert wurde.

In Bezug auf die Leistung zeigt der Mistral-NeMo-Minitron 8B erhebliche Vorteile in neun gängigen Benchmarks für Sprachmodelle. Dabei punktet er in den Bereichen Sprachverständnis, allgemeines Wissensverständnis, mathematisches Denken, Zusammenfassungen und der Generierung präziser Antworten.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles