Heute hat Alibaba Cloud ein Upgrade seiner offenen KI-Modellreihe Qwen angekündigt, die nun als Qwen2 bekannt ist. Dieses Update präsentiert fünf vortrainierte und anweisungsoptimierte Modelle in unterschiedlichen Größen, die die Leistung in verschiedenen Funktionen, einschließlich Codierung und Mathematik, erheblich steigern und längere Kontextlängen unterstützen.
Die Qwen2-Serie umfasst die Modelle Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B, Qwen2-57B-A14B und Qwen2-72B. Besonders hervorzuheben ist das Modell Qwen2-72B-Instruct, das Kontextlängen von bis zu 128K Tokens verarbeiten kann und damit Nutzern umfangreiche Textverarbeitungsmöglichkeiten bietet.
In Bezug auf die Trainingsdaten hat die Qwen2-Serie hochwertige Daten aus 27 zusätzlichen Sprachen in Verbindung mit Chinesisch und Englisch integriert, was die mehrsprachigen Fähigkeiten erheblich verbessert. Alle Modelle nutzen die Technologie der Gradient-based Quantization Aware Training (GQA), die die Inferenzgeschwindigkeit beschleunigt und den Speicherverbrauch reduziert, was zu einer effizienteren und stabileren Benutzererfahrung führt.
Die Bewertungsergebnisse zeigen, dass die großen Modelle der Qwen2-Serie deutliche Verbesserungen aufweisen. Insbesondere übertrifft das Modell Qwen2-72B führende Modelle wie Llama-3-70B und Qwen1.5-110B in den Bereichen natürliche Sprachverständnis, Wissensverarbeitung, Codierung, Mathematik und mehrsprachige Fähigkeiten. Dieser Erfolg unterstreicht die führende Position der Qwen2-Serie in der Entwicklung von KI-Modellen.
Im Rahmen des Engagements von Alibaba Cloud für Innovation und Entwicklung in der KI bringt die Einführung der Qwen2-Serie nicht nur fortschrittliche und effiziente KI-Modelle hervor, sondern hebt auch die technologische Kompetenz und Innovationsfähigkeit von Alibaba Cloud im KI-Sektor hervor. Wir freuen uns auf die zukünftige Veröffentlichung weiterer herausragender KI-Modelle und Technologien von Qwen, um Fortschritte in diesem Bereich weiter voranzutreiben.