SambaNova Lance AI Samba-CoE v0.2 : Une Innovation et des Performances Supérieures à celles de Databricks DBRX

Le fabricant de puces AI SambaNova Systems a annoncé une avancée majeure avec son modèle de langage Samba-CoE v0.2. Ce modèle traite un impressionnant 330 jetons par seconde, surpassant des concurrents notables tels que le DBRX récemment lancé par Databricks, le Mixtral-8x7B de MistralAI, et le Grok-1 d'Elon Musk. Ce qui distingue cet exploit est l'efficacité du modèle. Il opère à des vitesses élevées sans sacrifier la précision, nécessitant seulement 8 prises contre 576 pour d'autres options, qui fonctionnent à des taux de bits inférieurs.

Dans nos tests, le modèle a généré des réponses incroyablement rapidement, produisant 330,42 jetons en une seconde pour une réponse complète de 425 mots sur la Voie lactée. Une question sur l'informatique quantique a donné une réponse tout aussi rapide, atteignant 332,56 jetons par seconde.

Avancées en Efficacité

La stratégie de SambaNova d'utiliser moins de prises tout en maintenant des taux de bits élevés représente une avancée significative en matière d'efficacité informatique. L'entreprise annonce également la sortie prochaine de Samba-CoE v0.3 en collaboration avec LeptonAI, signalant une innovation continue.

Ces avancées reposent sur des modèles open-source issus de Samba-1 et du Sambaverse, utilisant une approche distinctive d'ensemblage et de fusion de modèles. Cette méthodologie soutient non seulement la version actuelle, mais indique également une voie évolutive pour les développements futurs.

Des comparaisons avec d'autres modèles, incluant le Gemma-7B de GoogleAI, le Mixtral-8x7B de MistralAI, le Llama2-70B de Meta, le Qwen-72B d'Alibaba Group, le Falcon-180B de TIIuae, et le BLOOM-176B de BigScience, mettent en lumière l'avantage compétitif de Samba-CoE v0.2 dans le paysage de l'IA.

Cette annonce est prête à susciter un intérêt croissant au sein des communautés de l'IA et de l'apprentissage machine, stimulant des discussions autour de l'efficacité, des performances et de l'avenir de l'évolution des modèles d'IA.

Contexte sur SambaNova

Fondée en 2017 à Palo Alto, Californie, par Kunle Olukotun, Rodrigo Liang et Christopher Ré, SambaNova Systems a d'abord concentré ses efforts sur des puces AI personnalisées. Sa mission s'est élargie pour englober un large éventail d'offres, incluant des services d'apprentissage machine et la SambaNova Suite, une plateforme complète de formation, de développement, et de déploiement d'IA pour les entreprises, lancée début 2023. Plus tôt cette année, l'entreprise a présenté Samba-1, un modèle AI de 1 trillion de paramètres dérivé de 50 modèles plus petits dans une approche de « composition d'experts ».

Cette transition d'une startup centrée sur le matériel vers un innovateur de services complets en IA reflète l'engagement des fondateurs à rendre les technologies AI évolutives et accessibles. SambaNova se positionne comme un concurrent redoutable des géants du secteur comme Nvidia, ayant levé 676 millions de dollars lors d’un financement de série D avec une valorisation dépassant 5 milliards de dollars en 2021. Aujourd'hui, elle rivalise avec d'autres startups de puces AI comme Groq, en plus de concurrents établis comme Nvidia.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles