L'ajustement fin est essentiel pour améliorer les résultats des modèles de langage large (LLM) et les aligner sur les besoins spécifiques des entreprises. Lorsqu'il est réalisé correctement, ce processus génère des réponses de modèle plus précises et plus utiles, permettant aux organisations de maximiser leurs applications d'IA générative. Cependant, l'ajustement fin peut être coûteux, ce qui crée des obstacles pour certaines entreprises désireuses de bénéficier de ces capacités avancées.
Mistral, un fournisseur de modèles d'IA open-source, approchant rapidement une valorisation de 6 milliards de dollars seulement 14 mois après son lancement, s'attaque à cette problématique. Sa nouvelle plateforme pour développeurs, La Plateforme, introduit des outils de personnalisation améliorés destinés à simplifier les processus d'ajustement fin, réduire les coûts de formation et abaisser les barrières d'entrée.
Avec un nom évoquant un vent puissant du sud de la France, Mistral fait des vagues dans le paysage de l'IA, en innovant constamment et en attirant des financements conséquents. L'entreprise souligne dans un récent blog que l'ajustement fin de modèles plus petits pour des domaines spécifiques peut améliorer les performances tout en minimisant les coûts de déploiement et en accélérant la rapidité des applications.
Personnalisation des modèles Mistral
Mistral s'est démarqué en lançant des LLM robustes sous des licences open-source, permettant une adaptation gratuite. Elle propose également des services payants, incluant une API et la plateforme La Plateforme, qui permettent aux utilisateurs de créer des applications utilisant les modèles Mistral sans avoir besoin d'installations serveur complexes ; ils peuvent effectuer des appels API pour exploiter les capacités de Mistral.
Les clients peuvent désormais personnaliser les modèles Mistral sur La Plateforme, utiliser le code open-source de Mistral sur GitHub, ou accéder à des services de formation sur mesure. Pour les développeurs souhaitant travailler de manière autonome sur leur infrastructure, Mistral a lancé la base de code légère, mistral-finetune, qui utilise le paradigme LoRA pour minimiser le nombre de paramètres entraînables.
Mistral déclare : « Avec mistral-finetune, vous pouvez ajuster tous nos modèles open-source sur votre infrastructure sans sacrifier la performance ou l'efficacité mémoire. » Pour ceux intéressés par un ajustement fin sans serveur, Mistral propose de nouveaux services s’appuyant sur des techniques de recherche et développement avancées. Les adaptateurs LoRA préservent le savoir-faire fondamental des modèles tout en permettant des déploiements efficaces.
Mistral décrit cela comme un progrès significatif rendant les méthodes scientifiques sophistiquées accessibles aux développeurs d'applications d'IA, permettant une personnalisation rapide et rentable des modèles. Les services d'ajustement fin sont compatibles avec le modèle à 7,3 milliards de paramètres, Mistral 7B, et Mistral Small. Les utilisateurs actuels peuvent utiliser l'API de Mistral pour bénéficier immédiatement de la personnalisation, avec des plans pour introduire d'autres modèles pour ajustement fin dans les semaines à venir.
De plus, les services de formation sur mesure de Mistral optimisent les modèles d'IA pour des applications spécifiques, utilisant des données propriétaires et des techniques à la pointe, telles que le pré-entraînement continu pour intégrer des connaissances spécialisées. Cette approche facilite le développement de modèles hautement spécialisés et efficaces adaptés à des domaines particuliers.
Pour célébrer ces nouvelles offres, Mistral a lancé un hackathon d'ajustement fin de l'IA qui se déroulera jusqu'au 30 juin, encourageant les développeurs à expérimenter avec l'API d'ajustement fin innovante de la startup.
Croissance et innovation sans précédent de Mistral
Depuis sa création en avril 2023 par d'anciens employés de Google DeepMind et Meta, Arthur Mensch, Guillaume Lample et Timothée Lacroix, Mistral a connu une croissance rapide. L'entreprise a sécurisé un tour de financement d'amorçage record de 118 millions de dollars — le plus important de l'histoire de l'Europe — et a rapidement formé des partenariats avec des acteurs majeurs tels qu'IBM. En février, Mistral Large a été mis à disposition grâce à une collaboration avec Microsoft sur Azure.
Récemment, SAP et Cisco ont révélé leur soutien à Mistral, et le mois dernier, l'entreprise a lancé Codestral, son premier LLM centré sur le code, prétendant surpasser tous ses concurrents. Mistral est également sur le point d'entamer un tour de financement de 600 millions de dollars, ce qui pourrait porter sa valorisation à 6 milliards de dollars.
Positionné comme un concurrent direct d'OpenAI et de Llama 3 de Meta, Mistral Large est reconnu comme le deuxième modèle de langage commercial le plus capable au monde, après le GPT-4 d'OpenAI. Mistral 7B, introduit en septembre 2023, prétend surpasser Llama sur plusieurs indicateurs et rivaliser étroitement avec la performance de CodeLlama 7B dans les tâches de codage.
Quelles innovations Mistral dévoilera-t-il ensuite ? Nous le saurons bientôt.