OpenAI a annoncé une nouvelle fonctionnalité permettant aux développeurs tiers de personnaliser leur grand modèle multimodal (LMM), le GPT-4o. Cette personnalisation permet aux développeurs d’adapter le comportement du modèle afin de mieux répondre aux besoins spécifiques de leurs applications ou organisations.
Le fine-tuning permet d'ajuster le ton, de respecter des directives précises et d'améliorer la précision des tâches techniques, démontrant une efficacité même avec des données limitées. Les développeurs intéressés peuvent accéder au tableau de bord de fine-tuning d'OpenAI, sélectionner “créer”, puis choisir gpt-4o-2024-08-06 dans le menu déroulant des modèles de base. Cette annonce fait suite à l'introduction du variant plus petit et plus rapide, le GPT-4o mini, qui, bien que moins puissant, peut également être affiné.
“Le fine-tuning peut considérablement améliorer les performances du modèle dans divers domaines, du codage à l'écriture créative,” déclarent les membres techniques d'OpenAI, John Allard et Steven Heidel, dans un article de blog de l'entreprise. “Ce n'est que le début ; nous continuerons d'élargir les options de personnalisation des modèles pour les développeurs.”
Jusqu'à 1 Million de Tokens Offerts Jusqu'au 23 Septembre
OpenAI souligne que les développeurs peuvent obtenir des résultats impressionnants avec seulement quelques dizaines d'exemples d'entraînement. Pour célébrer cette nouvelle fonctionnalité, OpenAI propose jusqu'à 1 million de tokens gratuits par jour pour le fine-tuning de GPT-4o jusqu'au 23 septembre 2024.
Les tokens servent de représentations numériques de concepts et sont essentiels pour les processus d'entrée et de sortie du modèle. Les développeurs doivent convertir leurs données en tokens (tokenisation) pour affiner efficacement GPT-4o, en utilisant les outils d’OpenAI pour ce processus.
Normalement, le fine-tuning de GPT-4o coûte 25 $ par million de tokens, tandis que faire fonctionner le modèle affiné entraîne des frais de 3,75 $ par million de tokens d'entrée et de 15 $ par million de tokens de sortie. Pour ceux qui utilisent le plus petit GPT-4o mini, jusqu'à 2 millions de tokens gratuits pour l'entraînement sont disponibles chaque jour jusqu'à la date limite de septembre, garantissant un accès large aux fonctionnalités de fine-tuning.
L’initiative d’OpenAI d’offrir des tokens gratuits répond à une concurrence féroce de la part de fournisseurs propriétaires tels que Google et Anthropic, ainsi que de modèles open-source comme Hermes 3 de Nous Research, basé sur Llama 3.1 de Meta. Cependant, les développeurs utilisant les modèles d’OpenAI bénéficient de la commodité de ne pas avoir à héberger l'inférence ou l'entraînement sur leurs propres serveurs ; ils peuvent utiliser l'infrastructure d'OpenAI ou connecter leurs serveurs via l’API d’OpenAI.
Des Histoires de Réussite Démontrent le Potentiel du Fine-Tuning
Le lancement du fine-tuning pour GPT-4o fait suite à des essais approfondis avec des partenaires sélectionnés, mettant en avant le potentiel des modèles sur-mesure dans divers secteurs. Par exemple, la société d'IA Cosine a obtenu un résultat de pointe de 43,8 % sur la benchmark SWE-bench avec son agent d’ingénierie IA autonome affiné, Genie, le meilleur parmi les modèles IA déclarés publiquement à ce jour.
De même, Distyl, un fournisseur de solutions IA pour des entreprises du Fortune 500, a atteint le meilleur classement sur le benchmark BIRD-SQL avec GPT-4o affiné, atteignant une précision d'exécution de 71,83 %. Le modèle a excellé dans les tâches SQL, y compris la reformulation de requêtes et l'auto-correction.
Sécurité et Confidentialité des Données Priorisées
OpenAI affirme que la sécurité et la confidentialité des données sont des priorités essentielles lors de l'expansion des options de personnalisation pour les développeurs. Les modèles affiné assurent aux organisations un contrôle total sur leurs données, garantissant que les entrées et les sorties ne sont pas utilisées pour entraîner d'autres modèles.
OpenAI a également mis en place de multiples mesures de sécurité, y compris des évaluations automatisées et un suivi de l'utilisation, pour respecter ses politiques. Cependant, des recherches indiquent que le fine-tuning peut parfois entraîner des écarts par rapport aux protocoles de sécurité et affecter les performances globales du modèle. En fin de compte, les organisations doivent évaluer les risques potentiels par rapport aux avantages du fine-tuning.
Avec l'introduction récente de capacités de fine-tuning, OpenAI réaffirme sa vision selon laquelle, à l'avenir, la plupart des organisations développeront des modèles adaptés à leur secteur ou à leurs besoins commerciaux spécifiques. Cette nouvelle offre marque une étape significative vers cet objectif, soulignant l'engagement d'OpenAI à permettre à chaque organisation de bénéficier de son propre modèle IA personnalisé.