OpenAI a dévoilé son dernier modèle génératif de type « snack », le GPT-4o mini, conçu pour être moins gourmand en ressources et plus économique que le modèle standard GPT-4o. Cette amélioration permet aux développeurs d'intégrer facilement la technologie AI dans une gamme plus large de produits. Non seulement cela représente une mise à niveau significative pour les développeurs et les applications, mais cela améliore également les fonctionnalités de la version gratuite de ChatGPT, réduisant ainsi les limitations pour les utilisateurs.
Le GPT-4o mini est désormais accessible aux utilisateurs des niveaux Free, Plus et Team via le web et l'application ChatGPT, tandis que les abonnés de ChatGPT Enterprise auront accès la semaine prochaine. À partir d'aujourd'hui, le GPT-4o mini remplacera l'ancien modèle, le GPT-3.5 Turbo, pour les utilisateurs finaux. Bien que l’ancien modèle reste disponible pour les développeurs via l'API pour ceux qui préfèrent ne pas migrer vers GPT-4o mini, OpenAI prévoit de retirer ce modèle précédent à l'avenir, sans calendrier précis pour l’instant.
Depuis mai, le GPT-4o était accessible aux comptes gratuits de ChatGPT, bien qu'avec certaines limitations dues à une forte demande. La FAQ mise à jour clarifie que, bien que GPT-4o continue de faire face à ces restrictions, les utilisateurs passeront automatiquement au GPT-4o mini au lieu de GPT-3.5 lorsqu'ils atteindront leurs limites. Ce changement est bénéfique pour ceux qui n'ont pas opté pour ChatGPT Plus.
Avec le lancement de GPT-4o mini, OpenAI vise à améliorer l'accessibilité de l'AI pour tous les utilisateurs, désormais disponible dans l'API et déployé dans ChatGPT. Selon des données d'Artificial Analysis, ce nouveau modèle a obtenu un impressionnant score de 82% au benchmark MMLU, surpassant Gemini 1.5 Flash de 3% et Claude 3 Haiku de 7%. Pour donner un contexte, le record actuel du benchmark MMLU est détenu par Gemini Ultra, l'AI phare de Google, avec un score de 90%.
Il est important de noter qu'OpenAI rapporte que le GPT-4o mini fonctionne avec des coûts 60% inférieurs à ceux du GPT-3.5 Turbo. Les développeurs devront payer 15 cents par million de tokens d'entrée et 60 cents par million de tokens de sortie. OpenAI présente le GPT-4o mini comme « le modèle de petite taille le plus puissant et économique disponible aujourd'hui » selon CNBC. Les économies de coûts s'expliquent par le fait que de nombreuses tâches améliorées par l'AI ne nécessitent pas les capacités complètes d'un modèle plus grand comme GPT, Claude ou Gemini. Utiliser un modèle de langage de grande taille pour des tâches simples et à fort volume peut souvent être inutilement coûteux et gourmand en ressources. C’est là que des LLM plus petits, comme Gemini 1.5 Flash de Google, Llama 3 8b de Meta ou Claude 3 Haiku d'Anthropic, deviennent avantageux, exécutant ces tâches plus rapidement et économiquement que leurs homologues plus grands.
OpenAI a également indiqué que le GPT-4o mini conserve la même taille de fenêtre contextuelle de 128 000 tokens (environ la longueur d'un livre) que le modèle de grande taille, avec une date de connaissance allant jusqu'en octobre 2023 ; cependant, la taille spécifique du nouveau modèle n'a pas été divulguée. L'API du modèle prend actuellement en charge les capacités textuelles et visuelles, avec des plans pour des fonctionnalités vidéo et audio à l'avenir. Cette annonce fait suite à la mise à jour récente d'OpenAI concernant son très attendu mode voix, intégré avec GPT-4o. L'entreprise a révélé qu'une version alpha plus petite devrait être lancée fin juillet, avec un déploiement plus large prévu pour cet automne.