OpenAI a récemment dévoilé son dernier modèle de langage AI, le GPT-4o (pour Omni), et les réactions initiales affluent déjà. À ce stade précoce, les avis sont partagés. Bien que certains spectateurs aient quitté la démo brève de 26 minutes d'OpenAI sur leur faim, l'entreprise a depuis publié plusieurs démonstrations vidéo et des informations complémentaires. Le GPT-4o est présenté comme étant plus rapide, plus abordable pour les développeurs et nettement meilleur pour détecter et imiter les émotions humaines, principalement grâce à ses capacités audio.
Le modèle est gratuit pour tous les utilisateurs de ChatGPT, y compris les non-abonnés, bien que les abonnés payants aient un accès prioritaire à son déploiement prévu dans les semaines à venir. Actuellement, il prend en charge les fonctionnalités de texte et de vision, tandis que les capacités audio et vidéo devraient bientôt être disponibles.
Le GPT-4o a été développé pour traiter le texte, l'audio et les données visuelles de manière équitable, convertissant toutes les formes en tokens. Cette innovation permet d'améliorer la vitesse et de réduire les coûts.
Voici ce que disent les experts et influenceurs :
Jim Fan, responsable recherche senior chez Nvidia, a déclaré : « OpenAI mange le déjeuner de Character AI… C’est un tournant vers une AI plus émotionnelle avec une forte personnalité, ce qu’OpenAI semblait réprimer par le passé. »
Ethan Mollick, professeur à la Wharton School of Business, a souligné : « GPT-4o n’est pas le grand saut. C'est ça. »
Allie K. Miller, influenceuse dans le domaine de l'IA, a exprimé son enthousiasme pour la nouvelle application ChatGPT sur macOS propulsée par GPT-4o, en disant : « C’est comme avoir un collègue en partage d’écran avec vous 24/7, sans fatigue. J’imagine des gens travaillant pendant des heures avec ça. »
Benjamin De Kraker, développeur d'IA, a soutenu que le GPT-4o représente une avancée significative vers l'intelligence générale artificielle (AGI), affirmant : « Que direz-vous d'autre quand une 'personne' virtuelle peut écouter, parler, voir et raisonner presque indistinguablement d'un humain moyen ? »
Siqi Chen, un autre développeur, a mis en avant la capacité du GPT-4o à rendre des objets en 3D à partir de texte, affirmant : « Cela prouvera, avec le temps, être de loin l'événement OpenAI le plus sous-estimé. »
En revanche, le journaliste James Vincent a critiqué la stratégie marketing, la qualifiant de « maligne », tout en avertissant que l'interaction vocale ne signifie pas nécessairement un saut de capabilities.
Chirag Dekate, vice-président chez Gartner, a trouvé le lancement « un peu décevant », le comparant aux démonstrations de Google Gemini des mois précédents. Il a noté un « fossé de capacités » croissant entre OpenAI et des géants technologiques établis comme Google et Microsoft, qui disposent de vastes données et infrastructures pour soutenir leurs modèles.
Certaines réactions ont été plus sévères ; un influenceur anti-technologie, « Artisanal Holdout », a critiqué le calendrier de lancement du GPT-4o comme décevant par rapport aux attentes pour le GPT-5.
En revanche, Greg Isenberg, PDG de Late Checkout, a affirmé que « Le rythme du changement est incroyable », tandis que l’éducateur en IA Min Choi a salué la sortie, déclarant qu'elle « va complètement changer le jeu des assistants IA ».
Avec le GPT-4o encore à ses débuts et de nombreuses fonctionnalités à venir, il a déjà suscité des réactions passionnées, indiquant qu'OpenAI a bien ciblé un intérêt significatif. Restez connectés pour notre propre évaluation alors que nous testerons le nouveau modèle dans les prochains jours.