Nous avions autrefois émis des hypothèses sur l'arrivée de logiciels capable de passer le test de Turing de manière constante. Aujourd'hui, nous tenons pour acquis que cette technologie remarquable non seulement existe, mais qu'elle progresse rapidement.
Depuis le lancement de ChatGPT le 30 novembre 2022, nous avons été témoins d'une avalanche d'innovations provenant de modèles de langage à grande échelle (LLM). De nouvelles itérations semblent émerger toutes les quelques semaines, repoussant les frontières du possible.
Cependant, les tendances récentes suggèrent que cette avancée rapide pourrait ralentir. L'historique des sorties d'OpenAI illustre ce changement. Le saut significatif de GPT-3 à GPT-3.5 a propulsé OpenAI sous les projecteurs, suivi de l'impressionnante mise à niveau vers GPT-4 et d'autres perfectionnements comme GPT-4 Turbo et GPT-4 Vision. Plus récemment, GPT-4o a renforcé la multi-modalité, mais a offert peu en termes de puissance supplémentaire.
D'autres LLM, comme Claude 3 d'Anthropic et Gemini Ultra de Google, convergent désormais vers des performances similaires à celles de GPT-4. Bien que nous ne soyons pas encore dans un palier, des signes de ralentissement se dessinent, marqués par une puissance et une portée décroissantes dans chaque nouvelle génération.
Cette tendance a d'importantes implications pour les innovations futures. Si vous pouviez poser une question à une boule de cristal sur l'IA, ce serait : À quelle vitesse les LLM continueront-ils à s'améliorer en puissance et en capacité ? La trajectoire des avancées des LLM influence l'écosystème plus large de l'IA. Chaque grande avancée dans les capacités des LLM impacte directement ce que les développeurs peuvent réaliser et la fiabilité avec laquelle les équipes peuvent opérer.
Considérons l'évolution de l'efficacité des chatbots : GPT-3 produisait des réponses incohérentes, tandis que GPT-3.5 a amélioré la fiabilité. Ce n'est qu'avec GPT-4 que nous avons vu des réponses qui respectaient systématiquement les demandes et démontraient un certain raisonnement.
On s'attend à ce qu'OpenAI dévoile GPT-5 prochainement, mais ils gèrent les attentes avec prudence. Si cette mise à jour ne satisfait pas une avancée substantielle, les implications pour l'innovation en IA pourraient être profondes.
Voici comment ce potentiel ralentissement pourrait se manifester :
1. Spécialisation accrue : Alors que les LLM existants peinent avec des requêtes nuancées, les développeurs pourraient se tourner vers la spécialisation. Nous pourrions voir l'émergence d'agents IA ciblant des cas d'utilisation spécifiques et des communautés d'utilisateurs. Le lancement par OpenAI des GPT signale un déplacement loin d'une approche unique.
2. Nouvelles interfaces utilisateur : Bien que les chatbots dominent l'interaction avec l'IA, leur flexibilité peut mener à des expériences utilisateurs insatisfaisantes. Nous pourrions observer la montée de systèmes d'IA offrant des interactions guidées, comme des scanners de documents proposant des suggestions exploitables.
3. Développement de LLM open source : Malgré les défis de construction des LLM, des fournisseurs open source comme Mistral et Llama pourraient rester compétitifs si OpenAI et Google ralentissent leurs avancées majeures. À mesure que l'accent se déplace vers les fonctionnalités et la convivialité, ils pourraient se tailler une niche.
4. Concurrence accrue sur les données : La convergence des capacités des LLM pourrait être due à une pénurie de données d'entraînement. Alors que l'accès aux données textuelles publiques diminue, les entreprises devront explorer de nouvelles sources, telles que des images et des vidéos, ce qui pourrait améliorer la performance et la compréhension des modèles.
5. Nouvelles architectures de LLM : Bien que les architectures de transformateurs dominent, d'autres modèles prometteurs ont été négligés. Si les progrès des LLM basés sur les transformateurs ralentissent, nous pourrions voir un regain d'intérêt pour des architectures alternatives comme Mamba.
En conclusion, l'avenir des LLM reste incertain. Cependant, il est évident que les capacités des LLM et l'innovation en IA sont étroitement liées. Développeurs, concepteurs et architectes doivent réfléchir activement à l'évolution de ces modèles.
Nous pourrions assister à un glissement vers la compétition sur les fonctionnalités et la facilité d'utilisation, menant à une forme de tendance à la commoditisation, semblable à ce que nous avons vu dans les bases de données et les services cloud. Bien que des distinctions subsistent, de nombreuses options pourraient devenir interchangeables, sans « gagnant » définitif dans la course au LLM le plus puissant.