Le niveau intermédiaire de l'IA exige des solutions matérielles avancées.

À mesure que les entreprises cherchent de plus en plus à développer des applications et des agents d'IA, il devient évident que l'utilisation de divers modèles de langage et bases de données est cruciale pour obtenir des résultats optimaux. Passer d'une application de Llama 3 à Mistral peut nécessiter une finesse technologique sophistiquée. La clé réside dans la couche d'orchestration, un intermédiaire fondamental qui relie les modèles de base aux applications, gérant les appels API pour exécuter les tâches de manière efficace.

Cette couche d'orchestration est principalement constituée de solutions logicielles comme LangChain et LlamaIndex, qui facilitent l'intégration des bases de données. Cependant, une question cruciale se pose : cette couche est-elle uniquement logicielle ou le matériel joue-t-il un rôle significatif au-delà de l'alimentation des modèles d'IA ? La réponse est claire : le matériel est essentiel pour soutenir des structures comme LangChain et les bases de données qui sous-tendent les applications d'IA. Les entreprises ont besoin de piles matérielles robustes capables de gérer des flux de données élevés tout en tenant compte des dispositifs capables d'effectuer des tâches substantielle en centre de données sur site.

« Bien que la couche intermédiaire de l'IA soit principalement une question logicielle, les fournisseurs de matériel peuvent influencer de manière significative ses performances et son efficacité », déclare Scott Gnau, responsable des plateformes de données chez InterSystems. Les experts en infrastructure IA soulignent que, bien que le logiciel soit fondamental pour l'orchestration de l'IA, son efficacité dépend de la capacité des serveurs et des GPU à gérer un mouvement de données étendu. Par conséquent, pour que la couche d'orchestration fonctionne de manière optimale, le matériel sous-jacent doit être performant et efficace, en se concentrant sur des connexions à large bande passante et à faible latence pour gérer des charges de travail lourdes.

« Cette couche d'orchestration nécessite des puces rapides », explique Matt Candy, associé directeur de l'IA générative chez IBM Consulting. « J'imagine un avenir où le silicium, les puces et les serveurs peuvent s'optimiser en fonction du type et de la taille du modèle, tandis que la couche d'orchestration passe dynamiquement d'une tâche à l'autre. » Les GPU actuels disponibles peuvent déjà répondre à ces besoins.

John Roese, CTO mondial et Chief AI Officer chez Dell, note : « C'est une question de matériel et de logiciel. Les gens oublient souvent que l'IA se manifeste comme un logiciel, qui fonctionne sur du matériel. Le logiciel d'IA est le plus exigeant que nous ayons jamais créé, nécessitant une compréhension des métriques de performance et des exigences informatiques. » Bien que la couche intermédiaire de l'IA requière du matériel rapide et puissant, il n'est pas nécessaire d'acquérir de nouveaux équipements spécialisés au-delà des GPU et des puces existants.

« Certes, le matériel est un facilitateurs clé, mais je doute qu'il existe un matériel spécialisé capable de réaliser des avancées majeures, à part les GPU pour améliorer les performances des modèles », souligne Gnau. « L'optimisation viendra du logiciel et de l'architecture, minimisant le mouvement des données. » L'émergence des agents d'IA a renforcé la nécessité d'améliorer cette couche intermédiaire. Alors que les agents d'IA communiquent entre eux et initient de multiples appels API, une couche d'orchestration efficace est vitale pour gérer ce trafic avec des serveurs rapides.

« Cette couche garantit un accès API fluide à tous les types de modèles et technologies d'IA, améliorant ainsi l'expérience utilisateur globale », déclare Candy. « Je l'appelle un contrôleur d'IA au sein de la pile middleware. » Les agents d'IA sont un sujet d'actualité dans l'industrie et devraient façonner le développement de l'infrastructure d'IA des entreprises dans les années à venir.

Roese ajoute une autre considération pour les entreprises : l'IA sur appareil. Les entreprises doivent anticiper des scénarios où les agents d'IA doivent fonctionner localement, surtout si la connectivité est perdue. « La question cruciale est de savoir où se déroulent les opérations », suggère Roese. « C'est là que des concepts comme l'ordinateur personnel AI entrent en jeu. Lorsque plusieurs agents collaborent en votre nom, doivent-ils tous être centralisés ? » Il discute de l'exploration par Dell d'agents "concierge" sur appareil qui maintiennent les opérations même pendant les pannes Internet.

L'IA générative a facilité une explosion des piles technologiques, alors que de nouveaux fournisseurs de services émergent, offrant de l'espace GPU, des bases de données et des services AIOps. Cependant, cette expansion pourrait ne pas être permanente, prévient Umesh Sachdev, PDG de Uniphore. « Bien que la pile technologique ait explosé, je pense que nous allons assister à une phase de normalisation », prédit Sachdev. « En fin de compte, les organisations consolideront les ressources en interne, et la demande de GPU se stabilisera. La prolifération de couches et de fournisseurs est typique des nouvelles technologies, et nous verrons des tendances similaires avec l'IA. »

Pour les entreprises, la meilleure pratique consiste à considérer l'ensemble de l'écosystème de l'IA, du matériel au logiciel, afin d'assurer des flux de travail en IA efficaces.

Most people like

Find AI tools in YBX