OpenAI, l'organisation derrière ChatGPT, envisage de développer ses propres puces d'intelligence artificielle (IA) et pourrait même acquérir une entreprise pour faciliter ce projet. Selon des sources rapportées par Reuters, des discussions internes indiquent qu'OpenAI cherche à renforcer sa chaîne d'approvisionnement en matériel face à la demande mondiale croissante de puces indispensables à l'entraînement des modèles d'IA.
Actuellement, OpenAI dépend largement de Nvidia pour ses puces, utilisant spécifiquement ses puissantes unités pour alimenter ses opérations. Depuis 2020, ces puces sont essentielles au superordinateur de Microsoft qu'OpenAI utilise pour former ses modèles d'IA avancés. Notablement, Nvidia domine le marché des puces IA, avec l'expédition de 900 tonnes de son unité phare H100 au deuxième trimestre, selon les recherches d'Omdia.
L'urgence pour OpenAI d'explorer des options alternatives a été soulignée par les préoccupations exprimées par le PDG Sam Altman concernant la disponibilité des GPU. Dans un billet de blog maintenant supprimé, détaillant une discussion avec Raza Habib, PDG de l'entreprise londonienne HumanLoop, Altman a attribué les problèmes de fiabilité et de vitesse de l'API d'OpenAI à des "contraintes de GPU." La pénurie de GPU nuit à l'accessibilité et fait augmenter les coûts opérationnels ; OpenAI dépenserait des centaines de milliers de dollars par jour pour maintenir et faire fonctionner ses services ChatGPT.
Bien qu'aucune confirmation officielle n'ait été donnée sur l'intention de développer ses propres puces, ce mouvement potentiel reflète un effort stratégique pour atténuer les défis actuels de la chaîne d'approvisionnement.
Dans un développement connexe, Microsoft travaille sur ses propres puces personnalisées, sous la marque Athena, avec une équipe dédiée d'environ 300 ingénieurs. Ces puces devraient être utilisées par Microsoft et OpenAI dès l'année prochaine. De plus, la société concurrente Meta s'engage également dans la construction de puces personnalisées pour ses modèles d'IA internes, tels que Llama 2, en utilisant les puces MITA, optimisées pour ses besoins opérationnels.
Alors que le paysage technologique de l'IA évolue, les entreprises s'efforcent d'améliorer leurs capacités d'infrastructure, ouvrant la voie à de futures avancées dans les applications d'IA.