Jonathan Ross, co-fondateur de la startup de puces AI Groq, a annoncé hier une réalisation remarquable en matière d'adoption par les développeurs lors de VB Transform. En seulement quatre mois, Groq a attiré 280 000 développeurs sur sa plateforme, une étape que Ross qualifie d'inédite dans l'industrie du matériel.
« À notre connaissance, c'est la plus rapide adoption de développeurs pour une nouvelle plateforme matérielle », a déclaré Ross dans une interview avec Matt Marshall de VentureBeat. « Nous ne nous attendions pas à ce que cela devienne viral si rapidement. »
L'architecture innovante de Groq, sans mémoire, stimule cette adoption rapide. Contrairement aux GPU traditionnels, le design de Groq supprime la mémoire externe, que Ross identifie comme le « véritable gouffre » pour atteindre une inférence AI efficace.
La société a récemment démontré ses capacités avec la transcription vocale en temps réel, se positionnant pour rivaliser avec les leaders de l'industrie. Ross a comparé l'importance de la rapidité dans l'inférence AI à la frustration d'attendre trop longtemps pour obtenir un résultat de recherche Google : « Imaginez si cela prenait 10 secondes pour avoir une réponse – ce serait insupportable. »
Cette croissance explosive pose des défis, surtout en gérant une demande écrasante. Ross a confié : « Nos équipes s'affairent ; nous organisons des soirées câblage pour installer des racks – c'est fou. »
La Feuille de Route Ambitieuse de Groq : De la Croissance Virale à la Leadership du Marché
Malgré des défis de mise à l'échelle, Groq capitalise sur son élan. L'entreprise a contacté ses 50 premiers clients pour augmenter leurs plafonds de paiement, avec plus de 35 commandes passées en 36 heures, dépassant les attentes. « Notre objectif est d'augmenter notre capacité de production le plus rapidement possible », a confirmé Ross.
En regardant vers l'avenir, Ross a défini un objectif ambitieux : « Nous visons à capturer la moitié du marché mondial de l'inférence AI d'ici la fin de l'année prochaine. » Pour atteindre cet objectif, Groq prévoit de déployer 1,7 million de processeurs AI, ce qui, selon Ross, est trois fois plus que ce qu'Nvidia a déployé l'année dernière.
Les analystes surveillent de près l'adoption rapide des développeurs par Groq comme un indicateur prometteur de l'intérêt du marché, bien que le succès à long terme ne soit pas garanti. L'industrie des puces AI observe la course de Groq pour répondre à la demande croissante.
Une Vision Inspirée de Google pour le Matériel AI
Ross s'appuie sur son expérience chez Google, où il a contribué au développement de l'unité de traitement Tensor (TPU). « Notre objectif est de garantir que tout le monde ait accès à l'AI », a-t-il expliqué, reliant son travail chez Google à la mission de Groq.
Si Groq parvient à maintenir sa croissance et à livrer les performances promises, elle a le potentiel de perturber le paysage du matériel d'inférence AI et de défier des acteurs établis comme Nvidia. « Utiliser un CPU pour ces modèles est inefficace ; de même, un GPU n'est pas idéal si vous avez un LPU à disposition », a souligné Ross.
Alors que Groq intensifie sa production, Ross a reconnu les défis à venir. Il a noté que son expérience chez Google a influencé leur approche : « Lorsque nous gérions la recherche chez Google, nous ne comptions pas sur un seul serveur pour répondre aux requêtes », mettant en avant la méthodologie innovante et distribuée de Groq.
Avec une croissance sans précédent et des objectifs ambitieux, Groq se positionne comme un potentiel perturbateur sur le marché des puces AI. Alors qu'ils s'efforcent de répondre à une demande en forte hausse et de tenir leurs engagements, l'industrie technologique a hâte de voir si Groq peut vraiment défier les géants établis dans le domaine.