الجميع يتحدثون عن الأرباح المذهلة لشركة Nvidia التي ارتفعت بنسبة 265% مقارنة بالعام الماضي. ومع ذلك، لا ينبغي تجاهل شركة Groq، الناشئة من وادي السيليكون، التي تبتكر شرائح الذكاء الاصطناعي لتطبيقات نماذج اللغة الكبيرة (LLM) — عملية إجراء التنبؤات باستخدام النماذج الحالية بدلاً من تدريب نماذج جديدة. في نهاية الأسبوع الماضي، شهدت Groq زيادة في الاهتمام تفوق ما تحلم به العديد من الشركات الناشئة.
ورغم أن هذا لم يكن مثيرًا للجدل كالذي ينشره إيلون ماسك عن نموذج اللغة الكبير غير المتعلق Grok، فمن المحتمل أن تكون Nvidia قد لاحظت عندما شارك مatt Shumer، الرئيس التنفيذي لشركة HyperWrite، على منصة X حول "تكنولوجيا Groq المثيرة". وأبرز شومر قدرة Groq على خدمة Mixtral بمعدل يقارب 500 توكن في الثانية مع استجابات شبه فورية.
كما عرض شومر "محرك إجابات فائق السرعة" على X، يقدم "إجابات موثوقة ومذكورة تحتوي على مئات الكلمات في أقل من ثانية." وقد أثار هذا اهتمامًا واسعًا بتطبيق المحادثة الخاص بـ Groq، حيث يمكن للمستخدمين اختيار المخرجات التي تم توليدها بواسطة نماذج Llama وMistral. جاء هذا الضجيج بعد مقابلة أظهر فيها الرئيس التنفيذي لـ Groq، جوناثان روس، كيف تدعم Groq واجهة المحادثة الصوتية التي "تحطم الأرقام القياسية في السرعة."
حاليًا، لا توجد شركة قادرة على منافسة هيمنة Nvidia، التي تمتلك أكثر من 80% من سوق الشرائح عالية الأداء. في حين أن شركات أخرى ناشئة مثل SambaNova وCerebras واجهت صعوبة في اكتساب الزخم بالرغم من دخولها في مجال استنتاج البيانات باستخدام الذكاء الاصطناعي، قدمت Nvidia إيرادات بلغت 22 مليار دولار في الربع الرابع. وأكد روس أن Groq تقدم خيارًا "سريعًا للغاية" وفعالًا من حيث التكلفة مصممًا خصيصًا لنماذج الـ LLM، حيث تتناول النفقات الباهظة المرتبطة بعملية الاستنتاج.
قال روس بشكل جريء: "من المحتمل أن نكون البنية الأساسية التي تستخدمها معظم الشركات الناشئة بنهاية العام"، وشجع الشركات الناشئة على التواصل للحصول على تسعير تنافسي.
وحدات معالجة Groq مقابل وحدات معالجة Nvidia
تصف Groq وحدات المعالجة اللغوية (LPUs) بأنها نظام مبتكر لمعالجة البيانات بشكل شامل، مصمم لتلبية احتياجات الاستنتاج السريع لتطبيقات الذكاء الاصطناعي. على عكس وحدات معالجة رسومات Nvidia التي تركز على معالجة الرسوميات المتوازية، تدير LPUs من Groq تسلسلات البيانات بفعالية — سواء كانت شيفرة أو لغة طبيعية — مما يتيح إنتاجًا أسرع من خلال تجاوز قيود كثافة الحوسبة وعرض النطاق الترددي لذاكرة وحدات المعالجة التقليدية.
علاوة على ذلك، أشار روس إلى أن Groq تميز نفسها عن شركات مثل OpenAI بعدم تدريب النماذج، مما يعني أنها تستطيع الحفاظ على خصوصية المستخدم من خلال تجنب تسجيل استفسارات المحادثة.
مع تقديرات بأن ChatGPT يمكن أن يعمل بسرعة تفوق 13 مرة عند استخدام شرائح Groq، هل يمكن أن تكون OpenAI شريكًا مستقبليًا؟ بينما لم يؤكد روس أي تعاونات محددة، ذكر أن الشراكة قد تكون مفيدة إذا كانت أهداف الطرفين مشتركة.
هل تعتبر وحدات معالجة Groq فعلاً طفرة في استنتاج الذكاء الاصطناعي؟
كنت أبدي اهتمامًا بالتحدث مع روس منذ ديسمبر عندما تم الترويج لـ Groq على أنها "شركة تصنيع الشرائح الأمريكية التي تتجه للفوز في سباق الذكاء الاصطناعي." الآن، كنت متشوقًا لفهم ما إذا كانت وحدات LPUs الخاصة بـ Groq تمثل حقًا انفراجة في استنتاج الذكاء الاصطناعي أم مجرد اتجاه عابر مدفوع بالضغوط الإعلامية.
وصف روس منشورات شومر بأنها "الشرارة التي أشعلت الفتيل"، مشيرًا إلى أن أكثر من 3000 شخص تواصلوا للوصول إلى واجهة برمجة التطبيقات (API) خلال 24 ساعة. "نحن نسمح للناس باستخدامها مجانًا في الوقت الحالي"، أضاف.
روس ليس غريبًا على مشهد الشركات الناشئة؛ فقد شارك في اختراع وحدة معالجة التنسور (TPU) الخاصة بـ Google قبل تأسيس Groq في عام 2016. أوضح أن نهج Groq فريد: "إذا كنت تبني سيارة، يمكنك البدء بالمحرك أو تجربة القيادة. نحن بدأنا بتجربة القيادة، حيث قضينا أول ستة أشهر في تطوير مترجم متطور."
شهد الطلب على وحدات معالجة Nvidia زيادة على نطاق واسع في صناعة الذكاء الاصطناعي، مما خلق سوقًا مربحًا. ظهرت خدمات سحابية جديدة لوحدات معالجة الرسومات، بينما ذكر الرئيس التنفيذي السابق لـ GitHub، نات فريدمان، مؤخرًا سوقًا لمجموعات وحدات معالجة الرسومات. تشير التقارير إلى أن الرئيس التنفيذي لـ OpenAI، سام ألتمان، يعتزم معالجة طلبات شرائح الذكاء الاصطناعي من خلال مشروع ضخم بتكلفة مذهلة وتأثيرات جيوسياسية معقدة.
يعتقد روس أن مناخ وحدات معالجة الرسومات الحالي يستجيب جزئيًا لمبادرات Groq. "هناك القليل من الدورة الأخلاقية"، قال، مشيرًا إلى تعاملات Nvidia مع الدول السيادية كجزء من مفاوضاته العالمية المقبلة.
عند سؤاله عن طموح ألتمان لمبادرة شرائح ذكاء اصطناعي بقيمة 7 تريليونات دولار، قال روس بثقة: "يمكننا القيام بذلك مقابل 700 مليار دولار. نحن صفقة رابحة."
تسعى Groq أيضًا لتعزيز قدراتها في توفير شرائح الذكاء الاصطناعي. "[بنهاية العام]، سيكون لدينا بالتأكيد قدرة على معالجة 25 مليون توكن في الثانية، وهو المستوى الذي نتوقع أن تصل إليه OpenAI بنهاية 2023"، قال، مشيرًا إلى المناقشات المستمرة مع عدة دول لتوسيع هذه القدرة.
ومع ذلك، يجب على Groq أيضًا معالجة التحديات العملية، مثل تنفيذ نظام فواتير واجهة برمجة التطبيقات في ضوء الزيادة الأخيرة في الاهتمام. عندما استفسرت عن خططهم في هذا الصدد، أجاب روس: "سننظر في الأمر"، ليؤكد ممثل العلاقات العامة لديه، "نعم، سيكون ذلك أحد أولوياتنا."