تواصل شركة Nvidia تحقيق إنجازات ملحوظة في مجال الحوسبة خلال مؤتمر GTC الجاري في سان خوسيه.
خلال كلمته الرئيسية، أبدع الرئيس التنفيذي جينسين هوانغ، الذي ارتدى سترة جلدية سوداء، في جذب جمهور كبير مشابه للحفلات. حيث قدم شريحة GB200 Grace Blackwell، التي يتوقع أن تحقق زيادة في الأداء تصل إلى 30 مرة في أحمال العمل المتعلقة بنماذج اللغة الكبيرة (LLM). كما أشار هوانغ إلى التطورات في مجالات السيارات، والروبوتات، وعالم الأومني، والرعاية الصحية، مما أثار حماسًا كبيرًا على الإنترنت.
لا يكتمل حدث GTC بدون استعراض الشراكات الصناعية. كشفت Nvidia عن طريقة تعزيز تعاونها مع الشركات التكنولوجية الكبرى، من خلال دمج بنية الحوسبة الجديدة القائمة على الذكاء الاصطناعي، والبرامج، والخدمات. إليك ملخص لأهم الشراكات المعلنة:
AWS
أعلنت Nvidia أن AWS ستقدم منصتها الجديدة Blackwell، التي تحتوي على شريحة GB200 NVL72 مع 72 من وحدات معالجة الرسوميات Blackwell و36 معالج Grace، على خدمات EC2. ستمكن هذه التكامل العملاء من بناء وتشغيل استنتاجات في الوقت الفعلي على نماذج LLM متعددة التريليون بسرعة وكفاءة أكبر وبأقل تكلفة مقارنة بوحدات معالجة الرسوميات Nvidia السابقة. بالإضافة إلى ذلك، سيتم استقدام 20,736 شريحة GB200 إلى مشروع Ceiba، وهو حاسوب فائق الذكاء الاصطناعي تم تطويره حصريًا على AWS، وسيتم دمج Amazon SageMaker مع خدمات استنتاج Nvidia NIM.
Google Cloud
ستقوم Google Cloud بجمع منصة Grace Blackwell من Nvidia وخدمات NIM في بنيتها التحتية السحابية. كما أعلنت الشركة عن دعم JAX، وهو إطار عمل بلغة بايثون لتدريب نماذج LLM عالية الأداء على وحدات معالجة الرسوميات Nvidia H100، مما يسهل نشر إطار عمل Nvidia NeMo عبر Google Kubernetes Engine (GKE) ومجموعة أدوات HPC الخاصة بـ Google Cloud. علاوة على ذلك، ستدعم Vertex AI الآلات الافتراضية Google Cloud A3 المدعومة من وحدات معالجة الرسوميات NVIDIA H100 وG2 المدعومة من وحدات NVIDIA L4 Tensor Core.
Microsoft
أكدت Microsoft خططها لإضافة خدمات NIM وGrace Blackwell إلى Azure، جنبًا إلى جنب مع منصة الشبكات Quantum-X800 InfiniBand الجديدة. كما تقوم الشركة بدمج DGX Cloud مع Microsoft Fabric لتبسيط تطوير نماذج الذكاء الاصطناعي المخصصة، وتوفر واجهات برمجة التطبيقات Cloud APIs الخاصة بعالم الأومني الجديدة على منصة Azure Power. في مجال الرعاية الصحية، ستقوم Azure باستخدام مجموعة خدمات Clara من Nvidia وDGX Cloud لدعم الابتكار السريع في البحث السريري وتقديم الرعاية.
Oracle
تسعى Oracle للاستفادة من منصة الحوسبة Grace Blackwell عبر OCI Supercluster وOCI Compute، مدمجة كلًا من شريحة Nvidia GB200 ووحدة معالجة الرسوميات B200 Tensor Core. وأعلنت أن خدمات Nvidia NIM وCUDA-X، بما في ذلك NeMo Retriever لنشر استنتاجات RAG، ستعزز من الرؤية والدقة لتطبيقات الذكاء الاصطناعي التوليدية لعملاء OCI.
SAP
تتعاون SAP مع Nvidia لإدماج الذكاء الاصطناعي التوليدي في حلولها السحابية، بما في ذلك SAP Datasphere ومنصة SAP Business Technology وRISE مع SAP. كما تطور الشركة قدرات إضافية ضمن SAP BTP باستخدام خدمة مصنع الذكاء الاصطناعي التوليدية من Nvidia، والتي تشمل الحوسبة الفائقة في DGX Cloud وبرمجيات Nvidia AI Enterprise.
IBM
تخطط IBM Consulting لدمج تقنيتها وخبرتها الصناعية مع حزمة برمجيات Nvidia AI Enterprise، بما في ذلك خدمات NIM الجديدة وتقنيات الأومني. ويهدف هذا التعاون إلى تسريع سير العمل في مجال الذكاء الاصطناعي للعملاء، وتحسين تهيئة الاستخدامات، وتسهيل تطوير حلول ذكاء اصطناعي متخصصة في الصناعة، بما في ذلك تطبيقات التوأم الرقمي لسلسلة التوريد والتصنيع.
Snowflake
وسعت Snowflake شراكتها مع Nvidia لتشمل عملية التكامل مع NeMo Retriever، وهي خدمة ذكاء اصطناعي توليدي تربط نماذج LLM المخصصة مع البيانات المؤسسية. ستحسن هذه التحسينات من أداء وقابلية توسيع تطبيقات الدردشة التي تم تطويرها باستخدام Snowflake Cortex. بالإضافة إلى ذلك، تشمل التعاون برمجيات Nvidia TensorRT منخفضة الكمون لتطبيقات استنتاج التعلم العميق.
بالإضافة إلى Snowflake، التزمت مقدمو منصات البيانات الآخرون، بما في ذلك Box وDataloop وCloudera وCohesity وDatastax وNetApp، باستخدام خدمات Nvidia، وخاصة تقنية NIM الجديدة، لتحسين خطوط أنابيب RAG ودمج البيانات الخاصة في تطبيقات الذكاء الاصطناعي التوليدية.
من المقرر أن يُعقد مؤتمر Nvidia GTC 2024 في الفترة من 18 إلى 21 مارس في سان خوسيه وعبر الإنترنت.