أمبير كوميونيكاشن توسع عائلة المعالجات وتوجهها نحو كفاءة الذكاء الاصطناعي
أعلنت شركة أمبير كوميونيكاشن أن عائلة شرائح AmpereOne ستتوسع إلى 256 نواة بحلول العام المقبل. كما تتعاون الشركة مع كوالكوم لتطوير مسرعات الذكاء الاصطناعي السحابية.
وفقًا لجيف ويتش، المدير التنفيذي للمنتجات، ستوفر وحدة المعالجة المركزية الجديدة أداءً أعلى بنسبة 40% مقارنة بأي معالج متاح حاليًا.
التعاون مع كوالكوم
تتخذ أمبير من سانتا كلارا، كاليفورنيا، مقرًا لها، وستتعاون مع كوالكوم لتطوير حل مخصص لاستدلال الذكاء الاصطناعي من خلال الاستفادة من حلول Cloud AI 100 عالية الأداء ومنخفضة الطاقة من كوالكوم بجانب معالجات أمبير.
أبرزت رينيه جيمس، رئيسة الشركة، التحديات الطاقوية الملحة التي تطرحها تقدمات الذكاء الاصطناعي. قالت: "بدأنا هذه الرحلة منذ ست سنوات لأننا أدركنا أهميتها. الطاقة المنخفضة لم تعد تعني أداءً منخفضًا. لقد أعادت أمبير تعريف حدود كفاءة الحوسبة، مقدمة أداءً متفوقًا ضمن إطار كفء."
معالجة كفاءة الطاقة في مراكز البيانات
تعتبر استهلاكات الطاقة في مراكز البيانات قضية متنامية. وأشارت جيمس إلى أن الانتقال السريع نحو الذكاء الاصطناعي زاد من تحديات الطاقة في الصناعة. وأضافت: "المسار الحالي غير مستدام. يجب على بنى مراكز البيانات المستقبلية تحديث الأنظمة القائمة على التبريد بالهواء وبناء مرافق جديدة مستدامة بيئيًا تتناسب مع توفر الطاقة من الشبكة."
وساند ويتش هذا الرأي، مشيرًا إلى أن الحاجة إلى معالج جديد كانت مدفوعة بزيادة استهلاك الطاقة في مراكز البيانات، خاصةً بسبب الذكاء الاصطناعي. وأضاف: "من الضروري أن نطور حلولًا تعزز الكفاءة في الحوسبة العامة والذكاء الاصطناعي."
رؤية أمبير لحوسبة الذكاء الاصطناعي
تعتبر أمبير رائدة في نهج شامل يسمى "حوسبة الذكاء الاصطناعي"، الذي يجمع بين القدرات السحابية الأصلية ووظائف الذكاء الاصطناعي. أوضح ويتش: "يمكن لمعالجاتنا دعم مجموعة واسعة من أحمال العمل بدءًا من التطبيقات السحابية الأصلية الشائعة إلى الذكاء الاصطناعي، مما يدمج الذكاء الاصطناعي في التطبيقات التقليدية مثل معالجة البيانات وتوصيل الوسائط."
الخطط المستقبلية
تضع أمبير خطة طموحة لمعالجات مراكز البيانات الخاصة بها. تشمل التطورات المستقبلية رئيسية المعالج 12 قناة 256 نواة، المصنعة باستخدام تكنولوجيا TSMC N3. المعالج 192 نواة المعلن عنه سابقًا قيد الإنتاج ومتوافر في السوق بالفعل.
تتعاون أمبير وكوالكوم أيضًا لتعزيز حلهما المشترك الذي يجمع بين معالجات أمبير وQualcomm Cloud AI 100 Ultra، مستهدفين استدلال نماذج اللغة الكبيرة (LLM) في مجال الذكاء الاصطناعي التوليدي.
وصف ويتش شراكتهما بأنها التزام بإنشاء معالجات ذات كفاءة عالية مخصصة لتطبيقات الذكاء الاصطناعي. قال: "سيُبسط هذا الحل اعتماد العملاء ويوفر إمكانيات مبتكرة لاستدلال الذكاء الاصطناعي."
تعزيز الأداء
مع توسيع منصة 12 قناة لتشمل معالج AmpereOne الجديد 256 نواة، يمكن للمستخدمين توقع تعزيزات كبيرة في الأداء دون تصاميم معقدة. لا يزال النموذج الحالي 192 نواة على المسار لإطلاقه في وقت لاحق من هذا العام، مما يُظهر تطورًا من ثمانية إلى اثني عشر قناة من الذاكرة.
من الجدير بالذكر أن تقنية معالجات أمبير تُستخدم بالفعل من قبل Llama 3 التابعة لـ Meta في Oracle Cloud. إذ تعمل Llama 3 على معالج Ampere Altra 128 نواة دون استخدام وحدة معالجة رسومات، مقدمة مستوى أداء مكافئ لمزيج من Nvidia A10 ووحدة معالجة مركزية x86، بينما تستهلك ثلث الطاقة فقط.
مجموعة عمل UCIe والميزة التنافسية
مؤخراً، شكلت أمبير مجموعة عمل UCIe كجزء من تحالف منصة الذكاء الاصطناعي لتعزيز مرونة معالجاتها، مما يسمح بإدماج الملكية الفكرية للعملاء في التصاميم المستقبلية.
تتنافس أمبير بشكل مباشر مع AMD، مُسلطة الضوء على مزايا أدائها. تطور معالجات AmpereOne في الأداء لكل واط، متفوقة على Genoa من AMD بنسبة 50% وBergamo بنسبة 15%. بالنسبة لمراكز البيانات التي تتطلع إلى تحديث بنيتها التحتية، يمكن لـ AmpereOne تقديم أداء أعلى بنسبة 34% لكل خزان.
ستُشحن منصات AmpereOne OEM وODM الجديدة في الأشهر المقبلة.
بالإضافة إلى ذلك، تعاونت أمبير مع NETINT لتطوير حل باستخدام شرائح معالجة الفيديو Quadra T1U، مما يمكّن من تحويل 360 قناة حية في الوقت الحقيقي وترجمة فورية لـ 40 تدفقًا، مستخدمين نموذج Whisper من OpenAI.
تسعى أمبير لأن تكون العمود الفقري للحوسبة في عصر الذكاء الاصطناعي. تشمل التحسينات الأخيرة ميزات مثل تعليم الذاكرة، وتطبيق جودة الخدمة، وإدارة تزاحم الشبكات، culminating in the introduction of the FlexSKU feature, allowing customers to leverage the same SKU for both scale-out and scale-up use cases.
من خلال التعاون مع Oracle، نجحت أمبير في تقليل التكاليف التشغيلية بنسبة 28% بينما تستخدم ثلث الطاقة المطلوبة من حلول Nvidia المنافسة. يمكّن هذا النهج المستخدمين من العمل مع 15% أقل من الخوادم، و33% أقل من مساحة الخزانة، و35% تقليل استهلاك الطاقة، مما يتماشى مع التزام أمبير بالكفاءة والأداء في حوسبة الذكاء الاصطناعي.