زيادة القوة الحاسوبية وضغوط الطاقة: الكشف عن حلول NVIDIA وIntel الفعّالة في استهلاك الطاقة

بناء بنية تحتية قابلة للتوسع في الذكاء الاصطناعي: التركيز على كفاءة الطاقة

في مؤتمر "هوت تشيبس 2024" الأخير، ألقى تريفور كاي، رئيس البنية التحتية للأجهزة في OpenAI، كلمة رئيسية بعنوان "بناء بنية تحتية قابلة للتوسع في الذكاء الاصطناعي". وأكد كاي أن توسيع الموارد الحاسوبية يمكن أن يعزز بشكل كبير من أداء وفاعلية الذكاء الاصطناعي، مما يجعل هذه الفكرة محورية لمستقبل تطوير الذكاء الاصطناعي.

يُعد مؤتمر "هوت تشيبس" مؤتمرًا عالميًا بارزًا يعرض التطورات في المعالجات والتقنيات ذات الصلة. هذا العام، كانت المناقشات حول الذكاء الاصطناعي أكثر حيوية، خاصة في ظل الزيادة الملحوظة في الطلب على الطاقة في مراكز البيانات. تشير الأبحاث من Morgan Stanley إلى أن استهلاك الكهرباء للذكاء الاصطناعي التوليدي من المتوقع أن يرتفع بنسبة 75% سنويًا خلال السنوات القليلة المقبلة، مع توقع استخدام الطاقة لمطابقة إجمالي استهلاك إسبانيا بحلول عام 2026.

الزيادة في حلول كفاءة الطاقة

خلال حدث "هوت تشيبس 2024" الذي استمر يومين، كان هناك تركيز ملحوظ على نشر خوادم ذكاء اصطناعي قابلة للتوسع وكفؤة في استخدام الطاقة. في حديثه، أشار تريفور كاي إلى أنه مع زيادة القدرات الحاسوبية، هناك حاجة لاستثمارات ضخمة في البنية التحتية للذكاء الاصطناعي لتحقيق فوائد ملحوظة. منذ عام 2018، زادت المتطلبات الحاسوبية للنماذج المتقدمة بحوالي أربعة أضعاف. في حين أن تدريب النموذج الأصلي GPT-1 كان يتطلب بضعة أسابيع فقط، أصبح اليوم يحتاج إلى مجموعات ضخمة من وحدات معالجة الرسوميات (GPU).

عرضت IBM معالجها Telum II القادم ومسرع Spyre، مع التركيز على طرق تكامل جديدة للذكاء الاصطناعي تهدف إلى تقليل استهلاك الطاقة والمساحة الفيزيائية. قدّمت NVIDIA بنية مجموعة Blackwell AI، القادرة على تدريب نماذج تصل إلى 100 تريليون معامل، مع استخدام نظام الكوانتization Quasar لتقليل استهلاك الطاقة. كما قدمت شركات أخرى مثل Intel وBroadcom وSK Hynix حلول تكنولوجية كفؤة في استخدام الطاقة، مما يبرز القلق المشترك بشأن زيادة الطلب على الطاقة.

طلب الطاقة والتحديات البيئية

تدفع التطورات السريعة في الذكاء الاصطناعي إلى زيادة الطلب على المعالجات الأكثر قوة، مما يؤدي إلى استهلاك غير مسبوق للطاقة في مراكز البيانات. ووفقًا لـ Bloomberg، استثمرت الشركات التقنية الكبرى مبلغًا مذهلًا قدره 105 مليار دولار في بنية مراكز البيانات العام الماضي. مع زيادة الاحتياجات الحاسوبية لمهام الذكاء الاصطناعي، تتوقع الوكالة الدولية للطاقة أن يتطابق استهلاك الطاقة لمراكز البيانات العالمية مع استهلاك الكهرباء في اليابان بحلول عام 2026.

لاحظت ساشا لوتشيوني، رئيسة Hugging Face، أنه رغم أن تدريب نماذج الذكاء الاصطناعي عادةً ما يحدث في جولة واحدة، إلا أن الاستعلامات المتكررة تؤدي إلى زيادة استهلاك الطاقة. على سبيل المثال، يستهلك استعلام واحد لـ ChatGPT طاقة تعادل تشغيل مصباح كهربائي لمدة 20 دقيقة. يشكل هذا الطلب تحديات لموارد الكهرباء ويثير مخاوف بيئية.

استجابةً لأزمة الطاقة، تستكشف الشركات التقنية مصادر الطاقة النظيف. تستثمر Amazon في مركز بيانات يعمل بالطاقة النووية في بنسلفانيا للحد من الاعتماد على الشبكات التقليدية. في غضون ذلك، تطور Google رقاقة مخصصة محسّنة للذكاء الاصطناعي، مما يعزز بشكل كبير كفاءة الطاقة.

تشير أبحاث NVIDIA إلى أن نظام التبريد المباشر بالسوائل يمكن أن يقلل استهلاك الطاقة لمراكز البيانات بنسبة 28%. ومع ذلك، يحذر البروفيسور سينكلير من جامعة ويسكونسن من أنه رغم زيادة كفاءة الطاقة للمهام الفردية، قد لا يزال الارتفاع العام في الاستخدام يؤدي إلى زيادة إجمالية في استهلاك الطاقة. هذه الظاهرة، المعروفة باسم مفارقة جيفونس، تنطبق تاريخيًا وفي سياق تطوير الذكاء الاصطناعي الحديث.

الخاتمة

تتطلب التطورات السريعة في تكنولوجيا الذكاء الاصطناعي بالتزامن مع زيادة الطلب على الطاقة أن تستكشف الشركات التقنية حلولًا مبتكرة ومستدامة. تعكس المناقشات في "هوت تشيبس 2024" تركيزًا جماعيًا في الصناعة على التقنيات الأكثر كفاءة في استخدام الطاقة، مشيرةً إلى الطريق نحو تطوير بنية تحتية مستقبلية للذكاء الاصطناعي.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles