شركة MIT Spinoff تطلق نماذج ذكاء اصطناعي متطورة من دون محولات

أطلقت شركة Liquid AI، وهي شركة ناشئة شارك في تأسيسها باحثون سابقون من معهد ماساتشوستس للتكنولوجيا (MIT) من مختبر علوم الكمبيوتر والذكاء الاصطناعي، نماذجها الأولى من الذكاء الاصطناعي متعددة الوسائط: نماذج Liquid Foundation (LFMs).

تختلف LFMs عن العديد من نماذج الذكاء الاصطناعي التوليدية الحالية التي تعتمد على هندسة التحويل، وخاصة الإطار الشهير "Attention Is All You Need" الذي أُطلق في عام 2017. تهدف Liquid AI إلى استكشاف بدائل لنماذج Transformers المدربة مسبقًا (GPTs). تم بناء LFMs من "مبادئ أساسية"، كما يفعل المهندسون عند تصميم المحركات والطائرات.

تظهر LFMs المبتكرة أداءً متفوقًا مقارنة بنماذج التحويل المشابهة، مثل Llama 3.1-8B من Meta وPhi-3.5 3.8B من Microsoft. تتوفر النماذج بثلاثة أحجام: LFM 1.3B (صغير)، LFM 3B، وLFM 40B MoE (نموذج مزيج الخبراء) مع أعداد متباينة من المعلمات، المشار إليها بـ "B" للدلالة على المليار. عمومًا، يشير عدد المعلمات الأعلى إلى قدرة أكبر في أداء المهام المتنوعة.

تجاوز الإصدار LFM 1.3B بالفعل Llama 3.2-1.2B من Meta وPhi-1.5 من Microsoft في مختلف المعايير الخارجية، بما في ذلك اختبار Massive Multitask Language Understanding (MMLU)، مما يمثل إنجازًا مهمًا لهندسة غير GPT. تتمتع النماذج الثلاثة بتوازن بين الأداء العالي وكفاءة الذاكرة؛ على سبيل المثال، يتطلب LFM-3B من Liquid 16 جيجابايت من الذاكرة، بينما يحتاج Llama-3.2-3B من Meta إلى أكثر من 48 جيجابايت.

عبّر ماكسيم لابون، رئيس قسم ما بعد التدريب في Liquid AI، عن فخره بنماذج LFMs عبر حساباته على وسائل التواصل الاجتماعي، مشددًا على كفاءتها وقدرتها على التفوق على نماذج التحويل في معايير الأداء مع استهلاك ذاكرة أقل بكثير. تم تحسين هذه النماذج لتلبية احتياجات متعددة، بما في ذلك الحلول المؤسسية في المجالات المالية والتكنولوجيا الحيوية والإلكترونيات الاستهلاكية، بالإضافة إلى استخدامها على الأجهزة الطرفية.

ومع ذلك، يُلاحظ أن LFMs ليست مفتوحة المصدر. يجب على المستخدمين الوصول إليها من خلال منصات الاستدلال الخاصة بـ Liquid، مثل Lambda Chat أو Perplexity AI.

تتضمن طريقة Liquid في تطوير LFMs مزيجًا من الوحدات الحسابية المعتمدة على نظرية الأنظمة الديناميكية، ومعالجة الإشارات، والجبر الخطي العددي. وهذا يمكّن نماذج الذكاء الاصطناعي العامة من التعامل مع أنواع متعددة من البيانات التسلسلية، بما في ذلك الفيديو والصوت والنص والسلاسل الزمنية.

أشارت التقارير العام الماضي إلى تركيز Liquid AI على الشبكات العصبية السائلة (LNNs)، وهي بنية طورتها CSAIL لتعزيز كفاءة ومرونة الخلايا العصبية الاصطناعية. على عكس نماذج التعلم العميق التقليدية التي تتطلب العديد من الخلايا العصبية لمهام معقدة، تُظهر LNNs أن عددًا أقل من الخلايا العصبية—عند دمجها مع تقنيات رياضية مبتكرة—يمكن أن تحقق نتائج مماثلة.

تستفيد LFMs من هذه القدرة على التكيف، مما يسمح بتعديلات في الوقت الحقيقي أثناء الاستدلال مع الحد الأدنى من النفقات الحاسوبية. على سبيل المثال، يتفوق نموذج LFM-3B في معالجة السياقات الطويلة مع الحفاظ على بصمة ذاكرة أصغر مقارنةً بنماذج مثل Gemma-2 من Google وPhi-3 من Microsoft وLlama-3.2 من Meta.

من خلال قدراتها متعددة الوسائط، تعالج Liquid AI تحديات متنوعة في قطاعات الخدمات المالية والتكنولوجيا الحيوية والإلكترونيات الاستهلاكية.

حاليًا، في مرحلة المعاينة، تشجع Liquid AI المستخدمين الأوائل على اختبار النماذج وتقديم الملاحظات. من المقرر إقامة حدث الإطلاق الكامل في 23 أكتوبر 2024 في مسرح كريج بMIT في كامبريدج، ماساتشوستس، مع قبول التأكيدات على الحضور. استعدادًا لذلك، تخطط Liquid AI لإصدار سلسلة من المشاركات الفنية في المدونات وتشجيع جهود اختبار الضغط، لدعوة المستخدمين لاختبار نماذجهم لتحسينات مستقبلية.

مع إطلاق نماذج Liquid Foundation، تهدف Liquid AI إلى ترسيخ مكانتها كلاعب رئيسي في قطاع نماذج الأساس، مجمعةً بين الأداء الاستثنائي وكفاءة الذاكرة التي لا تضاهى.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles