أعلنت Snowflake، المزود الرائد لخدمات السحابة للبيانات، رسمياً عن دمج نموذج Jamba-Instruct LLM الخاص بـ AI21 Labs في خدمة Cortex AI. تم تصميم هذه الإضافة الجديدة لمساعدة عملاء Snowflake من المؤسسات على تطوير تطبيقات الذكاء الاصطناعي التوليدي، مثل روبوتات المحادثة وأدوات التلخيص، التي تدير المستندات الطويلة بكفاءة دون التنازل عن الجودة أو الدقة.
اعتباراً من اليوم، يُمكن نموذج Jamba-Instruct المؤسسات من الاستفادة من الملفات الكبيرة، وهو أمر ضروري في العديد من الشركات. بينما تُعد AI21 Labs شريكاً مهماً، تتعاون Snowflake مع مجموعة متنوعة من نماذج LLM لتعزيز نظامها للذكاء الاصطناعي التوليدي. في الآونة الأخيرة، دخلت Snowflake في شراكة مع Meta لدمج مجموعة نماذج Llama 3.1 وأطلقت نموذجها الخاص، "Arctic"، مما يعكس تقدمها السريع في مجال الذكاء الاصطناعي التوليدي.
فوائد Jamba-Instruct لمستخدمي Snowflake
في شهر مارس، قدمت AI21 Labs نموذج Jamba، وهو نموذج مفتوح للذكاء الاصطناعي التوليدي يجمع بين هيكل التحويل ونموذج الفضاء الهيكلي المبتكر (SSM) الذي يوفر كفاءة عالية في الذاكرة. يبرز Jamba من خلال تقديم نافذة سياق رائعة تصل إلى 256K، مما يؤدي إلى زيادة الإنتاجية ثلاثة أضعاف للبيانات الطويلة مقارنة بالنماذج المشابهة. هذه الكفاءة هي التي مهدت الطريق لإصدار Jamba-Instruct، وهو إصدار مُعدل وفقًا للتعليمات يتضمن تدريباً متقدماً، وقدرات للدردشة، وميزات أمان للتطبيقات المؤسسية.
تم إطلاق Jamba-Instruct على منصة AI21 في مايو، وهو الآن جزء من خدمة Cortex AI، وهي خدمة مدارة بالكامل بدون كود لبناء تطبيقات ذكاء اصطناعي توليدي قوية. قال باريس جولتيكين، رئيس الذكاء الاصطناعي في Snowflake: "بفضل نافذة السياق الكبيرة، يمكن لـ Jamba-Instruct معالجة ما يصل إلى 256K توكن، أي حوالي 800 صفحة من النصوص، مما يجعله أداة لا تقدر بثمن لإدارة الوثائق الكبيرة."
على سبيل المثال، يمكن للمحللين الماليين استخدام أدوات التساؤل والإجابة لاستخلاص الأفكار من الملفات الطويلة 10-K، بينما يمكن للأطباء تحليل تقارير المرضى الشاملة بسرعة لاستخراج البيانات ذات الصلة. كما يمكن لتجار التجزئة إنشاء روبوتات محادثة قادرة على الحفاظ على حوارات متماسكة تستند إلى المراجع مع العملاء.
أكد جولتيكين على أن نافذة السياق الواسعة تسهل إنشاء خطوط أنابيب الجيل المعزز بالاسترجاع (RAG)، مما يتيح الاسترجاع الفعال للمعلومات ودعم التعليمات الموجهة لتوليد محتوى بنغمات محددة.
الكفاءة من حيث التكلفة
بالإضافة إلى قدراتها على التعامل مع المستندات الطويلة، تقدم Jamba-Instruct وفورات كبيرة في التكلفة لعملاء Snowflake. التصميم الهجين للنموذج والتكنولوجيا الخاصة بالخلط بين الخبراء (MoE) تجعل نافذة السياق الواسعة أكثر اقتصادية مقارنةً بالنماذج الأخرى التي تمت تعديلها وفقاً للتعليمات. ومع نموذج التسعير القائم على الاستهلاك لخدمة Cortex AI، تدفع المؤسسات فقط مقابل الموارد التي تستخدمها، مما يلغي الحاجة لبنية تحتية مكلفة مخصصة.
وأوضح بانكاج دوغار، نائب الرئيس والمدير العام لشمال أمريكا في AI21 Labs: "يمكن للمنظمات تحقيق توازن فعال بين الأداء والتكلفة والوقت من خلال استخدام توسيع Snowflake إلى جانب كفاءة Jamba-Instruct. تمكّن بنية Cortex AI من توسيع الموارد الحاسوبية بسلاسة."
يدعم Cortex AI حاليًا مجموعة متنوعة من نماذج LLM، بما في ذلك نموذج Arctic الخاص بـ Snowflake وعروض من Google وMeta وMistral AI وReka AI. أضاف جولتيكين: "نسعى لتوفير المرونة لعملائنا لاختيار بين النماذج المفتوحة المصدر والتجارية، تلبية لاحتياجاتهم الخاصة دون تعقيد حوكمة البيانات."
من المتوقع أن تنمو مجموعة النماذج، مع خيارات جديدة، خاصة من AI21، المقرر وصولها في الأشهر القادمة. وضح جولتيكين أن ملاحظات العملاء تلعب دورًا حاسمًا في تقييم ودمج نماذج LLM لضمان توفر الأدوات المناسبة لحالات الاستخدام المختلفة مثل ذكاء الأعمال التلقائي، والمساعدات الحوارية، وتلخيص النصوص.
استحوذت Snowflake مؤخرًا على TruEra لمساعدة العملاء على التنقل في المشهد المتوسع من خيارات النماذج. أشار جولتيكين إلى أن TruEra's TruLens يمكّن المستخدمين من تجربة نماذج LLM وتقييم الأنسب لاحتياجاتهم.
اليوم، تستخدم أكثر من 5000 مؤسسة قدرات الذكاء الاصطناعي من Snowflake، مع التركيز على التطبيقات الرئيسية مثل ذكاء الأعمال التلقائي، والمساعدات الحوارية، وتلخيص النصوص.