في مؤتمر العالم العربي للهواتف المحمولة 2024، عرضت Qualcomm تطورات مهمة في قدرات الذكاء الاصطناعي لشريحة Snapdragon المستخدمة في الهواتف الذكية التي تعمل بنظام أندرويد. شملت العروض مجموعة من التطبيقات المبتكرة للذكاء الاصطناعي، مثل تحرير الوسائط المُفعَّل بالصوت، وتوليد الصور على الجهاز، والمساعدين الافتراضيين الذكيين المدعومين بنماذج اللغة الكبيرة (LLMs) من شركات مثل Meta.
أحد أبرز ميزات Qualcomm هو القدرة على تشغيل مساعد صوتي ورؤيوي كبير (LLaVa) مباشرة على الهواتف الذكية. يدمج هذا المساعد بين قدرات المحادثة المشابهة لـ ChatGPT وقدرات معالجة الصور من Google Lens. يمكن للمستخدمين رفع صور لأطباق واستفسارهم عن محتوياتها. يعتمد المساعد الذكي على نموذج متعدد الوسائط يضم أكثر من 7 مليارات معلمة لتحديد مكونات مثل الفواكه والأجبان واللحوم والمكسرات.
من الجدير بالذكر أن هذا المساعد يدعم كل من إدخال الصور والحوار المستمر، مما يُحسِّن تجربة المستخدم بشكل عام. على عكس حلول مثل ChatGPT وCopilot من OpenAI، يقوم حل Qualcomm بمعالجة البيانات مباشرة على الجهاز، مما يؤدي إلى أوقات استجابة أسرع وتحسينات في الخصوصية. تؤكد Qualcomm أن هذا المساعد الافتراضي المستند إلى LLaVa يعزز خصوصية المستخدم وموثوقيته وتخصيصه.
علاوة على ذلك، قدمت Qualcomm قدرات توليد الصور استنادًا إلى تقنية LoRA (التكيف منخفض الرتبة). تختلف هذه المقاربة عن أدوات الذكاء الاصطناعي التقليدية مثل DALL·E من خلال تحسين عملية التدريب عبر تقليل معلمات النموذج. تنتج هذه优化ات متطلبات ذاكرة أقل وسرعات معالجة أعلى، مما يجعل LoRA أكثر كفاءة للأجهزة المحمولة.
كما سلطت Qualcomm الضوء على وظائف الذكاء الاصطناعي الأخرى، مثل استخدام الذكاء الاصطناعي لملء المناطق الموسعة في الصور وقدرات الفيديو المُنتجة بواسطة الذكاء الاصطناعي، والتي تم تنفيذها بالفعل في جهاز Samsung Galaxy S24 Ultra. يُبرز معرض Qualcomm في MWC 2024 ريادتها في تكنولوجيا الذكاء الاصطناعي للهواتف الذكية، ويترقب القطاع كيف ستعيد هذه الابتكارات تشكيل تجربة المستخدم المحمولة.