باحثو أبل يكشفون عن نظام ذكاء اصطناعي مبتكر: ابتكارات تتفوق على أداء GPT-4

طور باحثو Apple نظام ذكاء اصطناعي يسمى ReALM (حل الإشارات كنموذج لغوي) يهدف إلى تحسين قدرة مساعدي الصوت على فهم الأوامر والاستجابة لها بشكل ملحوظ.

في ورقتهم البحثية الأخيرة، توضح Apple كيف يستفيد ReALM من نماذج اللغة الكبيرة لمعالجة تحديات حل الإشارات. يتفوق هذا النظام في تفسير الإشارات الغامضة للكيانات المعروضة على الشاشة وفهم الحوار في سياقه، مما يجعل التفاعل مع الأجهزة أكثر سلاسة وطبيعية.

حل الإشارات يعد جانبًا حاسمًا من فهم اللغة الطبيعية، حيث يمكّن المستخدمين من استخدام الضمائر والإشارات غير المباشرة في المحادثات دون حدوث لبس. ومع ذلك، كانت هذه المهمة تمثل تحديًا كبيرًا للمساعدين الرقميين بسبب تعقيد معالجة الإشارات اللفظية والمعلومات البصرية المختلفة. يحاول ReALM تبسيط هذه العملية المعقدة إلى مهمة نمذجة لغوية بسيطة، مما يتيح فهمًا أفضل للإشارات المتعلقة بالعناصر البصرية على الشاشة ضمن المحادثة.

يعيد ReALM بناء تخطيط الشاشة من خلال تمثيل نصي، حيث يقوم بتحليل الكيانات المعروضة على الشاشة ومواقعها لإنتاج صيغة نصية تعكس محتوى الشاشة وبنيتها. اكتشف باحثو Apple أن نماذج اللغة المضبوطة خصيصًا أدت أداءً أفضل بكثير في مهام حل الإشارات مقارنةً بالطرق التقليدية، بما في ذلك GPT-4 من OpenAI.

هذا التقدم يمكّن المستخدمين من التفاعل بكفاءة أكبر مع المساعدين الرقميين بناءً على المحتوى المعروض على شاشاتهم، مما يلغي الحاجة لوصف دقيق ومفصل. كما يفتح آفاقًا أكبر لتطبيقات مساعدي الصوت، مثل مساعدة السائقين بمعلومات الملاحة أثناء القيادة أو تقديم تفاعل غير مباشر أبسط وأكثر دقة للمستخدمين ذوي الإعاقة.

مؤخراً، أصدرت Apple العديد من الدراسات المتعلقة بالذكاء الاصطناعي، لا سيما طريقة تدريب نموذج اللغة الكبيرة لدمج المعلومات النصية والبصرية بسلاسة والتي نُشرت الشهر الماضي. ويوجد ترقب كبير لمؤتمر WWDC القادم في يونيو، حيث من المتوقع أن تكشف Apple عن مجموعة من الميزات الجديدة في الذكاء الاصطناعي.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles