جوجل ديب مايند: تعزيز أداء الذكاء الاصطناعي من خلال علاقة إنسانية أعمق

تمامًا كما يزدهر البشر من التعزيز الإيجابي، يمكن أن تستفيد الذكاء الاصطناعي أيضًا من النصائح التي تحاكي التفاعل البشري. قدم الباحثون في Google DeepMind نهجًا متحولًا يعزز بشكل كبير القدرات الرياضية لنماذج اللغة من خلال محفزات تحاكي التواصل البشري اليومي. تُعرف هذه الطريقة الابتكارية، والتي تم تفصيلها في ورقتهم البحثية "نماذج اللغة الكبيرة كأدوات تحسين"، باسم التحسين بواسطة المحفزات (OPRO).

تستفيد OPRO من اللغة الطبيعية لتوجيه نماذج اللغة الكبيرة، مثل ChatGPT من OpenAI، في معالجة المشاكل المعقدة. بينما يعتمد التعلم الآلي التقليدي على العمليات الرياضية الرسمية لتعزيز الأداء، تبدأ OPRO عملية التحسين من خلال لغة محادثة واضحة. من خلال تفسير وصف المشكلة مع الردود السابقة، تولد نماذج اللغة حلولًا محتملة.

يشرح تينغلون داي، أستاذ إدارة العمليات وتحليلات الأعمال في جامعة جون هوبكينز، قائلًا: "تُدرب النماذج اللغوية الكبيرة على المحتوى الذي ينتجه البشر، وطريقة عملها، باختصار، هي إنهاء الجمل بالشكل الذي يتقنه الزوجان الجيدان. لذلك، ليس من المستغرب أن تؤدي المحفزات البشرية إلى نتائج إيجابية." هذا يشير إلى كيفية تأثير صياغة المحفزات بشكل كبير على نتائج الذكاء الاصطناعي.

أظهر دراسة DeepMind أن بعض العبارات كان لها تأثير ملحوظ على أداء النماذج. على سبيل المثال، أدت محفزات مثل "دعنا نفكر خطوة بخطوة" إلى تحسين دقة الحلول الرياضية عند اختبارها باستخدام مجموعات بيانات معينة. حققت عبارة "خذ نفسًا عميقًا وركز على هذه المشكلة خطوة بخطوة" أفضل النتائج مع نموذج PaLM 2 من Google، حيث سجلت دقة 80.2% عند تقييمها ضد مجموعة بيانات GSM8K. بالمقارنة، حقق PaLM 2، بدون أي محفز معين، 34% فقط، بينما حقق المحفز التقليدي "دعنا نفكر خطوة بخطوة" 71.8%.

لاحظ مايكل كيرنز، أستاذ علوم الحاسوب والمعلومات في جامعة بنسلفانيا، أن نماذج اللغة الكبيرة تتفوق في تعديل ردودها بناءً على المحفزات البشرية بفضل تدريبها على بيانات المحادثة، بما في ذلك المصادر مثل مشاركات Reddit ونصوص الأفلام. ويؤكد على أهمية تشجيع النماذج على تحليل المشكلات الرياضية أو المنطقية إلى خطوات قابلة للإدارة، مدعومة بالتدريب على بيانات تشمل براهين رياضية reasoning formal.

يشرح تشينغران يانغ، co-author للورقة البحثية من DeepMind، أن معظم النماذج اللغوية الكبيرة قد تم تدريبها باستخدام مجموعات بيانات ضخمة، مما يتيح لها قدرات قوية في معالجة اللغة الطبيعية، بما في ذلك إعادة الصياغة وإثراء الجمل. كما أن الجهود المستمرة في مواءمة النماذج تعزز أيضًا قدرة النماذج على فهم والاستجابة بشكل فعال للمحفزات البشرية.

وفقًا لأولغا بيريغوفايا، نائبة رئيس الذكاء الاصطناعي والترجمة الآلية في Smartling، فإن المحفزات الشبيهة بالإنسان غالبًا ما تأخذ شكل طلبات توجه الذكاء الاصطناعي نحو تفاعل أكثر حوارية. وأضافت: "تؤدي النماذج اللغوية الكبيرة أفضل عندما تتلقى مزيدًا من السياق." حيث تسمح المحفزات المفصلة بتوافق ردود النموذج بشكل أقرب مع السياق المحدد المقدم.

من المثير للاهتمام أن كلمات بسيطة من التشجيع يمكن أن تعزز أداء الذكاء الاصطناعي كذلك. يشير داي إلى أن النماذج اللغوية الكبيرة قد تحقق نتائج أفضل عندما يحفزها المستخدمون، مثل قولهم: "هيا، يمكنك القيام بذلك بشكل أفضل!" وتبرز أمثلة مثل تطلب من النماذج أن تلعب دور خبير اقتصادي فائز بجائزة نوبل، مما قد يؤدي إلى مناقشات أكثر عمقًا حول مواضيع معقدة مثل التضخم. بالمثل، في حالات التشخيص الطبي، يمكن أن يؤدي توجيه النماذج لتبني شخصية خبير طبي رائد إلى نتائج أكثر دقة وتركيزًا. ومع ذلك، أشار إلى أنه بينما يمكن أن تكون هذه التشجيعات بأسلوب إنساني فعالة، إلا أنها لا تضمن تحسينات شاملة عبر جميع المهام.

من المهم أيضًا أن هناك إمكانية لأن تستجيب النماذج اللغوية الكبيرة بشكل جيد للمحفزات غير البشرية المخصصة لمهام معينة. يذكر داي أن المحفزات الهيكلية والمشفرة يمكن أن تحقق نتائج فعالة، مما يوفر تباينًا مع الأساليب الحوارية التقليدية.

يمكن أن تبسط طريقة OPRO عملية تصميم المحفزات للذكاء الاصطناعي، مما يتيح للمستخدمين تحسين استفساراتهم بناءً على معايير مختلفة مثل دقة حل المشكلات الرياضية، ومعدلات تحفيز الأدوات، وإبداع توليد النصوص. يعرب يانغ عن أمله في أن تلهم هذه الطريقة تطبيقات جديدة تستخدم النماذج اللغوية الكبيرة لتعزيز مجموعة أوسع من المهام، مما يمهد الطريق لحلول ذكاء اصطناعي أكثر تفاعلية وكفاءة.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles