كيف يمكن للذكاء الاصطناعي تعزيز فهمه للبشر؟ السر: جذبنا من خلال طرح الأسئلة.

كل من عمل في مجال خدمة العملاء أو تعاون مع فريق يدرك أن لكل فرد تفضيلات فريدة وأحيانًا محيرة. فهم هذه التفضيلات الفردية يمكن أن يكون تحديًا للبشر، لكنه أكثر تعقيدًا بالنسبة لنماذج الذكاء الاصطناعي، التي تفتقر إلى الخبرات والسياقات الشخصية. فكيف يمكن للذكاء الاصطناعي فهم ما يريده المستخدمون بحق؟

تقديم GATE: نهج جديد لفهم الذكاء الاصطناعي

يعمل فريق من الباحثين من الجامعات الرائدة وشركة Anthropic، مطوري روبوت المحادثة Claude 2، على معالجة هذه التحديات. يقترحون حلاً بسيطًا: تدريب نماذج الذكاء الاصطناعي على طرح المزيد من الأسئلة للمستخدمين لاكتشاف تفضيلاتهم الحقيقية.

في دراسة حديثة، قدم الباحث في Anthropic أليكس تامكين، بالتعاون مع زملائه من MIT وستانفورد، مفهوم "الاستدلال النشط التوليدي" (GATE). هدفهم واضح: الاستفادة من نماذج اللغة الكبيرة (LLMs) لتحويل تفضيلات البشر إلى أنظمة اتخاذ قرارات أتوماتيكية.

ببساطة، يمكّن GATE نماذج اللغة الكبيرة من التفاعل مع المستخدمين خلال تفاعلهم الأول. لا تقف النماذج عند توليد وتحليل النص، بل تدمج ردود المستخدمين في الوقت الحقيقي، مما يتيح لها استنتاج رغبات المستخدمين بناءً على مدخلاتهم والمفاهيم ذات الصلة في قاعدة بياناتها. كما صرح الباحثون، "تشير فعالية نماذج اللغة في فهم وإنتاج النص إلى قدرتها على استنتاج وفهم تفضيلات المستخدمين بشكل فعال."

ثلاث طرق لتنفيذ GATE

يمكن تنفيذ نهج GATE بعدة طرق:

1. التعلم النشط التوليدي: في هذه الطريقة، تولد LLM أمثلة للردود وتسأل المستخدمين عن آرائهم. على سبيل المثال، قد تسأل: "هل أنت مهتم بالمقال: فن المطبخ المدمج: مزج الثقافات والنكهات؟" بناءً على ردود المستخدمين، ستعدل LLM أنواع المحتوى التي تقدمها.

2. توليد الأسئلة بنعم/لا: تتضمن هذه الطريقة البسيطة طرح أسئلة ثنائية مثل: "هل تستمتع بقراءة مقالات عن الصحة والعافية؟" ستتكيف LLM مع ردود المستخدمين وفقًا لإجاباتهم.

3. الأسئلة المفتوحة: تهدف هذه الطريقة الأوسع إلى الحصول على معلومات أكثر دقة. قد تسأل LLM: "ما الهوايات التي تستمتع بها في وقت فراغك، وما الذي يجذبك إليها؟"

نتائج إيجابية من تجارب GATE

اختبر الباحثون طريقة GATE عبر ثلاثة مجالات: توصيات المحتوى، التفكير الأخلاقي، والتحقق من البريد الإلكتروني. من خلال تحسين نموذج GPT-4 من OpenAI بمشاركة 388 مشاركًا، وجدوا أن GATE ينتج نماذج بدقة أعلى مقارنة بالأساليب التقليدية، مع الحاجة لجهد إدراكي مماثل أو أقل من المستخدمين.

على وجه الخصوص، أظهر نموذج GPT-4 المحسّن مع GATE زيادة ملحوظة في دقة توقع تفضيلات المستخدمين، مما يدل على تحسين كبير في قدرته على تخصيص الردود. تبرز الدراسة أن النماذج اللغوية يمكن أن تطبق GATE بنجاح لاستنتاج تفضيلات البشر بدقة وكفاءة أكبر من الطرق الحالية.

يمكن أن تسهم هذه التطورات بشكل كبير في تسريع تطوير روبوتات المحادثة المعتمدة على LLM لتفاعلات العملاء أو الموظفين. بدلاً من الاعتماد فقط على مجموعات البيانات المتاحة مسبقًا لاستنتاج التفضيلات، فإن تحسين النماذج للتفاعل في عملية الأسئلة والأجوبة قد يعزز تجارب المستخدمين من خلال ضمان تفاعلات أكثر صلة وفائدة.

لذا، إذا بدأ روبوت المحادثة المفضل لديك قريبًا بطرح الأسئلة حول تفضيلاتك، فمن المحتمل أنه يستخدم طريقة GATE لتقديم ردود أكثر تخصيصاً ورضا.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles