تظهر نماذج اللغة الكبيرة (LLMs) الناشئة مثل ChatGPT من OpenAI (خاصة GPT-4)، وClaude AI، وGemini، قدرات محدودة في اتخاذ القرارات. يستعرض هذا المقال الأبحاث الحديثة المتعلقة باتخاذ القرار في LLMs وتأثيراتها على مستقبلها.
تقليديًا، يتطلب اتخاذ القرار الفعال في LLMs التعرف على الأنماط أو القواعد الأساسية وتطبيقها بشكل مرن على السيناريوهات الجديدة. وجدت دراسة من معهد سانتا في أن LLMs، بما في ذلك ChatGPT، تواجه صعوبة في "التفكير حول المفاهيم الأساسية". يتطلب اتخاذ قرارات سليمة فهمًا عميقًا لسياق المطالبة والعواقب المحتملة الناتجة عنها.
يمكن أن تؤدي القرارات الضعيفة من LLMs إلى نتائج ضارة. على سبيل المثال، في عام 2023، أوقفت جمعية اضطرابات الأكل الوطنية روبوت الدردشة الذكي "تيسا" بعد أن بدأت في تقديم نصائح ضارة، مثل الاقتراحات بإجراء قياسات للوزن أسبوعيًا وخلق عجز سعرات حرارية يتراوح بين 500 و1000 سعرة حرارية. أدى رد الفعل إلى تعطيل الروبوت بسرعة.
تميل LLMs أيضًا إلى توليد توصيات عامة. كشفت أبحاث من INSEAD أنه عند الطلب للحصول على إجابات حول استراتيجيات الأعمال، غالبًا ما يلجأ ChatGPT إلى الحكمة التقليدية مثل تعزيز العمل الجماعي وثقافة الابتكار. ومع ذلك، تعتبر استراتيجيات الأعمال عملية معقدة تتطلب رؤى مصممة حسب الحاجة بدلاً من النصائح العامة.
يمكن أن يكون هناك حجة مضادة مفادها أن تدريب LLMs خصيصًا على استراتيجيات الأعمال أو النصائح الصحية قد يحل هذه القضايا. ومع ذلك، لا يمكن تحسين فهمها للسياق فقط من خلال توسيع مجموعات البيانات الخاصة بها. إن إضافة المزيد من البيانات قد يقدم تحيزات ويزيد من متطلبات الحساب دون تحسين جودة اتخاذ القرار.
تمكين اتخاذ القرارات الملائمة للسياق
يتطلب تدريب LLMs على اتخاذ قرارات ملائمة للسياق نهجًا دقيقًا. تقترح استراتيجيتان متقدمتان من أبحاث التعلم الآلي الحالية طرقًا لتعزيز اتخاذ القرار في LLMs لتشبه العمليات المعرفية البشرية. الأولى، AutoGPT، تستخدم آلية تأمل ذاتي للتخطيط والتحقق من المخرجات. والثانية، شجرة الأفكار (ToT)، تشجع على اتخاذ القرار الفعال من خلال الابتعاد عن التفكير الخطي التقليدي.
تم تصميم AutoGPT لإنشاء وتقييم وتنقيح النماذج ذاتيًا لتحقيق أهداف محددة. تضيف التحسينات لـ AutoGPT الآن استراتيجية "آراء إضافية"، مما يدمج النماذج الخبيرة في عملية اتخاذ القرار. يسمح هذا التكامل لـ LLMs باستخدام المعلومات ذات الصلة من تحليلات الخبراء المتنوعة، مما يحسن نتائج القرار من خلال نهج منهجي يعتمد على "التفكير-الاستدلال-التخطيط-الانتقاد".
إذا تم تنفيذها بشكل فعال، يمكن أن تعالج LLMs المدعومة بالنماذج الخبيرة معلومات أكثر من البشر، مما يشير إلى أنها قد تتخذ قرارات أكثر وعيًا. ومع ذلك، تقتصر AutoGPT على نافذة سياق محدودة، مما قد يؤدي إلى حلقات تفاعل غير منتهية. غالبًا ما تؤدي توفير جميع المعلومات ذات الصلة من البداية إلى نتائج أفضل مقارنة بالحقن التدريجي للبيانات خلال محادثة.
محاكاة الإدراك البشري باستخدام شجرة الأفكار
يقدم إطار شجرة الأفكار (ToT) طريقة واعدة أخرى لتعزيز دقة LLMs من خلال تقليد العمليات المعرفية البشرية. يتضمن اتخاذ القرار البشري غالبًا إنشاء وتقييم سيناريوهات متعددة. تحدد ToT الأخطاء في التفكير الخطي في LLMs، بنفس الطريقة التي يتبناها AutoGPT. في التجارب، تقيس ToT قدرات LLMs على اتباع التعليمات في اللغة الطبيعية لإكمال مهام مثل الألغاز والكتابة الإبداعية.
يمثل التفكير الخطي التقليدي في LLMs بـ "سلسلة الأفكار"، التي تحدد عملية اتخاذ القرار التسلسلية. ومع ذلك، تسعى ToT لتعزيز قدرات LLMs النقدية الذاتية واستكشاف مسارات تفكير متنوعة. على سبيل المثال، في لعبة 24، واجهت سلسلة الأفكار صعوبة في تحديد العمليات الرياضية المختلفة للوصول إلى 24، مما أدى إلى انخفاض معدل الدقة. أدت القدرة على تقييم نتائج متعددة لـ ToT إلى معدل دقة يبلغ 74% في نفس المهمة.
إذا تمكنت LLMs من تحسين حكمها بشكل مستمر، قد يصبح التعاون المستقبلي بين البشر والذكاء الاصطناعي في اتخاذ القرارات الاستراتيجية واقعًا ملموسًا. تمتد تطبيقات ToT إلى البرمجة وتحليل البيانات والروبوتات، بينما يسعى AutoGPT نحو الذكاء العام.
مع تطور البحث الأكاديمي، تظهر استراتيجيات مبتكرة لتعزيز اتخاذ القرار المعرفي في LLMs. نظرًا لقدرتها الفطرية على تحليل كميات هائلة من البيانات بكفاءة، يمكن أن تمكن التقدم الناجح LLMs من تلبية أو حتى تجاوز قدرات اتخاذ القرار البشرية خلال السنوات القليلة المقبلة.