新興の大規模言語モデル(LLM)、特にOpenAIのChatGPT(GPT-4を含む)、Claude AI、Geminiなどは、限られた決定能力を示しています。本記事では、LLMの意思決定に関する最近の研究とその将来への影響について探ります。
従来、LLMにおける効果的な意思決定は、基盤となるパターンやルールを認識し、それを新しいシナリオに柔軟に適用することが求められます。サンタフェ研究所の研究によれば、ChatGPTを含むLLMは「基本的なコアコンセプトについて推論すること」に苦労しています。適切な決定には、プロンプトの文脈や出力の潜在的な結果に対する深い理解が必要です。
LLMによる不適切な意思決定は、有害な結果を引き起こす可能性があります。例えば、2023年に全国摂食障害協会はAIチャットボット「テッサ」を一時停止しました。これは、週ごとの体重測定や500〜1000カロリーのカロリー制限を勧める有害なアドバイスを提供したことからです。この反響を受け、チャットボットは迅速に停止しました。
また、LLMは一般的な推奨を生成する傾向があります。INSEADの研究によると、ビジネス戦略に関する質問が投げかけられた際、ChatGPTはたいてい協力的な作業やイノベーションの文化を促進するという従来の知恵に頼ることが多いです。しかし、ビジネス戦略はカスタマイズされた洞察を必要とする複雑なプロセスです。
LLMをビジネス戦略やヘルスケアアドバイスに特化して訓練すれば、これらの問題が解決される可能性があります。しかし、その文脈理解を向上させるためには、データセットを広げるだけでは不十分です。単にデータを追加することは、バイアスを引き起こし、計算リソースを増加させるだけで、意思決定の質を向上させるとは限りません。
文脈に適した意思決定を促すための方法
LLMが文脈に適した意思決定を行えるように訓練するには、微妙なアプローチが必要です。現在の機械学習研究から提案されている2つの先進的戦略が、LLMの意思決定プロセスをより人間の認知プロセスに近づける方法を示しています。1つ目はAutoGPTで、自身の出力を計画し、確認する自己反射的メカニズムを活用します。2つ目は「思考の木(Tree of Thoughts、ToT)」で、従来の直線的推論から脱却して効果的な意思決定を促進します。
AutoGPTは、特定の目的を達成するために自主的にモデルを作成、評価、改善するように設計されています。最近の強化では、「追加の意見」戦略が組み込まれ、意思決定プロセスに専門家のモデルを統合しています。この統合により、LLMはさまざまな専門家の分析から関連情報を利用し、「思考-推論-計画-批評」という体系的なアプローチで結論の質を向上させることが可能になります。
うまく実施されれば、専門家モデルを導入したLLMは、人間よりも多くの情報を処理でき、より情報に基づいた決定を行える可能性があります。しかし、AutoGPTの制約のひとつは、限られたコンテキストウィンドウによって無限の相互作用ループが生じやすいことです。関連情報を前もって全て提供することが、会話を通じて徐々にデータを追加するよりも良い結果をもたらすことが多いです。
人間の認知を模擬する「思考の木」
「思考の木(ToT)」フレームワークは、LLMの正確さを向上させるためのもう一つの有望な方法を提供します。人間の意思決定は多くのシナリオを生成し評価することが一般的です。ToTはLLMの直線的推論の欠点を特定し、AutoGPTと同様のアプローチを取ります。実験では、ToTはパズルや創造的な執筆などのタスクを遂行する際のLLMの自然言語指示に対するフォロー能力を測定しています。
LLMにおける従来の直線的推論は「思考の連鎖(Chain of Thought)」によって表され、これは順を追った意思決定プロセスを示します。しかし、ToTはLLMの自己批判能力を高め、さまざまな推論経路を探ることを目指しています。例えば、「24のゲーム」では、思考の連鎖は24に達するための異なる数学操作を特定するのに苦労し、低い正確性率を示しました。一方、ToTは複数の結果を評価する能力により、同じタスクで74%の正確性率を達成しました。
もしLLMが一貫して判断力を向上させることができれば、戦略的な意思決定における人間とAIの協働が現実のものになるでしょう。ToTの応用範囲はプログラミング、データ分析、ロボティクスに広がり、AutoGPTは一般的な知能を目指します。
学術研究が進化する中で、LLMにおける認知的意思決定を向上させる革新的な戦略が登場しています。その膨大なデータを効率的に分析する能力を考慮すると、成功する進展があれば、LLMが人間の意思決定能力に匹敵する、あるいはそれを超えることが数年内に実現するかもしれません。