Googleの研究者たちは、人工知能(AI)に「わかりません」と答えることを教えることで、AIの景観を変革しています。この革新的なアプローチは「ASPIRE」として知られ、デジタルアシスタントとの関わり方を一新する可能性があります。ASPIREは「自己評価による適応的な選択的予測の改善」を意味し、AIが明確な答えを持たない場合に不確実性を示すよう促します。
2023年のEMNLP会議で発表されたASPIREは、AIの内部での信頼度測定機能として機能します。この革新により、AIは回答を提示する前にその信頼性を評価できるようになります。
例えば、健康に関するアドバイスをスマートフォンに尋ねたとき、従来のように間違った情報を提供する代わりに、AIが「わかりません」と返答することが可能になります。このアプローチにより、AIは回答に信頼度スコアを付け、ユーザーはその回答にどれだけ信頼を置けるかを判断しやすくなります。
GoogleのJiefeng ChenやJinsung Yoonを含む研究チームは、より信頼性の高いデジタル意思決定を目指す動きを先導しています。特に、重要な情報を提供する際にはAIが自らの限界を認める重要性を強調しています。
「LLM(大規模言語モデル)は、前例のないレベルで言語を理解し生成できますが、高い信頼感を持って間違いを犯すことがあるため、高リスクな応用には限界があります」と、ウィスコンシン大学マディソン校の研究者であり、論文の共同著者であるChenは説明します。
彼らの研究結果は、ASPIREを搭載した小型のAIモデルが、自己評価機能を持たない大型モデルよりも優れた性能を発揮することを示唆しています。ASPIREフレームワークは、より慎重で、皮肉なことに、より信頼性のあるAIを育成し、人間が答えを提供する方が適している時を認識できるようにします。
ASPIREは推測ではなく誠実さを重視することで、AIとのやり取りの信頼性を高めることを目指しています。これにより、未来のAIアシスタントが「わかりません」と言える賢明なアドバイザーとして機能する土台が築かれます。この成長は、真の知性の象徴とも言えるのです。