タイトル: SearchGPTが直面する課題:幻想と現実の戦い
SearchGPTのローンチからわずか2日後、ユーザーKeskuによるデモが驚くべき速さの出力結果で大きな注目を集めました。しかし、OpenAIが発表した公式デモは、The Atlanticの報告において重要な誤りが指摘され、厳しい批評を受けました。具体的には、「ノースカロライナ州ブーンでの音楽祭の日程」を尋ねたところ、SearchGPTは誤った日付を示し、その信頼性に疑問が生じました。
OpenAIの広報担当者ケイラ・ウッドは、The Atlanticに対し、この問題は初期プロトタイプによるものであり、改善に向けた取り組みが進行中であることを確認しました。この問題は、GoogleのBardがローンチ時に誤情報で批判を受けた大きな失敗と似ています。2023年2月、Bardはジェームズ・ウェッブ宇宙望遠鏡が初めて系外惑星の画像を捉えたと誤って主張しましたが、実際はヨーロッパ南部天文台のVLTによるものでした。この誤報により、アルファベット社の株価は9%下落し、1,000億ドルという市場価値が消失しました。
これに対し、OpenAIは内部テストへのアクセスを制限し、Googleの教訓から学ぶ慎重なアプローチを選択しています。広範なアクセスが許可されている現状では、たとえOpenAIがSearchGPT内での幻覚の発生を最小限に抑えても、わずか1%のエラー率でも、毎日何百万もの不正確な応答が生まれる可能性があります。さらに、現在、大規模言語モデル(LLM)における幻覚やエラーを完全に排除する信頼できる方法は存在しません。
アンドレイ・カーパシーはTwitterで、幻覚は単なる不具合ではなく、LLMの特性であると指摘しています。彼はLLMを「夢の機械」に例え、リクエストに応じてしばしば有用なコンテンツを生成するが、事実に逸脱して幻覚を引き起こすことがあると述べています。このメカニズムは、従来の検索エンジンがデータベースから最も関連性の高い文書を返す方式とは根本的に異なります。
カーパシーは、現在のLLMベースのAI検索モデルが100%の精度を保証できないと考えています。これにより、検索エンジンの進化において、LLMの創造性と従来の検索手法の信頼性が共存するのか、それとも一方が他方を最終的に置き換えるのかという興味深い問いが浮かび上がります。この問いは慎重に考察する価値があります。