Title: SearchGPT面临的挑战:幻觉与现实的碰撞
在SearchGPT发布仅两天后,用户Kesku创建的演示引发了广泛关注,主要因为它的输出结果惊人快速。然而,OpenAI发布的一项官方演示在《大西洋月刊》的报告中受到挑战,揭示出一些重大不准确性。当被询问“关于北卡罗来纳州布恩的音乐节,时间在八月”时,SearchGPT意外地给出了错误的日期,这引发了对其可靠性的担忧。
OpenAI的发言人凯拉·伍德向《大西洋月刊》确认了这个错误,表示这是初始原型,正在进行改进。这一事件与谷歌的Bard发生的重大失误相似,Bard在发布时因不准确性而受到批评。在2023年2月,Bard错误地声称詹姆斯·韦布太空望远镜捕捉到了第一张外星行星的图像,但实际上这一成就由欧洲南方天文台的VLT实现。这一错误导致Alphabet的股价下跌9%,蒸发了1000亿美元的市值。
相比之下,OpenAI选择了更谨慎的策略,通过限制内部测试的访问权来吸取谷歌的教训。在广泛访问的背景下,即使OpenAI能够将SearchGPT中的幻觉情况降到最低,1%的错误率也可能导致每天出现数百万条不准确的响应。此外,目前尚无可靠的方法可以完全消除大型语言模型(LLM)中的幻觉和错误。
安德烈·卡帕斯基在推特上指出,幻觉并非简单的错误,而是LLM的独特特征。他将LLM比作“梦机器”,在提示下,生成的内容虽然常常有用,但有时会无意间出现事实错误,导致“幻觉”。这种机制与传统搜索引擎截然不同,后者从数据库中返回最相关的文档,而不会生成全新响应。
卡帕斯基认为,基于LLM的当前AI搜索模型无法保证100%的准确性。这引发了一个有趣的问题:在搜索引擎的变革中,LLM的创造性能否与传统搜索方法的可靠性共存,还是最终将彼此取而代之?这个问题值得我们深入思考。