谷歌研究人员正在通过教导人工智能以“我不知道”来回应,来变革AI领域。这种被称为ASPIRE的突破性方法可能会改变我们与数字助手的互动方式,促使它们在没有明确答案时表达不确定性。
在2023年EMNLP会议上发布的ASPIRE——“自我评估适应性以提高大型语言模型选择性预测”(Adaptation with Self-Evaluation to Improve Selective Prediction in LLMs)的缩写,充当AI的内部信心评估器。这项创新使人工智能能够在展示响应之前先评估其回答的可靠性。
想象一下,你向智能手机咨询健康问题。得益于ASPIRE,AI可能会回答:“我不确定”,而不是潜在地提供错误的信息。通过这种方式,AI得以为其回答指定信心分数,帮助用户判断可以在多大程度上相信其回应。
谷歌的研究团队,包括来自威斯康星大学麦迪逊分校的Jiefeng Chen和Jinsung Yoon,正在推动数字决策更加可靠化的进程。他们强调,人工智能承认其局限性的重要性,特别是在传递关键信息时。
“虽然大型语言模型的理解和生成语言能力达到了前所未有的水平,但在高风险应用中的使用仍然受限,因为它们有时以高度自信的方式犯错,”研究合著者Chen解释道。
研究发现,即使是配备ASPIRE的小型AI模型,其表现也能超过缺乏这种自我评估功能的大型模型。ASPIRE框架培养了一种更加谨慎和可靠的AI,能够识别何时人类可能更适合提供答案。
通过优先考虑诚实而非推测,ASPIRE旨在增强AI互动的可信度。这为未来铺平了道路,届时你的AI助手将成为一个深思熟虑的顾问,以“我不知道”的能力为真正智能的标志。