任何曾在客户服务岗位或团队合作中工作过的人都知道,每个人都有独特的、有时令人困惑的偏好。对于人类而言,理解个体偏好已经颇具挑战,而对于缺乏个人经历和背景的人工智能(AI)模型来说,这一任务则更加复杂。那么,AI如何才能有效理解用户真正的需求呢?
GATE:重新定义AI理解的方式
来自顶尖大学和初创公司Anthropic(其开发了聊天机器人Claude 2)的研究团队正在努力解决这一挑战。他们提出了一个简单的解决方案:训练AI模型,通过更多提问与用户互动,以揭示他们的真实偏好。
在最近的一项研究中,Anthropic的研究员亚历克斯·汤金(Alex Tamkin)与麻省理工学院和斯坦福大学的同事们提出了“生成主动任务引导”(GATE)。他们的目标很明确:利用大语言模型(LLMs)将人类偏好转化为自动化决策系统。
简而言之,GATE使LLMs在首次与用户互动时便能进行对话。模型不仅生成和分析文本,还根据用户的实时反馈,推断其需求和相关概念。正如研究人员所言:“语言模型在理解和生成文本方面的有效性表明,它们能够有效引导并理解用户偏好。”
GATE的三种方法
GATE方法可以通过多种方式实现:
1. 生成主动学习:在这种方法中,LLM生成示例回应并请求用户反馈。例如,它可能询问:“您是否对这篇文章感兴趣:《融合菜艺术:文化与口味的碰撞》?”根据用户反馈,LLM会调整提供的内容类型。
2. 是/否问题生成:这种简单的方法包括二元问题,例如:“您喜欢阅读健康与保健相关的文章吗?”LLM会根据用户的“是”或“否”回答调整回应,省略那些未得到积极回应的主题。
3. 开放式问题:这种更广泛的方法旨在引导用户提供更细致的信息。LLM可能会问:“您在闲暇时间喜欢哪些爱好?它们吸引您什么呢?”
GATE试验的积极成果
研究人员在三个领域测试了GATE方法:内容推荐、道德推理和电子邮件验证。通过对OpenAI的GPT-4进行细化,并涉及388名参与者,他们发现GATE通常生成的模型相比传统基线准确率更高,同时用户认知负担相似或更低。
具体来说,经过GATE细化的GPT-4模型在准确预测用户偏好方面表现出显著提升,将其响应个性化能力显著提高。
研究表明,语言模型能够成功地实施GATE,较以往方法更准确和高效地获取人类偏好。这项进展将大大简化基于LLM的聊天机器人在客户或员工互动中的开发过程。通过不再单纯依赖现有数据集推测偏好,而是将模型微调为参与问答流程,可以提升用户体验,确保提供更相关和有用的互动。
因此,如果您的AI聊天机器人开始询问您的偏好,可能就是在利用GATE方法,旨在提供更加量身定制和令人满意的响应。