微软研究人员推出框架,以开发数据增强的语言模型应用程序

提升大型语言模型(LLMs)的能力,使其超越训练数据的知识, 对于企业应用至关重要。而将特定领域和客户知识整合到LLMs中的一种有效方法是检索增强生成(RAG)。然而,基础的RAG方法往往不够完善。

针对AI代理的准备

构建有效的数据增强LLM应用需要仔细考虑多个因素。微软研究人员在最近的一项研究中提出了一个框架,以根据所需外部数据的类型和推理复杂性对不同类型的RAG任务进行分类。

研究人员指出:“数据增强的LLM应用并非一刀切的解决方案。现实世界的需求,尤其是在专业领域,通常复杂多变,且与提供的数据及所需推理之间的关系可能显著不同。”

为了应对这种复杂性,研究人员建议将用户查询分为四个层级:

- 显性事实:需要从数据中直接检索明述事实的查询。

- 隐性事实:需要推理未明确表述信息的查询,通常涉及基本推理。

- 可解释的推理:需要理解和应用外部资源中明确领域特定规则的查询。

- 隐秘推理:需要揭示数据中未声明的隐性推理方法的查询。

每个查询层级都有独特的挑战,需要量身定制的解决方案。

数据增强LLM应用的分类

显性事实查询

这类查询专注于直接获取数据中明确陈述的事实,区别在于对特定外部数据的直接依赖。基础的RAG常用于此类查询,LLM从知识库中检索相关信息来生成回应。然而,RAG管道的每个阶段都面临挑战。例如,在索引阶段,RAG系统必须处理可能包含图像和表格等多模态元素的大型非结构化数据集。多模态文档解析和嵌入模型可以帮助将文本和非文本元素的语义上下文映射到共享空间。

在信息检索阶段,检索数据的相关性至关重要。开发者可以通过合成答案来增强检索准确性,同时将查询与文档库进行对齐。此外,在答案生成阶段,微调可以使LLM辨别相关信息并忽略知识库中的噪声。

隐性事实查询

这类查询要求LLMs超越简单检索进行推理。例如,用户可能会询问:“公司X在上个季度销售了多少产品?”或“公司X与公司Y的策略有何主要区别?”这类问题需要多跳问答,涉及多个来源的数据。

隐性事实查询的复杂性要求采用高级RAG技术,如交替检索与思维链(IRCoT)和检索增强思维(RAT)。知识图谱与LLMs的结合也提供了一种结构化的复杂推理方法,有效连接不同概念。

可解释的推理查询

这类查询要求LLMs在引用事实内容的同时,应用领域特定规则。研究人员解释道:“可解释的推理查询是一种依赖外部数据来提供推理的直观类别。”这类查询通常涉及与具体问题相关的明确指南或思维过程。

例如,客户服务聊天机器人可能需要将处理退货的文档协议与客户上下文结合起来。将这些推理整合到LLMs中可能面临挑战,需利用提示优化技术,包括强化学习和优化提示评估。

隐秘推理查询

这些查询是最具挑战性的,因为它们涉及数据中潜藏但未明确说明的推理方法。例如,模型可能需要分析历史数据,提取适用于当前问题的模式。

研究人员指出:“处理隐秘推理查询需要复杂的分析技术,以解码并利用蕴含在不同数据源中的潜在知识。”

应对这类查询的有效解决方案包括在上下文中学习,以训练LLMs选择和提取相关信息。领域特定的微调也可能必不可少,使模型能够进行复杂推理并判断所需的外部数据。

建设LLM应用的启示

微软研究的调查和框架展示了LLMs在利用外部数据进行实际应用方面的演变,同时也突显了突出挑战。企业可以利用这一框架,明智地决定如何将外部知识融入其LLMs。

尽管RAG技术解决了许多基本LLMs的局限性,开发者仍需充分了解所选方法的能力和约束,必要时升级到更先进的系统。

Most people like

Find AI tools in YBX