专注推理查询(ARQs):一种提升大型语言模型指令遵循度、决策准确性和防止幻觉的结构化方法

发布于:2025-06-27 ⋅ 阅读:(18) ⋅ 点赞:(0)

大型语言模型(LLMs)在客户服务、自动化内容创作和数据检索方面变得至关重要。然而,它们的有效性常常因其在多次交互中无法始终如一地遵循详细指令而受到限制。在金融服务和客户支持系统等高风险环境中,严格遵循指南是必不可少的,而LLMs在指令回忆方面常常遇到困难,导致偏离预期行为。此外,它们还会生成误导性或错误的信息,通常被称为幻觉,这使得在需要精确、情境感知决策的情况下部署它们变得困难。

在复杂场景中保持推理一致性仍然是LLMs面临的一个挑战。虽然它们能对简单查询生成连贯的响应,但在多轮对话中,受过去交互影响,其性能会下降。一个关键问题是对齐漂移,模型逐渐偏离原始指令,导致误解指南和错误建议。情境遗忘是另一个令人担忧的问题,模型优先考虑最近的信息而忽略早期细节,常常忽视关键约束。这些因素导致了错误,削弱了LLMs驱动系统的可靠性。尽管有思维链(CoT)和基于验证的提示等策略,但现有方法未能提供足够的结构来可靠地引导模型完成复杂任务。

为了改进指令遵循度,已经开发了各种提示技术。CoT提示鼓励分步推理以提高逻辑准确性,而验证链则要求对输出进行显式自我检查。尽管这些方法比直接响应生成有所改进,但它们缺乏强化领域特定约束和系统预防常见故障的机制。像LangChain这样的人工智能框架添加了工具集成和工作流自动化的结构元素,但将LLM推理视为黑箱,限制了其强制执行严格指南的能力。缺乏防止幻觉和指令漂移的机制凸显了需要更结构化的方法。

Emcie Co Ltd的研究人员开发了专注推理查询(ARQs)来解决这些不足。这种新方法引入了一个结构化推理蓝图,旨在系统地引导LLMs完成预定义查询。与自由形式推理方法不同,ARQs实现了一个结构化的JSON模式,在关键时刻引导模型关注特定的决策点。这种设计使ARQs能够增强指南遵循度,同时最小化因误解或情境细节丢失导致的故障。为了评估其有效性,该方法在Parlant框架内进行了测试,该框架用于构建面向客户的AI应用程序。初步结果表明,ARQs显著提高了指令遵循能力,同时减轻了与幻觉相关的错误。

ARQ框架由多个阶段组成,这些阶段共同增强了推理性能。第一步是发出针对性的结构化查询,在响应生成前提醒模型关键约束。这些查询强化了关键指令,确保模型不偏离预定义的指南。接下来,模型处理一系列分步查询,以强化特定任务的推理。在某些实现中,随后还有一个验证步骤,模型在最终确定输出前检查其响应是否符合预定义的正确性标准。这种结构化方法与CoT提示形成鲜明对比,通过在推理过程的每个阶段纳入显式机制来确保一致性。

Image

Parlant框架内的性能评估中,在包含87个不同对话场景的受控测试环境中,ARQs实现了90.2%的成功率,优于CoT推理(86.1%)和直接响应生成(81.5%)。ARQ方法在解决两个关键故障模式方面表现出色:指南重新应用和幻觉预防。具体来说,在模型需要重新应用早期指令的情况下,ARQs确保了92.19%的成功率,显著高于CoT(87.81%)和直接响应生成(85.31%)。此外,ARQs减少了事实性错误的发生,接受ARQ训练的模型比依赖标准CoT技术的模型幻觉率低23%。这些结果强调了结构化推理方法在提高LLM可靠性方面的重要性。

Image


研究的几个关键结论包括:

  1. ARQs提高了指令遵循度,在87个测试用例中实现了90.2%的成功率,超过了思维链(86.1%)和直接响应生成(81.5%)。

  2. 与CoT相比,ARQs显著减少了23%的幻觉错误,使其特别适用于需要事实一致性的业务关键型AI应用。

  3. 在指南重新应用场景中,ARQs的性能优于CoT 4.38%,成功率为92.19%,而CoT为87.81%。

  4. ARQs的结构化特性允许在分类任务中更高效地进行推理,与CoT相比减少了29%的令牌使用。

  5. ARQs中的验证机制是防止对齐漂移的关键。它确保了即使在长时间对话中,模型也能专注于预定义的约束。

  6. 未来的研究旨在通过优化查询设计和探索其在多样化AI驱动决策系统中的应用,进一步提高ARQ的效率。

详见论文:https://arxiv.org/abs/2503.03669v1


网站公告

今日签到

点亮在社区的每一天
去签到