搞定 RAG 准确率:查询转换与分解才是核心
来源DeepHub IMBA 本文约2000字建议阅读5分钟 本文介绍了 RAG 查询优化两类方法及核心技术与落地思路。检索增强生成RAG的基础流程是用户查询转换为向量嵌入从向量数据库中取回相似文档再将这些文档作为上下文送入大语言模型LLM生成答案。基础 RAG 的准确性受制于查询质量查询模糊、表述不当或者用户对问题的抽象层次把握不准检索结果就会出偏差LLM 拿到的上下文也跟着失真。垃圾输入垃圾输出这个规律在 RAG 场景里同样成立。所以有两类改进方向逐渐成型查询转换Query Translation与查询分解Query Decomposition。前者在查询送入向量数据库之前对其进行变形和扩展后者则把复杂查询拆解成更易处理的子问题。具体技术包括并行查询检索FAN-OUT 架构、倒数排名融合RRF、HyDE假设文档嵌入以及基于思维链的低抽象分解和基于后退提示的高抽象分解。查询转换查询转换的核心思路是不依赖原始查询的单一表述而是生成若干语义相近的变体覆盖更多可能与文档匹配的角度。以RAG 如何改善 LLM 的响应效果为例扩展后可以得到检索增强生成是如何工作的RAG 对大语言模型的优势检索如何提升 LLM 的准确性这些变体并不改变查询的意图而是换用不同的措辞和切入点让向量搜索有机会命中文档库中表述各异的相关内容从而提高召回率。并行查询检索Fan-Out 检索并行查询检索把上述思路落地为具体架构LLM 基于原始输入生成多个查询变体各变体同时发往向量数据库执行相似度搜索检索结果汇总后去除重复文档最终上下文再传入 LLM。整个流程分六步完成用户发送查询、LLM 生成备选查询、各查询并发执行相似度搜索、合并检索结果、过滤重复文档、将最终上下文传递给 LLM。不同措辞在嵌入空间中的分布位置不同命中的文档集合也会有所差异并行执行正是在利用这一特性。倒数排名融合RRF多路查询的结果合并不能简单拼接了事。各路检索返回的文档存在重叠排名也不尽相同直接合并会导致高质量文档被低质量文档淹没。倒数排名融合RRF解决的正是这个问题。它不看原始相似度分数而是根据文档在每路结果中的排名位置计算分数公式如下其中排名越靠前得分越高在多路结果中反复出现且名次稳定的文档累计分数也更高。经过 RRF 重排后最终上下文的质量比简单合并要可靠得多。HyDE假设文档嵌入HyDE 的逻辑与前两种技术不同它绕开了查询表述不准确这个根源性问题。直接对用户查询做嵌入得到的向量反映的是问题的语义向量数据库里存的是答案文档两者在嵌入空间中的距离未必近。HyDE 的做法是先让 LLM 针对用户查询生成一段假设性的答案或文档再对这段生成文本做嵌入用于相似度搜索。生成文本在风格和内容上更接近真实文档检索准确率往往随之提升。不过需要注意的是这里依赖 LLM 的生成质量参数量偏小的模型生成的假设文档可能失真反而干扰检索。查询分解有些查询本身就包含多个子问题单次检索无法覆盖全部所需信息。把这类查询原封不动地送入向量数据库检索结果往往是残缺的。查询分解把复杂查询拆解为若干粒度更细的子查询分别检索再合并结果。拆解的方向取决于查询的抽象层次——查询可以向上推至更高的概念层也可以向下细化为具体的执行步骤。高抽象分解后退提示后退提示Step-Back Prompting先退一步提出一个比原始查询更高层次的问题再基于这个高层问题检索到的上下文来回答具体问题。以RAG 如何提升 LLM 的性能为例后退查询可以是没有外部知识的 LLM 存在哪些局限性先建立认知框架再回答具体问题检索到的上下文在概念层面会更完整。低抽象分解思维链检索思维链检索把查询拆解为若干有顺序依赖的子步骤前一步的检索结果作为后一步的输入逐步推进。以RAG 是如何工作的它与微调有何不同为例分解过程如下步骤 1——理解 RAG 的概念什么是检索增强生成步骤 2——检索 RAG 工作原理的详细信息RAG 是如何工作的步骤 3——检索微调的相关信息LLM 中的微调是什么步骤 4——对比两个概念RAG 与微调有何区别每个子步骤独立命中一批相关文档前序步骤积累的理解指导后续步骤的检索方向最终由 LLM 整合所有步骤的上下文生成完整答案。这种顺序推理结构在处理跨概念的比较类问题时尤为有效——原始查询包含的概念跨度越大单次检索的信噪比就越低分步处理带来的收益也越明显。总结查询转换和查询分解并不是非此即彼的选择。实际系统里两者往往配合使用Fan-Out 扩展查询覆盖面RRF 保证合并结果的排名质量复杂问题再交给分解流程逐步处理。至于哪种组合适合当前场景取决于查询的典型复杂度、向量库的规模以及系统对延迟的容忍程度——这些判断没有通用答案需要在具体环境里测量。by Samarth Acharya编辑于腾凯校对龚力关于我们数据派THU作为数据科学类公众号背靠清华大学大数据研究中心分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识努力建设数据人才聚集平台、打造中国大数据最强集团军。新浪微博数据派THU微信视频号数据派THU今日头条数据派THU
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2445672.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!