大模型 RAG 中 RRF(Reciprocal Rank Fusion倒数排序融合)是什么
大模型 RAG 中 RRFReciprocal Rank Fusion倒数排序融合是什么Reciprocal Rank Fusion (RRF)是一种将多个搜索结果列表比如 ES 的全文检索列表和向量搜索列表合并成一个统一排名列表的算法。它的核心思想非常朴素且强大一个文档在不同列表中排名越靠前它的最终得分就越高。它的优势在于不需要对不同查询的得分Score进行归一化比如全文检索分可能是 100向量检索分是 0.9直接根据“排名”来计算。一、RRF是什么1. RRF 的数学公式对于每一个文档ddd其 RRF 得分的计算公式为RRFscore(d∈D)∑r∈R1kr(d)RRFscore(d \in D) \sum_{r \in R} \frac{1}{k r(d)}RRFscore(d∈D)r∈R∑kr(d)1RRR: 所有的排名列表集合比如全文检索结果集和向量检索结果集。r(d)r(d)r(d): 文档ddd在列表rrr中的排名从 1 开始。kkk: 一个常数平滑参数通常默认为60。它的作用是减轻低排名文档对总分的影响防止排名太靠后的文档通过“凑数”挤到前面。2. 具体计算示例假设用户搜“入职流程”我们得到两个列表列表 A全文检索: [文档1, 文档2, 文档3]列表 B向量检索: [文档2, 文档1, 文档4]取k60k 60k60计算得分文档1:1601(A)1602(B)≈0.016390.016120.03251\frac{1}{601} (A) \frac{1}{602} (B) \approx 0.01639 0.01612 0.032516011(A)6021(B)≈0.016390.016120.03251文档2:1602(A)1601(B)≈0.016120.016390.03251\frac{1}{602} (A) \frac{1}{601} (B) \approx 0.01612 0.01639 0.032516021(A)6011(B)≈0.016120.016390.03251文档3:1603(A)0(B)≈0.01587\frac{1}{603} (A) 0 (B) \approx 0.015876031(A)0(B)≈0.01587文档4:0(A)1603(B)≈0.015870 (A) \frac{1}{603} (B) \approx 0.015870(A)6031(B)≈0.01587最终文档1和文档2会排在最前面因为它们在两个维度上都表现优秀。3. 在 Elasticsearch 中如何开启在 ES 8.8 版本中官方已经原生内置了 RRF你不需要自己写 Python 逻辑去算分直接在查询请求中配置rank参数即可。JSON{ sub_searches: [ { query: { match: { content: 入职流程 } } // 1. 全文检索 }, { knn: { // 2. 向量检索 field: content_vector, query_vector: [0.1, 0.2, ...], k: 10, num_candidates: 100 } } ], rank: { rrf: { // 3. 开启 RRF 合并 window_size: 50, // 参与排序的前 N 个文档 rank_constant: 60 // 公式中的 k 值 } } }4. 为什么要用 RRF对大模型处理的好处在 RAG 系统中如果你只给大模型看前 3 条资料这 3 条资料的质量决定了回答的上限。互补性全文检索负责抓取“专有名词”如工号、政策编号向量检索负责抓取“语义意图”如怎么请假。稳定性RRF 不需要像Linear Combination线性加权如0.7×text0.3×vector0.7 \times \text{text} 0.3 \times \text{vector}0.7×text0.3×vector那样手动调权重它在大多数业务场景下表现非常稳健。5. 纯 Python 实现逻辑如果你的 ES 版本较低不支持原生的rank参数你可以手动用 Python 处理Pythondef rrf_merge(results_list, k60): rrf_scores {} for results in results_list: for rank, doc_id in enumerate(results, start1): if doc_id not in rrf_scores: rrf_scores[doc_id] 0 rrf_scores[doc_id] 1 / (k rank) # 按得分从高到低排序 sorted_docs sorted(rrf_scores.items(), keylambda x: x[1], reverseTrue) return sorted_docs二、以ES 为例怎么实现不同模式查询1. 搜索“一句话”使用 Full-text Queries如果你直接把用户的一句提问比如“如何办理入职手续”传给 ES你应该使用match查询。工作原理ES 会先把这一句话进行“分词”Tokenization。比如把“如何办理入职手续”拆成“如何”、“办理”、“入职”、“手续”。召回逻辑它会去索引里找包含这些词的文档。即便文档里写的是“入职流程办理”只要关键词重合度高它就能被检索出来。适用场景标准的 RAG 场景用户提问通常就是一句话。// 示例全文检索一句话 { query: { match: { content: 如何办理入职手续 } } }2. 搜索“关键词/精确值”使用 Term-level Queries如果你只想查某个特定的 ID、标签或者状态比如status: active通常使用term查询。工作原理它不会对你的输入进行分词而是拿着你输入的字符串去匹配索引里一模一样的内容。局限性如果你用term去搜一句话大概率什么也搜不到因为它在找一整句完全一致的索引项而索引通常是按词拆分的。3. 如何让“一句话”搜得更准既然你是为了给大模型LLM提供上下文以下三种进阶搜索方式更符合你的需求查询方式适合的输入特点match一句话只要词对上了就行顺序乱了也没关系。match_phrase短语/整句不仅要求词对上还要求顺序也得一致比如搜“年假规定”不会搜出“规定年假”。ELSER(语义搜索)模糊的提问ES 8.x 推出的模型支持语义理解。即使你搜“怎么休假”也能搜到包含“请假制度”的文档即便字面上没有重复的词。4. 给大模型处理时的建议由于大模型对上下文的质量很敏感建议你在 ES 检索时开启高亮或截断不要直接把万字长文丢给模型利用 ES 的highlight找到最相关的片段。混合检索Hybrid Search用match保证关键词没漏比如具体的专有名词、工号。用knn向量搜索保证语义理解没偏。通过 RRF倒数排名融合合并结果给模型最精准的那几段话。三、代码实现在代码层面实现 ES 检索并对接大模型通常有两种主流方式一种是使用Elasticsearch 官方 Python SDK适合底层控制另一种是使用LangChain/LlamaIndex适合快速搭建 RAG 流程。以下是几种核心查询方式的具体实现逻辑1. 使用官方 SDK 实现三种查询在 Python 中我们通常构建一个query字典发送给 ES 接口。from elasticsearch import Elasticsearch # 连接 ES es Elasticsearch(http://localhost:9200) index_name knowledge_base def search_es(user_input, query_typematch): if query_type match: # 1. 全文检索自动分词匹配度越高排名越靠前 query { match: { content: user_input } } elif query_type match_phrase: # 2. 短语匹配要求词序一致适合搜具体的规定名称 query { match_phrase: { content: user_input } } elif query_type bool: # 3. 组合查询最常用既要满足关键词又要满足过滤条件 query { bool: { must: [{match: {content: user_input}}], filter: [{term: {status: published}}] } } response es.search(indexindex_name, queryquery, size3) # 提取查询结果给大模型做上下文 return [hit[_source][content] for hit in response[hits][hits]]2. 向量检索Vector Search的实现如果你想支持“语义相似”而不只是“字面匹配”需要先将“一句话”转化成向量。# 假设你已经有了向量模型模型如 OpenAI 或 HuggingFace user_vector embedding_model.encode(怎么申请带薪假) query { knn: { field: content_vector, # 预先在 ES 中存好的向量字段 query_vector: user_vector, k: 3, num_candidates: 100 } } res es.search(indexindex_name, knnquery)3. 对接大模型LLM的完整闭环这是 RAG 最关键的一步将 ES 拿回来的数据“塞”进 Prompt。def generate_answer(user_question): # 第一步ES 检索 context_list search_es(user_question, query_typematch) context_text \n.join(context_list) # 第二步构建 Prompt prompt f 你是一个助手请根据以下参考资料回答用户的问题。 如果资料中没有提到请说不知道。 参考资料 {context_text} 用户问题{user_question} # 第三步调用大模型以 OpenAI 接口为例 # response llm.chat(prompt) return f已根据 {len(context_list)} 条背景资料生成回答4. 为什么现在流行“混合检索” (Hybrid Search)在实际业务中你会发现全文检索搜“工号 12345”很准但搜“心情不好想请假”很差。向量检索搜“情绪”很准但搜“工号”经常乱匹配。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2417064.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!