【第二周】论文精读:REPLUG: Retrieval-Augmented Black-Box Language Models
前言随着大语言模型LLM规模的爆炸式增长如 GPT-3, Codex 等参数量超千亿的模型它们大多以“黑盒”API 的形式提供服务用户无法访问其内部参数或进行微调。这使得传统的检索增强方法如 RETRO, kNN-LM因需要修改模型架构或访问内部表示而难以应用。华盛顿大学与 Meta AI 合作提出的REPLUG框架创造性地将语言模型视为完全冻结的黑盒仅通过外部可调优的检索器和集成策略来实现检索增强。更关键的是REPLUG 提出了一种**“LM 监督检索LM-Supervised Retrieval, LSR”**的训练范式利用黑盒模型的输出反馈来优化检索器使其学会检索那些能真正降低模型困惑度、提升任务表现的文档。本文将深度解析这一专为超大规模黑盒模型设计的 RAG 新范式。 论文基本信息项目内容论文标题REPLUG: Retrieval-Augmented Black-Box Language Models中文译名REPLUG检索增强的黑盒语言模型作者Weijia Shi, Sewon Min, Michihiro Yasunaga, et al.所属机构University of Washington, Stanford, KAIST, Meta AI发表年份ACL 2023核心领域Black-box LLMs, Retrieval-Augmentation, LM-Supervised Retrieval代码开源GitHub - swj0419/replug 研究背景与痛点现有的检索增强语言模型RALM主要面临两大落地障碍特别是在面对超大规模模型时白盒依赖主流方法如 RETRO, Atlas需要修改 Transformer 架构增加交叉注意力层或对模型进行全量/部分微调。这对于参数量高达 175B 且仅通过 API 提供的模型如 GPT-3, Codex是完全不可行的。内部表示不可得像 kNN-LM 这类无需微调的方法仍需要访问模型的内部隐藏状态Hidden States来计算近邻分布而这在黑盒 API 场景中同样无法获取。 核心思路即插即用Plug-and-Play将 LLM 视为完全冻结的黑盒仅在其输入端做文章。检索到的文档直接拼接到输入前Prepend无需修改模型任何参数。逆向优化既然不能改模型那就改检索器。利用黑盒模型的输出如困惑度、生成概率作为监督信号训练检索器去查找那些“对当前模型最有用”的文档实现**“让检索器适应模型”**而非“让模型适应检索器”。️ 核心方法REPLUG 架构详解REPLUG 包含两个主要阶段推理阶段的集成策略和训练阶段的 LM 监督优化。1. 推理阶段并行集成Ensemble Strategy由于黑盒模型的上下文窗口有限无法一次性拼接所有检索到的文档例如 Top-10 或 Top-20。REPLUG 提出了一种并行集成方案操作对于检索到的 k 个文档分别将它们与原始输入 x 拼接形成 k 个独立的输入 (di∘x) 。并行推理将这 k 个输入分别送入黑盒模型得到 k 个输出概率分布 P(y∣di∘x) 。加权平均根据文档与查询的相似度得分 s(di,x) 对概率分布进行加权平均得到最终预测其中权重由相似度 softmax 计算得出。优势既突破了上下文长度限制又能充分利用多个文档的信息且计算开销可控可并行化。2. 训练阶段LM 监督检索REPLUG-LSR这是论文的核心创新。传统的检索器通常基于通用语料训练如 DPR, Contriever未必针对特定的黑盒模型优化。REPLUG-LSR 利用黑盒模型本身作为“老师”来训练检索器。训练流程四步走检索候选使用当前检索器从语料库中检索 Top- k 文档。LM 打分将每个候选文档拼接输入黑盒模型计算其对真实标签Ground Truth的预测概率。概率越高说明该文档对模型越有帮助。构建目标分布基于 LM 的打分构建一个理想的目标分布倾向于那些能降低困惑度的文档。最小化 KL 散度训练检索器使其输出的文档分布尽可能接近目标分布 。异步索引更新由于检索器参数在变文档的向量表示也会变。因此每隔 T 步重新计算语料库索引确保检索准确性。*注意此过程中黑盒模型参数完全冻结仅更新检索器参数。* 实验结果与分析作者在语言建模Pile、多任务理解MMLU和开放域问答NQ, TriviaQA上进行了全面评估覆盖了从 GPT-2 到 GPT-3 (175B)、Codex、OPT、BLOOM 等多个模型家族。1. 语言建模性能显著提升GPT-3 系列REPLUG-LSR 使 GPT-3 (175B) 在 Pile 数据集上的 Bits Per Byte (BPB) 指标降低了6.3%。即使是较小的 GPT-3 Ada (350M)也能获得 8.6% 的提升。通用性该提升在不同参数量117M - 175B和不同架构GPT-2, OPT, BLOOM的模型上均一致存在证明了方法的鲁棒性。LSR 的价值经过 LM 监督训练的检索器REPLUG-LSR显著优于直接使用预训练检索器REPLUG平均额外带来约 2-3% 的性能增益。2. 下游任务MMLU 与 开放域问答MMLU (5-shot)Codex (175B)REPLUG-LSR 将其准确率提升了5.1%达到 71.8%不仅超越了未增强的 Codex还超过了参数量是其 3 倍的 Flan-PaLM (540B) 的部分表现。对比白盒模型REPLUG-LSR 的表现甚至优于经过全量微调的白盒检索模型 Atlas (11B)证明了黑盒设置下的巨大潜力。开放域问答 (Few-shot)在 Natural Questions (NQ) 上REPLUG-LSR 将 Codex 的准确率提升了12.0%达到了 Few-shot 设置下的 SOTAState-of-the-Art超越了经过 64 样本微调的 Atlas。在 TriviaQA 上提升了 5.0%。3. 深入分析为什么有效并非简单的集成效应实验表明如果随机检索文档进行集成性能反而下降。只有检索到相关且高质量的文档才能带来提升。长尾知识补充定性分析显示REPLUG 对包含**稀有实体Rare Entities**的文本提升最大。例如当上下文提及生僻人名“Li Bai”时检索到的相关文档能显著降低模型对该实体的预测困惑度。检索器适应性LSR 训练后的检索器学会了忽略那些虽然语义相似但对特定 LM 无助于降低困惑度的文档实现了与目标模型的深度对齐。 主要创新点总结纯黑盒兼容首个真正意义上无需访问模型参数、无需内部表示、无需修改架构即可应用于超大黑盒模型100B的检索增强框架。LM 监督检索LSR提出了一种新颖的训练范式利用黑盒模型的输出概率作为监督信号反向优化检索器实现了“检索器适配模型”。并行集成策略巧妙解决了上下文窗口限制与多文档信息利用之间的矛盾通过概率集成而非序列拼接来融合多源信息。显著的规模效应证明了即使是最强的闭源大模型如 GPT-3 175B依然能从外部检索中获益打破了“大模型不需要检索”的迷思。⚠️ 局限性与未来展望推理成本并行集成策略需要对 k 个文档分别调用黑盒模型 API这意味着推理延迟和 API 调用成本增加了 k 倍尽管可并行处理但费用线性增长。训练数据依赖LSR 训练需要带有 Ground Truth 的数据如语言建模的后续文本或 QA 的答案在无监督场景下较难直接应用。可解释性不足虽然性能提升明显但很难判断模型在具体某个预测中是依赖了检索知识还是内部参数知识Black-box 特性导致。 总结与工程建议《REPLUG》为工业界应用超大规模黑盒模型提供了一套极具实操性的检索增强方案。它证明了在不触碰模型权重的情况下依然可以通过优化外部检索模块来大幅挖掘大模型的潜力。 对开发者的实战建议黑盒模型的首选 RAG 方案如果你使用的是 GPT-4, Claude, 或 proprietary LLMsREPLUG 是目前理论上最兼容且有效的架构。实施 LSR 训练不要直接使用通用的 Contriever 或 BM25。如果有领域内的标注数据Query-Document-Answer务必利用黑盒模型的反馈来微调你的检索器LSR这能带来显著的额外收益。平衡成本与效果在推理阶段可以根据任务难度动态调整集成的文档数量 k 。简单任务 k1 或 2 复杂任务 k5 或 10 。利用缓存机制避免对相同 Query 重复调用 API。结合其他压缩技术为了降低成本可以将 REPLUG 与前文提到的LLMLingua或RECOMP结合——先检索再压缩文档最后进行并行集成从而在保证效果的同时减少输入 Token 数和潜在的成本。一句话总结REPLUG 告诉我们即使面对无法触碰的“黑盒”巨无霸模型只要配上一个懂它的“智能检索插件”依然能让其能力更上一层楼。参考文献[1] Shi W, Min S, Yasunaga M, et al. REPLUG: Retrieval-Augmented Black-Box Language Models[J]. arXiv preprint arXiv:2301.12652, 2023.
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2409243.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!