【第四十六周】文献阅读:从 RAG 到记忆:大型语言模型的非参数持续学习

news2025/6/1 4:38:08

目录

  • 摘要
  • Abstract
  • 从 RAG 到记忆:大型语言模型的非参数持续学习
  • 研究背景
  • 方法论
    • 1. 离线索引(Offline Indexing)
    • 2. 在线检索(Online Retrieval)
    • 具体细节
  • 创新性
  • 实验结果
  • 局限性
  • 总结

摘要

本论文旨在解决当前检索增强生成(RAG)系统在模拟人类长期记忆动态性和关联性方面的不足。论文的核心贡献是HippoRAG 2框架,它在HippoRAG的基础上进行了多项改进,包括更深的段落整合、更有效的在线LLM使用以及基于神经生物学启发的记忆机制设计。HippoRAG 2通过结合密集-稀疏编码、上下文感知检索和识别记忆,显著提升了在事实记忆、意义构建和关联记忆任务上的性能。实验结果表明,HippoRAG 2在关联记忆任务上比当前最先进的嵌入模型提高了7%,同时在事实记忆和意义构建任务上也表现优异。HippoRAG 2的工作流程分为离线索引和在线检索两个阶段。离线阶段,LLM从段落中提取三元组构建开放知识图谱(KG),并通过编码器检测同义词以增强知识关联。在线阶段,查询通过嵌入模型与KG中的三元组和段落匹配,识别种子节点后,利用个性化PageRank(PPR)算法进行上下文感知检索,最终通过LLM生成答案。这一流程不仅模拟了人类记忆的神经生物学机制,还通过密集-稀疏编码和识别记忆等技术优化了检索效果。

Abstract

This paper aims to address the shortcomings of current Retrieval-Augmented Generation (RAG) systems in simulating the dynamics and associations of human long-term memory. The core contribution is the HippoRAG 2 framework, which improves upon the original HippoRAG system with several key upgrades: deeper paragraph integration, more efficient use of large language models (LLMs) online, and a memory mechanism inspired by neurobiology.HippoRAG 2 significantly improves performance on tasks involving factual memory, meaning construction, and associative memory by combining dense-sparse encoding, context-aware retrieval, and recognition memory.Experimental results show that HippoRAG 2 outperforms state-of-the-art embedding models by 7% on associative memory tasks, and also performs very well on factual memory and meaning construction tasks.The HippoRAG 2 workflow consists of two stages: offline indexing and online retrieval.In the offline stage, an LLM extracts triples from paragraphs to build an open knowledge graph (KG), while an encoder detects synonyms to enhance knowledge connections.In the online stage, queries are matched with triples and paragraphs in the KG using an embedding model. After identifying seed nodes, a context-aware search is performed using the Personalized PageRank (PPR) algorithm. Finally, the LLM generates the answer.This process not only mimics the neurobiological mechanisms of human memory but also optimizes retrieval performance through techniques like dense-sparse encoding and recognition memory.

从 RAG 到记忆:大型语言模型的非参数持续学习


Title: From RAG to Memory: Non-Parametric Continual Learning for Large Language Models
Author: Bernal Jiménez Gutiérrez, Yiheng Shu, Weijian Qi, Sizhe Zhou, Yu Su
Source: Arxiv
Arxiv: https://arxiv.org/abs/2502.14802


研究背景

在人工智能领域,赋予大语言模型(LLMs)持续学习能力是一个重要挑战。人类能够不断吸收、整合和利用新知识,而现有的LLMs在持续学习方面存在两大问题:一是难以完全吸收新知识,二是容易发生灾难性遗忘。RAG作为一种非参数持续学习方案,通过检索外部信息避免了直接修改模型参数,但其依赖的向量检索无法模拟人类记忆的动态关联性。具体来说,标准RAG在意义构建(理解复杂上下文)和关联性(多跳推理)任务上表现不佳。

近年来,一些结构增强的RAG方法试图通过知识图谱或摘要生成来弥补这些缺陷,但这些方法在简单事实记忆任务上的性能往往下降明显。例如,HippoRAG虽然通过个性化PageRank算法提升了多跳推理能力,但在大规模语篇理解任务中表现不佳。这种性能的不均衡促使研究者提出HippoRAG 2,旨在实现更全面的记忆能力提升。

方法论

虽然HippoRAG试图从非参数RAG构建记忆,但其有效性受到一个关键缺陷的阻碍:以实体为中心的方法,该方法在索引和推理过程中导致上下文丢失,以及语义匹配困难


如何理解上述问题呢?

  1. 索引阶段:上下文丢失

(1)仅提取实体和关系,忽略全局语境:HippoRAG 在构建知识图谱(KG)时,主要依赖 命名实体识别(NER) 和 开放信息抽取(OpenIE) 从文本中提取 (实体, 关系, 实体) 形式的三元组。

示例:句子 “Einstein developed the theory of relativity while working at the Swiss Patent Office.” 提取的三元组可能是 (“Einstein”, “developed”, “theory of relativity”) 和 (“Einstein”, “worked at”, “Swiss Patent Office”)。
丢失的上下文:时间背景(“while”)、因果关系(“developed while working”)等非实体信息被忽略。

(2)同义词链接缺乏上下文感知:HippoRAG 通过向量相似度连接同义实体(如 “Einstein” 和 “Albert Einstein”),但 同一实体在不同上下文中的含义可能不同。

问题案例: 句子A:“Einstein criticized quantum mechanics.” 句子B:“Einstein’s
theories revolutionized physics.” HippoRAG 会将两处的 “Einstein”
视为同一节点,但实际语义角色不同(批评者 vs. 贡献者)。 结果:KG 仅保留实体间的直接关系,而丢失了原文的叙事逻辑和隐含信息。

  1. 推理阶段:语义匹配困难

(1)查询解析依赖实体,忽略查询意图:HippoRAG 在检索时,首先用 NER 从查询中提取实体,再匹配 KG 中的对应节点。

示例查询:“How did Einstein’s work at the patent office influence his theories?” HippoRAG 可能只匹配 “Einstein” 和 “patent office” 节点,但 忽略关键关系(“influence”)。 对比:HippoRAG 2 直接匹配查询与三元组(如 (“Einstein”, “influenced by”, “patent office”)),更贴合意图。

(2)多跳推理的语义漂移:虽然 HippoRAG 的个性化 PageRank(PPR)支持多跳推理,但 实体中心的检索可能偏离原始查询语义。

问题案例: 查询:“What instrument did the composer of ‘Für Elise’ play?”
HippoRAG 可能从 “Für Elise” → “Beethoven” → “piano”,但若 KG 中 “Beethoven”
节点同时连接 “violin”(无关信息),PPR 可能错误激活后者。 根源:实体节点缺乏上下文约束,导致无关路径被激活。


HippoRAG 2的方法论设计深受神经生物学启发,模拟了人类大脑中概念与上下文的交互机制。其核心改进包括三个方面:密集-稀疏编码的整合更深层次的上下文感知检索以及识别记忆的引入
在这里插入图片描述

1. 离线索引(Offline Indexing)

这一阶段的目标是构建一个开放知识图谱(KG),使其能够存储和关联不同来源的知识。具体步骤如下:

(1)LLM 提取三元组
使用大语言模型(如 Llama-3.3-70B-Instruct)从文本段落(Passages)中提取 (主语,关系,宾语) 形式的三元组(Triples)。

示例:从句子 “Albert Einstein was born in Ulm, Germany.” 可以提取三元组:
(“Albert Einstein”, “born in”, “Ulm”)
(“Ulm”, “located in”, “Germany”)

这些三元组构成 KG 的关系边(Relation Edges),而主语和宾语称为短语节点(Phrase Nodes)。

(2)同义词检测(Synonym Detection)
使用嵌入模型(如 NV-Embed-v2)计算短语节点之间的语义相似度。

如果两个短语的相似度超过阈值(如 0.8),则添加同义词边(Synonym Edge)连接它们。

示例:(“Einstein”, “synonym”, “Albert Einstein”)

这使得 KG 能够关联不同表述但含义相同的概念,增强检索的鲁棒性。

(3)段落节点(Passage Nodes)与上下文边(Context Edges)
每个原始段落被表示为 KG 中的一个段落节点。

通过 “contains” 边(Context Edge)将段落节点与其包含的所有短语节点连接起来。

示例:段落 “Einstein was born in Ulm.” 会连接到 “Einstein” 和 “Ulm” 两个短语节点。

这样,KG 同时包含概念(短语节点)和上下文(段落节点),模拟人类记忆的密集-稀疏编码机制。

2. 在线检索(Online Retrieval)

这一阶段利用构建好的 KG 进行查询相关的检索,具体步骤如下:

(1)查询到三元组匹配(Query to Triple)
给定一个查询(Query),使用嵌入模型计算其与 KG 中所有三元组的相似度,选择最相关的若干三元组(如 Top-5)。

示例:查询 “Where was Einstein born?” 可能匹配到三元组 (“Einstein”, “born in”, “Ulm”)。

(2)识别记忆过滤(Recognition Memory)
使用 LLM 对候选三元组进行过滤,剔除无关项。

示例:如果查询是 “Einstein’s nationality”,但检索到 (“Einstein”, “worked at”, “Princeton”),LLM 会过滤掉该三元组。

这一步模拟人类记忆的“识别”过程,减少噪声。

(3)种子节点选择(Seed Node Selection)
从过滤后的三元组中提取短语节点(如 “Einstein” 和 “Ulm”)作为 PPR 算法的种子节点。

段落节点也会被纳入种子,但其权重较低(如 0.05),以平衡概念与上下文的影响。

(4)个性化 PageRank(PPR)检索
在 KG 上运行 PPR 算法,从种子节点出发进行随机游走,计算每个段落节点的权重(PageRank 分数)。

深色节点表示高概率(更相关),浅色节点表示低概率。

示例:“Einstein” → “Ulm” → 包含 “Ulm” 的段落会被赋予高分。

(5)最终检索结果
按 PageRank 分数排序,返回 Top-K 段落作为 RAG 的上下文输入。

示例:对于查询 “Einstein’s birthplace”,可能返回段落 “Einstein was born in Ulm, Germany.”

具体细节

密集-稀疏编码整合中,HippoRAG 2将短语节点(稀疏编码)与段落节点(密集编码)结合,通过“包含”边连接段落及其衍生的短语。这种设计模拟了人类大脑中信息的不同粒度表示,既保留了概念的简洁性,又通过上下文丰富了语义。例如,一个关于“爱因斯坦”的段落会通过“包含”边连接到“相对论”等短语节点,从而在检索时同时激活概念和上下文。

上下文感知检索中,HippoRAG 2摒弃了HippoRAG的实体中心主义,采用查询到三元组的匹配策略。具体来说,查询不再仅通过命名实体识别(NER)与KG节点匹配,而是直接与三元组匹配,利用三元组中的关系信息更全面地捕捉查询意图。例如,对于查询“爱因斯坦在哪里出生?”,传统方法可能仅匹配“爱因斯坦”这一实体,而HippoRAG 2会匹配“(爱因斯坦,出生于,乌尔姆)”这样的三元组,从而更精准地定位答案。

识别记忆的引入进一步优化了检索过程。在查询到三元组匹配后,HippoRAG 2使用LLM过滤无关三元组,模拟人类记忆中的识别过程。例如,对于查询“莫扎特的父亲是谁?”,系统可能检索到多个包含“莫扎特”的三元组,但通过识别记忆过滤后,仅保留“(莫扎特,父亲,利奥波德·莫扎特)”这一相关三元组。这一步骤显著减少了噪声,提升了检索效率。

在线检索阶段,HippoRAG 2通过PPR算法在KG上进行随机游走,结合短语节点和段落节点的重置概率,实现多跳推理。例如,回答“爱因斯坦的母校的创始人是谁?”需要从“爱因斯坦”节点跳转到“苏黎世联邦理工学院”节点,再跳转到“创始人”节点。HippoRAG 2通过动态调整节点权重,确保检索结果既覆盖多跳路径,又聚焦于相关段落。

创新性

HippoRAG 2的创新性主要体现在三个方面:一是首次将密集-稀疏编码理论应用于RAG系统,通过KG中短语节点和段落节点的结合,实现了概念与上下文的无缝整合;二是提出了查询到三元组的匹配策略,突破了传统实体中心检索的局限性;三是引入识别记忆机制,通过LLM在线过滤无关三元组,显著提升了检索精度。

与现有方法相比,HippoRAG 2的独特之处在于其全面的性能提升。例如,RAPTOR和GraphRAG虽然通过摘要生成增强了意义构建能力,但在简单QA任务上表现下降;HippoRAG在多跳推理上表现优异,但缺乏上下文感知。HippoRAG 2则通过平衡概念与上下文、结合PPR算法与识别记忆,实现了在事实记忆、意义构建和关联记忆任务上的全面领先。

实验结果

在这里插入图片描述
在这里插入图片描述

论文在多个基准数据集上验证了HippoRAG 2的性能,包括简单QA(NaturalQuestions、PopQA)、多跳QA(MuSiQue、2Wiki、HotpotQA、LV-Eval)和语篇理解(NarrativeQA)。实验结果表明,HippoRAG 2在几乎所有任务上均优于基线方法。

在简单QA任务中,HippoRAG 2的F1分数比最强的密集检索模型NV-Embed-v2提高了1.4%(63.3 vs. 61.9)。在多跳QA任务中,其优势更为显著,例如在MuSiQue上,HippoRAG 2的召回率@5达到74.7%,比NV-Embed-v2提高了5%。在最具挑战性的LV-Eval数据集上,HippoRAG 2的F1分数为12.9%,远超其他方法(NV-Embed-v2为9.8%)。此外,HippoRAG 2在语篇理解任务(NarrativeQA)上也表现最佳,F1分数为25.9%,比NV-Embed-v2提高了0.2%。
在这里插入图片描述

消融实验进一步验证了各组件的重要性。例如,移除段落节点后,HippoRAG 2在MuSiQue上的召回率@5下降了10.4%(从74.7%降至63.7%);禁用识别记忆过滤后,性能下降1.1%。此外,HippoRAG 2展示了良好的灵活性,能够兼容不同的密集检索模型(如GTE-Qwen2-7B、GritLM-7B等),且在不同检索器上均表现优于直接密集检索。

局限性

尽管HippoRAG 2表现优异,但仍存在一些局限性。首先,其离线索引阶段依赖LLM提取三元组,计算成本较高。例如,使用Llama-3.3-70B-Instruct处理MuSiQue语料库(11,656个段落)需要约3.5小时。其次,识别记忆的过滤精度仍有提升空间,在部分复杂查询中可能误删相关三元组。例如,在LV-Eval数据集的错误分析中,26%的样本因过滤后丢失关键短语而导致检索失败。此外,HippoRAG 2对多跳推理的依赖可能在某些简单任务中引入不必要的复杂性,例如直接向量检索即可解决的问题。

总结

HippoRAG 2通过神经生物学启发的设计,将RAG系统的记忆能力推向了一个新高度。其核心贡献在于平衡了概念与上下文、检索精度与覆盖范围,从而实现了在事实记忆、意义构建和关联记忆任务上的全面领先。这一工作不仅为LLMs的非参数持续学习提供了新思路,也为未来研究指明了方向——例如,如何进一步降低计算成本,或结合图检索增强对话系统中的情景记忆能力。从更广阔的视角看,HippoRAG 2的成功体现了跨学科研究的力量。通过借鉴神经科学中的密集-稀疏编码理论和记忆机制,AI研究者能够设计出更接近人类智能的系统。未来,随着LLMs和检索技术的进一步发展,HippoRAG 2的框架有望在更多复杂场景中展现其潜力,例如法律文档分析、科学文献综述等需要长期记忆和复杂推理的领域。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2392057.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

从智能提效到产品赋能的架构实践

摘要 本文深入探讨了企业级系统从智能化提效阶段向产品赋能阶段演进的架构实践路径。通过分析传统架构的局限性,提出了以用户价值为导向的现代化架构设计理念,并结合实际案例展示了如何构建可扩展、高可用、智能化的产品架构体系。 1. 引言 在数字化转型的浪潮中,企业技术…

关于OT IIOT系统远程访问的零信任安全

什么是OT & IIOT?—— 工业领域的“操作基石”与“智能升级” 在工业数字化转型的浪潮中,OT(运营技术)与IIoT(工业物联网)是两个核心概念。前者是工业生产的“神经中枢”,后者是驱动智能升…

【Doris基础】Apache Doris vs 传统数据仓库:架构与性能的全面对比

目录 1 引言 1.1 传统数据仓库的发展 1.2 现代分析型数据库的崛起 2 核心架构对比 2.1 传统数据仓库的架构 2.2 Doris的架构设计 3 关键技术差异 3.1 存储引擎对比 3.2 查询执行对比 3.3 数据摄入方式对比 4 性能与扩展性对比 4.1 性能基准对比 4.2 扩展性对比 5…

【VScode】python初学者的有力工具

还记得23年11月,我还在欣喜Spyder像Rstudio一样方便。 但苦于打开软件打开太卡、太耗时(初始化-再加载一些东西),一度耗费了我学习的热情。 就在24年5月份,别人推荐下发现了一个更加轻量级、方便又快速的ID&#xff0…

443端口:HTTPS通信的安全基石

在互联网通信中,端口是数据传输的虚拟通道,每个端口对应特定的服务或协议。其中,443端口 作为 HTTPS协议 的默认端口,在现代网络安全中扮演着至关重要的角色。 一、443端口的核心作用 HTTPS加密通信 443端口是HTTPS(…

宝塔安装WordPress程序

宝塔安装WordPress程序 一、提前准备1,下载WordPress2,在宝塔创建站点 二、部署项目1,上传下载的wordpress压缩包至创建的项目根目录下并解压 三、wordpress安装1,在浏览器打开创建的网站2,开始按照流程安装配置数据库…

Agent 的7 中设计模式

这里写自定义目录标题 建立有效的Agent什么是Agent?何时(以及何时不使用)使用代理何时以及如何使用框架构建块、工作流和Agent构建模块:增强型LLM(The augmented LLM)工作流程:提示链接(Prompt chaining)工作流程&…

OpenGAN:基于开放数据生成的开放集识别

简介 简介:这次学习的OpenGAN主要学习一个思路,跳出传统GAN对于判断真假的识别到判断是已知种类还是未知种类。重点内容不在于代码而是思路,会简要给出一个设计的代码。 论文题目:OpenGAN: Open-Set Recognition via Open Data …

【node】Express创建服务器

Express是基于Node.js平台,快速、开放、极简的Web开发框架。基于http的express是专门用来创建web服务器的,可以极大的提高开发效率。 Express的创建的服务器 1 web网站服务器 专门对外提供web网页资源的服务器 2 Api接口服务器 专门对外提供Api接口的服…

使用 OpenCV 实现哈哈镜效果

在计算机视觉和图像处理领域,OpenCV 提供了非常强大的图像几何变换能力,不仅可以用于纠正图像,还能制造各种“有趣”的视觉效果。今天,我们就来实现一个经典的“哈哈镜”效果,让图像像在游乐园里一样被拉伸、压缩、扭曲…

node-DeepResearch开源ai程序用于深入调查查询,继续搜索、阅读网页、推理,直到找到答案

​一、软件介绍 文末提供程序和源码下载 node-DeepResearch开源ai程序用于深入调查查询,继续搜索、阅读网页、推理,直到找到答案。 重要提示 与 OpenAI/Gemini/Perfasciity 的“深度研究”不同,我们只专注于通过迭代过程找到正确的答案 。我…

C#、C++、Java、Python 选择哪个好

选择哪种语言取决于具体需求:若关注性能和底层控制选C、若开发企业级应用选Java、若偏好快速开发和丰富生态选Python、若构建Windows生态应用选C#。 以Python为例,它因语法简洁、开发效率高、应用广泛而在AI、数据分析、Web开发等领域大放异彩。根据TIOB…

OpenGL Chan视频学习-8 How I Deal with Shaders in OpenGL

bilibili视频链接: 【最好的OpenGL教程之一】https://www.bilibili.com/video/BV1MJ411u7Bc?p5&vd_source44b77bde056381262ee55e448b9b1973 函数网站: docs.gl 说明: 1.之后就不再整理具体函数了,网站直接翻译会更直观也…

机器学习课程设计报告 —— 基于口红数据集的情感分析

目录 一、课程设计目的 二、数据预处理及分析 2.1 数据预处理 2.2 数据分析 三、特征选择 3.1 特征选择的重要性 3.2 如何进行特征选择 3.3 特征选择的依据 3.4 数据集的划分 四、模型训练与模型评估 4.1 所有算法模型不调参 4.2 K-近邻分类模型 4.3 GaussianNB模…

Windows安装Docker部署dify,接入阿里云api-key进行rag测试

一、安装docker 1.1 傻瓜式安装docker Get Docker | Docker Docs Docker原理(图解秒懂史上最全)-CSDN博客 官网选择好windows的安装包下载,傻瓜式安装。如果出现下面的报错,说明主机没有安装WSL 1.2 解决办法 安装 WSL | Mic…

Dify中 SYSTEM, USER, ASSISTANT 的关系、职责与使用方法

在Dify这类对话式AI应用构建平台中,SYSTEM, USER, ASSISTANT 这三种消息类型共同定义了与大型语言模型(LLM)交互的结构和上下文。它们的关系可以理解为: SYSTEM: 扮演着“导演”或“场景设定者”的角色。USER: 扮演着“提问者”或“任务发起者”的角色。ASSISTANT: 扮演着“…

【ArcGIS Pro草履虫大师】空间地图系列

地图系列是根据单个布局来构建的页面集合。 正常情况下,一个布局只能导出一个页面,通过地图系列则可以通过不同的视图、动态元素,构建并导出多个页面。 地图系列发展自ArcMap的【数据驱动页面】功能。 ArcGIS Pro中有3个地图系列&#xff…

1. 数据结构基本概念 (1)

本文部分ppt、视频截图来自:[青岛大学-王卓老师的个人空间-王卓老师个人主页-哔哩哔哩视频] 1. 数据结构基本概念 1.1 研究内容 数据结构是一门研究非数值计算的程序设计中计算机操作队形以及他们之间关系和操作的核心课程,学习的主要内容如下&#x…

函数抓取图片microsoft excel与wps的区别

microsoft excel 写出index函数 找到图片所在的位置 INDEX(员工数据库!$H:$H,MATCH(Sheet1!$B$3,员工数据库!$A:$A,0))将index函数定义为名称 插入截图 插入-屏幕截图-屏幕剪辑 选中给截图插入定义的公式 WPS 直接写公式抓取

openpi π₀ 项目部署运行逻辑(三)——策略推理服务器 serve_policy.py

π₀ 主控脚本都在 scripts 中: 其中,serve_policy.py 是 openpi 中的策略推理服务端脚本,作用为:启动一个 WebSocket 服务器,加载预训练策略模型,等待外部请求(如来自 main.py 的控制程序&…