【技术干货】AI Agent记忆系统四层架构:让大模型实现长期记忆的工程实践
大语言模型从根本上是无状态的。发送一条消息产生一个回复每次新对话都是一块白板。这事因为模型本身就是一个巨型函数输入进去token 出来模型权重中没有任何持久化存储能在会话之间保留对话历史。简单聊天机器人不在乎这一点。让它写一封求职信写完就结束不需要连续性。Agent 面对的情况截然不同。它们需要处理长期运行的任务在时间推移中学习用户偏好跨多个会话与其他 agent 协作。无状态性构成了根本性障碍没有人能接受一个每周一早上都要重新自我介绍的个人助理。错误的心智模型多数人第一次思考 agent 记忆时会本能地给出最简答案往上下文窗口里塞更多东西。上下文窗口就是模型当前能看到的全部信息想让 agent 记住什么就粘贴进去看起来问题就解决了。但是上下文窗口是有限的目前最长的大约在 100 万到 200 万 token 之间。听起来很大但一个长期运行的自主 agent 积累的状态量可以远远超过这个上限。在触及上限之前还有一个更深层的问题模型在处理深埋于长上下文中的信息时表现会明显下降注意力分布并不均匀。而且上下文是临时性的会话一结束就消失了。要保持连续性就得在每个新会话开始时重新注入完整历史代价高且容易出错。计算机的存储体系是一个更贴切的类比。计算机不会把所有数据都放在 RAM 里它采用层次结构快速、小容量的即时内存处理当前工作较慢、大容量的持久化存储放置其余数据由系统决定加载什么、保留什么、释放什么。Agent 记忆遵循相同的逻辑。Agent 记忆的四种类型Agent 记忆并非单一概念它是一个四层体系各层服务于不同目的。第一层是工作记忆对应 agent 当前正在处理的内容也就是上下文窗口用户的消息、对话历史以及已注入的文档或工具调用结果。访问速度快但完全是临时性的会话结束即消失。第二层是情景记忆记录发生过的事过去的对话、已完成的任务、做出的决策及其原因。存储在外部按需检索。可以把它理解为 agent 的日记赋予它一种个人历史感——“两周前讨论过同样的话题。”第三层是语义记忆。用户的名字、偏好、角色、所在公司的技术栈这类事实性知识不绑定于任何特定对话是 agent 学到并持久存储的独立事实最接近用户画像或知识库的概念。第四层是程序记忆关乎怎么做可用的工具、需要遵循的工作流、塑造 agent 行为的系统提示词。模型权重本身也可以视为程序记忆的一种形式——数万亿参数编码了推理、写作和响应的方式。这一层变化最少但最具基础性。四种记忆类型映射到技术栈的不同组件上。工作记忆对应上下文窗口情景记忆和语义记忆对应外部数据库向量存储、关系型数据库、键值存储程序记忆对应模型权重和系统提示词。实际运作机制有了四种类型的划分接下来看看 agent 使用记忆时在机制层面到底发生了什么。写入会话结束时或进行中的关键节点agent或一个独立的记忆管理进程判断哪些信息值得保留。判断起来并不简单因为不能什么都存否则检索会变得缓慢且杂乱。需要保留的是那些后续可能有用的内容做出的决定、表达的偏好、不容易重新推导的上下文。所以通常需要一次额外的 LLM 调用专门做摘要和提取。原始对话输入结构化的记忆条目输出——事实、观察、事件——随后写入向量数据库或键值存储打上时间戳和主题等元数据标签。检索新会话开始或 agent 接到新任务时它会向记忆存储发起查询获取相关上下文。向量搜索是常见做法将当前查询编码为 embedding检索语义相似度最高的已存储记忆。检索到的内容与新对话一起注入上下文窗口agent 由此获得了对过去经历的访问能力无需逐一重读每个历史会话。类比来说就像开会前翻一遍笔记而不是凭空回忆所有细节。遗忘遗忘环节受到的关注最少但重要性不低。记忆系统需要衰减机制。旧的、低相关性的记忆应当逐渐淡出相互矛盾的记忆先说偏好 Python后来又切换到 Go需要被清理否则知识库会随时间推移变得陈旧且自相矛盾。部分系统采用基于时间的显式过期策略另一些用近期性和访问频率作为信号。少数更精细的方案借鉴了间隔重复原理持续被检索的记忆保持活跃长期未被调用的则逐渐消退。目前的进展AI agent 记忆是一个快速发展的领域有几个名字值得留意。Mem0 大概是目前应用最广的记忆层方案。它介于 agent 和数据库之间自动处理写入、检索、遗忘逻辑——接入技术栈后即可管理情景记忆和语义记忆。API 设计简洁保存记忆、搜索记忆剩下的交给它。Letta前身 MemGPT走了一条更有主见的路线通过工具调用把记忆控制权显式交给 agent 自身——由 agent 决定何时写入、写入什么、删除什么。复杂度更高透明度也更高agent 是自己记忆管理的主动参与者不是被动接收方。LangChain 和 LlamaIndex 这些主流框架同样提供了记忆模块。越来越多的前沿模型提供商也开始将持久化能力直接内置于 API 中让对话历史在会话间原生延续。方向已经清晰记忆正在从各团队各自解决的定制工程问题演变为 agent 技术栈中拥有标准接口和专用基础设施的一等公民。与 MCP 和 A2A 的关联MCPModel Context Protocol解决的是 agent 与工具和数据源之间的通信问题A2AAgent to Agent解决的是 agent 之间的相互通信问题。记忆是第三块agent 如何在时间维度上维持自身的连续性。换个角度理解MCP 处理当下此刻能访问什么A2A 处理协作多个 agent 如何协调记忆处理过去从前次交互中留下了什么。三者合在一起就组成了一个能行动、能协作、能在时间跨度上维持记忆的系统所以远不止对提示词做出响应那么简单。总结模型本身每几个月都在进步上下文窗口也在持续增大。但记忆作为一个完整系统——包含写入、检索和衰减逻辑——不会随着模型规模的增长自动获得。它是一个需要刻意设计和搭建的工程层这正是当下值得关注它的原因。最后唠两句为什么AI大模型成为越来越多程序员转行就业、升职加薪的首选很简单这些岗位缺人且高薪智联招聘的最新数据给出了最直观的印证2025年2月AI领域求职人数同比增幅突破200% 远超其他行业平均水平整个人工智能行业的求职增速达到33.4%位居各行业榜首其中人工智能工程师岗位的求职热度更是飙升69.6%。AI产业的快速扩张也让人才供需矛盾愈发突出。麦肯锡报告明确预测到2030年中国AI专业人才需求将达600万人人才缺口可能高达400万人这一缺口不仅存在于核心技术领域更蔓延至产业应用的各个环节。那0基础普通人如何学习大模型 深耕科技一线十二载亲历技术浪潮变迁。我见证那些率先拥抱AI的同行如何建立起效率与薪资的代际优势。如今我将积累的大模型面试真题、独家资料、技术报告与实战路线系统整理分享于此为你扫清学习困惑共赴AI时代新程。我整理出这套 AI 大模型突围资料包【允许白嫖】✅从入门到精通的全套视频教程✅AI大模型学习路线图0基础到项目实战仅需90天✅大模型书籍与技术文档PDF✅各大厂大模型面试题目详解✅640套AI大模型报告合集✅大模型入门实战训练这份完整版的大模型 AI 学习和面试资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】①从入门到精通的全套视频教程包含提示词工程、RAG、Agent等技术点② AI大模型学习路线图0基础到项目实战仅需90天全过程AI大模型学习路线③学习电子书籍和技术文档市面上的大模型书籍确实太多了这些是我精选出来的④各大厂大模型面试题目详解⑤640套AI大模型报告合集⑥大模型入门实战训练如果说你是以下人群中的其中一类都可以来智泊AI学习人工智能找到高薪工作一次小小的“投资”换来的是终身受益应届毕业生无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界。业务赋能 突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型。获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2444725.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!