大模型的短期记忆和长期记忆系统:做 RAG、Agent、知识库前的必修课
模型如何记住 短期与长期记忆的两条解法大语言模型本质上是无状态的函数——每一次推理都是一次独立的计算。 让模型有记忆需要在单次对话内和跨对话之间同时动手。00一张图读懂整体格局可以借用计算机存储层级的思维越靠近 CPU 的越快但越小越远离的越大但越慢。大模型的记忆系统完全对应这种金字塔。FIG · 00 — MEMORY HIERARCHY短期 VS 长期 · 类比计算机存储层级核心洞察短期记忆处理当下长期记忆处理历史与世界知识。两者并非替代关系而是协同——长期记忆负责知道什么短期记忆负责此刻在想什么。01短期记忆 —算力侧的战斗短期记忆的瓶颈是算力与显存Transformer 的自注意力复杂度是 O(n²)每多一个 token 都在放大代价。所有解法都在回答同一个问题——如何让模型用更少资源看到更多 token。CONCEPT短期记忆 ?模型在单次推理内能访问的全部信息本质上是 Transformer 的注意力输入。一旦请求结束这段记忆就消失了——除非你再传一遍。承载形式有三层当前 token 的激活值最易失→KV Cache生成时复用→Context Window 中的原始 token本轮可回看。CONSTRAINT核心约束两堵墙O(n²) 计算 KV Cache 显存注意力计算与序列长度呈平方增长。100K token 的上下文相当于做一张 100K×100K 的注意力矩阵。KV Cache则与长度呈线性增长但在多头、多层下绝对值巨大——一个 70B 模型、128K 上下文的 KV Cache 可占用几十 GB 显存。FIG · 01A — TRANSFORMER 的短期记忆流CONTEXT WINDOW · KV CACHE · 自回归生成六种解法 · 把注意力变便宜01 / 攻 O(N²) 高效注意力 Efficient Attention 用 Sliding WindowMistral、Sparse AttentionLongformer、Linear Attention等把平方复杂度降到近线性。FlashAttention 在硬件层把 I/O 降一个数量级。02 / 压 KV CACHE 共享 / 压缩键值 GQA · MQA · MLA GQA/MQA让多头共享 K/VLlama 3、Mistral 的标配。MLADeepSeek用低秩投影把 Cache 再砍一半。直接效果同样显存能装下更长上下文。03 / 骗位置 外推位置编码 RoPE · ALiBi · YaRN 训练时只见过 8K推理时要处理 128K靠 RoPE 缩放、YaRN、ALiBi让位置信号线性外推把短上下文模型拉长不用重训。04 / 舍弃与摘要 上下文压缩 Context Compression 当历史超过窗口驱逐策略H₂O、StreamingLLM 保留 attention sink recent、LLM 自摘要、token 蒸馏LLMLingua 压到 1/10。本质都是有损压缩。05 / 切块并行 长上下文训练 Ring / Sequence Parallel 训百万级上下文要把序列切到多卡Ring Attention、Sequence Parallelism让显存上限从单卡升级为整个集群。06 / 状态空间替代 Mamba / SSM 类 Recurrent State 跳出 Transformer用状态空间模型把历史压进一个固定大小的隐状态。推理 O(n) 且无 KV Cache——代价是精确回看能力变弱。本质判断 · SHORT-TERM短期记忆的解法全部围绕一个不等式展开——「想看到的 token 数vsGPU 能承受的计算与显存」。过去两年的所有进展FlashAttention、MLA、Mamba、百万上下文都是在不断把这个不等式往看得更多那一侧推。02长期记忆 —系统侧的工程长期记忆的瓶颈不在算力而在**“什么时候记、记成什么格式、在哪里存、怎么把它找回来”**。它本质上是 LLM 之外的一整套信息检索 存储系统。CONCEPT长期记忆 ?跨越单次推理的持久化知识分两大类参数化记忆压进模型权重里的世界知识和非参数化记忆存在外部库里用时再拉进来。前者快但死板后者灵活但依赖检索——几乎所有严肃产品都是两者混合。TRADE-OFF核心权衡可更新性 × 可追溯性 × 延迟参数化记忆更新要重训或微调慢、贵、易遗忘旧知识出了错很难解释。外部记忆可以随时增删改查每条信息都能追回出处但多一次检索就多一层延迟检索质量直接决定输出质量。FIG · 02A — RAG 架构RETRIEVAL-AUGMENTED GENERATION · 最主流的长期记忆方案FIG · 02B — AGENT 记忆系统受 MEMGPT 启发 · 分层记忆 自我写入/检索六种解法 · 让信息回得来01 / 压进权重 参数化记忆 Pretraining · Fine-tuning 预训练把全网知识压进权重。SFT / LoRA把特定领域或风格继续固化。适合稳定、通用的知识——不适合昨天刚发生的事。02 / 外挂向量库 RAG Retrieval-Augmented Generation 最成熟的工业方案。文档→分块→Embedding→向量库查询时召回 top-k 塞进上下文。配合 Rerank、Hybrid Search、父子块可大幅提升召回质量。03 / 分层管理 Agent 记忆系统 MemGPT · Letta 把上下文窗口当内存外挂向量库当硬盘。LLM 自己决定何时写入长期、何时回读——「LLM 是 OS」的思想。04 / 结构化 知识图谱 GraphRAG · KG 向量检索擅长相似但不擅长多跳推理。把实体关系抽成图GraphRAG用子图 社区摘要回答全局性问题。补向量之不足。05 / 增量学习 持续微调 Continual Learning 用 LoRA / QLoRA高效增量适配。关键是对抗灾难性遗忘——EWC、Replay Buffer、Adapter 隔离都是为此而生。06 / 模型编辑 Knowledge Editing ROME · MEMIT 外科手术式改写权重。定位到承载这条知识的几层神经元直接替换参数。比微调精准但只适合少量、离散的事实更新。本质判断 · LONG-TERM长期记忆没有银弹。参数化记忆适合稳的、通用的、不变的RAG适合多、杂、要引用、常变的Agent 记忆系统适合跨会话的个人化经验。真实系统几乎全是三者拼起来的。03同框对照 —一张表讲透差异做技术选型时只需在这张表上对齐四个维度容量、更新成本、访问延迟、可追溯性。维度短期记忆长期记忆载体激活值 · KV Cache · Context Window模型权重 · 向量库 · KG · 文件系统生命周期单次请求内结束即消失跨对话 · 跨会话 · 跨用户持久容量128K ~ 2M token随模型而定理论无上限TB ~ PB 级访问延迟极低直接在 GPU 显存里数十 ms ~ 秒级检索召回读取更新成本零——每次重传即可向量库低 · 权重高需训练可追溯性高——原始 token 就在上下文里RAG 高有 source· 权重低黑箱核心技术FlashAttention · MLA/GQA · RoPE 外推 · 上下文压缩RAG · Fine-tune/LoRA · Agent Memory · KG典型瓶颈O(n²) 计算 · KV Cache 显存检索召回率 · 知识一致性 · 遗忘适用场景单轮复杂推理 · 长文档分析 · 代码仓库理解专业问答 · 个人助理 · 企业知识库 · 多轮 Agent04合流 —现代系统的混合架构没有严肃产品只用一种记忆。下图是 2026 年一个典型 Agent 应用的记忆全栈——短期与长期在同一条推理链上分工协作。FIG · 04 — 混合记忆全栈HYBRID MEMORY STACK · 实际产品中短期与长期如何协作FINAL TAKEAWAY短期记忆是算力问题——被 GPU 硬件和 Transformer 架构约束解法围绕如何让注意力变便宜。长期记忆是信息系统问题——被检索、存储、一致性约束解法围绕如何让该回来的信息回得来。理解这个差别选型就不会错。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2569827.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!