手把手带你读懂MemBrain(极其详细):Agent实体树记忆到底怎么实现的?
继续看Agent记忆上的事情看看基于实体-主题-时序-版本控制的Agent记忆方案很常规的组合方案不算太创新。另一个看看两个开源模型进展语言大模型GLM-5.1和检测大模型 WildDet3D。一、基于实体-主题-时序-版本控制的Agent记忆方案继续看Agent记忆方案看MemBrain打的点是以实体entity为核心构建自适应语义树核心点是通过多Agent工作流将非结构化对话转化为以实体entity为中心、按语义方面(aspect)如职业、旅行层级聚类的结构化记忆树技术报告在https://github.com/feelingai-team/MemBrain/blob/main/docs/tech_blog.md核心点起就是树结构、加时序、加版本控制。看核心几个点1、几种方式的对比现有LLM外部记忆分为两类一种是文本中心记忆如 OpenClaw保留完整语义但无显式关联、信息分散另一种是图中心记忆如 Graphiti等实体entity关系清晰但语义丢失。比如对话是“Caroline 上周入职了 Feeling-AI。” “Caroline 上周去了上海。”直接存储就是里面的文本中心。图结构记忆就是变成(Caroline, 入职Feeling-AI)(Caroline, 去上海)丢了 “上周” 这个时间【但是这个其实加上时间就行了】实际上这个说的不够还有基于树的比如memTree的方案【早已有】2、基于实体entity为中心的记忆首先是这个结构设计三层实体entity树根节点实体entity中间节点维度主题聚类叶子节点事实fact支持动态维护过载聚类拆分、稀疏聚类合并实体entity与事实fact结构采用多对多映射一个事实fact关联多实体entity一个实体entity对应多事实fact【一个事实fact可引用多个 entity一个 entity 可关联多个 事实fact】事实fact以自然语言存储带规范化时序别名动态解析实体entity版本化历史更新不覆盖旧数据【版本回滚例如旧版本Caroline 学生新版本Caroline Feeling-AI 员工历史不覆盖随时可追溯。】其次构建方式上如下step1.原始对话输入→分批处理会话摘要例如给定Caroline started working at Feeling-AI last week. She traveled to Shanghai last week.-step2.实体entity提取两轮消歧义事实fact-时序提取实体entity提取[Caroline], [Feeling-AI], [Shanghai事实fact - 时间提取原文标注格式[Caroline] started working at [Feeling-AI] [last week::2026-03-30 to 2026-04-05] [Caroline] traveled to [Shanghai] [last week::2026-03-30 to 2026-04-05]-step3.实体entity解析与融合匹配/合并/新建如果出现 “Carrie”Agent 判断 Caroline自动合并。实体entity消歧、合并、更新实体entity保留规范名 描述并版本化历史不覆盖旧信息。-step4.构建并维护层级树。实体entityCaroline方面职业、出行事实fact放在对应叶子节点形成这个3、看检索方式检索结合全文搜索、嵌入检索、结构遍历分成Standard Retrieval三路并行给定查询示例Where does Caroline work now?一路BM25 匹配关键词检索 事实fact 文本一路Embedding 语义检索向量相似度一路Structure-aware 检索遍历实体entity树 → 定位 Caroline → 定位 Employment 方面最后结果合并、去重、重排序输出结构化事实fact。此外也可以再加入一个Agent-augmented retrieval可选增强例如对于查询示例What changed in Caroline’s career recently?第一轮检索获取 career 相关事实factAgent 检查信息充足性生成补充查询如限定时间-第二轮检索补全信息最后做Context assembly原文输出结构会话摘要按 Entity → Aspect → Fact 组织的事实fact原始消息作为支撑证据。这也是典型的多路RAG召回思路整体来看不是太有新意。二、几个大模型开源进展1、语言大模型GLM-5.17540亿参数并以MIT License 开源支持文本输入输出、200K 上下文窗口及 128K 最大输出https://docs.bigmodel.cn/cn/guide/models/text/glm-5.1https://huggingface.co/zai-org/GLM-5.12、检测大模型 WildDet3D3D目标检测模型 WildDet3D 及其配套数据集 WildDet3D-Data开源。在从单张RGB图像中预测开放世界物体在三维空间中的位置、尺寸和方向全面支持文本、视觉点及2D边界框等多种提示方式参数量约为 12亿采用模块化架构设计https://allenai.org/blog/wilddet3dhttps://github.com/allenai/WildDet3Dhttps://huggingface.co/allenai/WildDet3D学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2502174.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!