图记忆技术:构建LLM智能体的结构化记忆系统

news2026/4/30 8:23:10
1. 项目概述图记忆库的兴起与价值如果你最近在关注大语言模型LLM和智能体Agent的前沿进展那么“图”这个概念一定频繁地出现在你的视野里。从知识图谱到图神经网络再到现在的图记忆图结构正以其强大的关系表达能力成为解决LLM在复杂推理、长期记忆和动态知识组织方面瓶颈的一把关键钥匙。今天要聊的这个项目——DEEP-PolyU/Awesome-GraphMemory就是一个专门汇集图记忆相关研究的资源宝库。它不是一个可以直接运行的代码库而是一个精心整理的、持续更新的列表旨在为研究者和开发者提供一个关于图记忆技术的全景视图。简单来说图记忆就是将LLM的“记忆”从传统的线性序列或简单的键值对升级为一张由节点实体、概念、事件和边关系、时序、因果构成的网络。想象一下传统的聊天记录就像一本按时间顺序写的日记你想找“上周三讨论的那个关于项目A和供应商B的合同风险点”可能需要翻看大量无关内容。而图记忆则像一张思维导图或关系网你可以直接定位到“项目A”节点沿着“合同风险”边找到相关的讨论记录、责任人、历史问题等关联信息检索和理解效率天差地别。Awesome-GraphMemory项目正是为了系统化地梳理实现这种“智能记忆”所需的理论、模型、数据集和应用帮助大家快速切入这个充满潜力的领域。2. 图记忆的核心概念与技术脉络拆解2.1 为什么需要图记忆传统方法的局限在深入资源库之前我们必须先理解图记忆要解决的根本问题。当前主流的LLM和基于LLM的智能体其记忆机制通常有几种方式上下文窗口Context Window这是最直接的方式将历史对话或信息直接拼接到当前查询的上下文中。但受限于模型的最大上下文长度如128K、200K无法实现真正的长期记忆且随着上下文增长模型处理速度下降中间部分的信息还容易“被遗忘”即中间位置性能衰减问题。向量数据库Vector Database将信息片段转化为向量嵌入Embedding存储通过相似性搜索来召回相关记忆。这种方法突破了长度限制实现了海量记忆存储。但其核心是“相似性”缺乏对实体间复杂关系、逻辑结构和时序因果的显式建模。你很难通过向量搜索直接回答“A事件导致了哪些后续结果”或“B和C之间有哪些间接联系”这类需要关系推理的问题。简单结构化存储如JSON或数据库将记忆以键值对或表格形式存储。这种方式虽然结构化但关系表达僵硬难以适应动态变化、多对多、层级丰富的现实世界知识。图记忆的破局点就在于它天然地契合了人类记忆和世界知识的组织方式——关联网络。一个记忆点节点通过多种类型的关系边与其他记忆点相连。这种结构带来了几大优势高效的关系推理可以沿着边进行多跳查询和推理。动态记忆演化新记忆可以很容易地作为新节点插入并与现有节点建立连接记忆库能自然生长。记忆的聚合与抽象相关的节点可以聚合成更高阶的概念节点实现记忆的层次化组织。缓解幻觉通过显式的关系约束模型生成的内容可以更好地锚定在已有的、经过验证的关系网络中。Awesome-GraphMemory项目里收集的论文和项目正是围绕如何构建、维护和利用这种图结构记忆而展开的。2.2 图记忆系统的核心组件一个完整的图记忆系统通常包含以下几个核心组件这也是我们阅读该资源库中文献的一个基本框架记忆图Memory Graph的构建这是第一步也是最关键的一步。如何从原始数据对话、文档、环境观察中提取出节点和边常见技术包括基于LLM的抽取利用LLM的指令跟随和文本理解能力通过精心设计的提示词Prompt让LLM从文本中识别实体作为节点和关系作为边。这是目前最主流、最灵活的方法。结合预定义模式Schema为特定领域定义好节点和边的类型引导LLM进行结构化信息抽取保证图模式的一致性。多模态信息融合当输入包含图像、音频时如何将非文本信息转化为图的组成部分。记忆图的存储与索引构建好的图需要高效存储。通常使用图数据库如Neo4j, NebulaGraph或兼容图操作的向量数据库如Weaviate。除了存储图结构本身每个节点和边还可能附带丰富的属性如文本描述、生成时间、置信度、向量嵌入。高效的索引是实现快速多跳查询的基础。记忆的检索Retrieval当智能体需要回忆时如何从庞大的记忆图中找到最相关的子图这不仅仅是向量相似性搜索更涉及基于图的检索从某个查询节点出发进行广度优先、深度优先或带权重的游走收集相关节点和边。混合检索结合向量搜索基于节点内容和图遍历基于结构关系实现更精准的召回。推理链检索为了回答复杂问题可能需要检索出一条连接多个节点的路径即推理链。记忆的更新与巩固记忆不是一成不变的。新的交互会产生新记忆旧记忆可能被修正、强化或遗忘。系统需要机制来处理冲突解决当新抽取的记忆与现有记忆矛盾时如何处理是基于时间戳、置信度还是触发一个验证流程记忆融合相似或相关的记忆节点是否应该合并如何合并其属性和连接关系记忆衰减与遗忘如何定义“不重要”的记忆是依据访问频率、时间还是与其他节点的连接强度模拟人类的遗忘曲线对于控制图规模、保持记忆库健康至关重要。记忆的利用Utilization检索到的记忆子图如何被智能体使用通常这些结构化信息会被线性化例如转化为“节点A-[关系R]-节点B”这样的自然语言描述然后拼接进LLM的上下文提示中指导其生成更准确、更连贯、更具逻辑性的回复或决策。3. 从Awesome-GraphMemory资源库中梳理关键技术方向浏览Awesome-GraphMemory的目录我们可以将其中的资源归类为几个关键的技术方向这有助于我们按图索骥地进行深入学习。3.1 基础理论与综述资源库通常会收录一些奠基性或综述性的论文。这些文章帮助我们建立对图记忆领域的整体认知理解其与认知科学、传统知识图谱、图神经网络的联系与区别。例如可能包含探讨“图结构如何模拟人类情景记忆”、“图记忆与符号推理的结合”等主题的论文。阅读这些材料是入门的第一步能帮你建立起正确的思维框架。3.2 图记忆的构建与表示学习这是目前研究最活跃的部分。核心问题是如何让LLM更好地“理解”并“生成”图。提示工程Prompt Engineering如何设计提示词让LLM如GPT-4 Claude能够稳定、准确地从自由文本中抽取实体关系实体三元组或者生成图的可序列化格式如Cypher查询语句、GraphML、JSON。这里有很多技巧比如少样本示例Few-shot、思维链Chain-of-Thought引导、输出格式约束等。微调Fine-tuning为了获得更专、更稳定的图构建能力研究者们会使用标注好的图数据对开源LLM如Llama Qwen进行微调。这催生了一些专门用于信息抽取或图文本生成的模型变体。多模态图构建如何处理视频、音频中的时序信息和视觉实体并将其与文本描述共同构建成一个统一的记忆图。这涉及到多模态大模型VLMs的运用。增量与流式构建在智能体与环境的持续交互中如何以在线、增量的方式更新记忆图而不是每次都进行全量重建。3.3 图记忆的存储、检索与推理存储架构讨论不同图数据库的选择考量比如Neo4j的成熟生态、NebulaGraph的分布式性能、TigerGraph的并行处理能力。也有工作探讨基于内存的轻量级图存储适用于对延迟要求极高的场景。混合检索算法这是性能关键点。如何将用户的自然语言查询先转化为图查询例如识别出查询中的实体作为起始节点识别出关系类型再结合向量语义相似度在图上进行受限的、带权重的遍历最终返回一个最相关的、稠密的子图。一些先进的检索框架会引入强化学习来优化遍历路径。图上的推理Graph Reasoning检索到的子图可能包含回答问题所需的所有元素但需要经过一步“推理”才能得出最终答案。例如子图显示了“A是B的朋友”、“B是C的同事”问题问“A和C可能通过什么认识”。简单的图遍历可以找到“A-B-C”的路径但LLM需要根据“朋友”和“同事”的关系语义推断出“可能通过B介绍认识”。这个过程就是图增强的推理。3.4 图记忆在智能体Agent中的应用这是图记忆技术最主要的落地场景。资源库会收录大量将图记忆作为智能体“大脑”的研究。角色扮演与对话智能体智能体通过图记忆记住用户的个人信息、偏好、历史对话细节并能主动建立不同话题之间的联系实现真正个性化的、有深度的长期对话。决策与规划智能体在游戏环境或仿真环境中智能体将探索过的地图、遇到的NPC、完成的任务、获得的物品奖励都以图的形式记忆下来。这张“世界模型”图能帮助它更好地规划路径、制定策略例如“想要获得‘宝剑’需要先去找‘铁匠’而‘铁匠’上次说需要‘铁矿’‘铁矿’我在‘西山’见过”。工具使用智能体智能体调用各种API如查询数据库、发送邮件、控制设备的过程和结果可以被记录成图。图中节点代表工具、参数、执行结果边代表执行顺序、数据流。这不仅能帮助智能体复盘复杂工作流的执行情况还能在遇到类似任务时快速回忆起成功的工具调用模式。多智能体协作多个智能体共享或部分共享一个记忆图作为它们之间的“协作白板”。每个智能体的行动和观察都更新到图上其他智能体可以据此了解全局状态协调行动避免冲突。3.5 数据集与评估基准任何一个领域的发展都离不开高质量的评估标准。Awesome-GraphMemory很可能会收录相关的数据集和评估框架。数据集包括用于训练图抽取模型的标注数据集如WebNLG, DocRED以及用于评估图记忆智能体性能的模拟环境或对话数据集。这些数据集通常包含复杂的叙事、多轮对话或需要长期记忆才能完成的任务。评估指标如何衡量一个图记忆系统的好坏可能包括图构建质量抽取的实体/关系的准确率、召回率。记忆检索精度针对查询返回的子图是否包含所有且仅包含必要信息。下游任务性能搭载了图记忆的智能体在对话一致性、任务完成率、规划效率等终极指标上的提升。系统效率记忆更新、检索的延迟和吞吐量。4. 动手实践构建一个简易的对话图记忆系统了解了理论我们不妨设计一个最小可行系统来感受一下。假设我们要为一个聊天机器人添加图记忆功能使其能记住对话中的人物和事件关系。4.1 系统架构设计我们将采用一个轻量级的架构记忆图存储使用内存图库NetworkX用于原型快速验证或轻量级图数据库Neo4j用于更持久、复杂的场景。图构建引擎使用OpenAI GPT-4或开源的Llama 3.1系列模型通过提示词进行信息抽取。检索模块实现一个混合检索器结合关键词匹配在节点属性中搜索和向量相似度搜索使用sentence-transformers生成节点文本的向量。智能体核心一个标准的LLM调用负责处理用户输入整合检索到的记忆生成回复。4.2 核心实现步骤步骤1定义图模式Schema首先我们需要决定记忆图中存储什么。为简单起见我们定义两种节点和一种边节点类型Person人物属性有name名字description描述如“我的大学同学”。Event事件属性有content事件内容timestamp发生时间。边类型PARTICIPATED_IN连接Person和Event表示某人参与了某事件。步骤2实现信息抽取与图更新每当用户说出一段包含新信息的对话时我们调用LLM进行抽取。import openai import json from neo4j import GraphDatabase # 提示词示例 extraction_prompt 你是一个信息抽取助手。请从以下对话中提取出所有的人物和事件以及人物参与事件的关系。 请以JSON格式输出格式如下 { persons: [{name: 人名, description: 简要描述}], events: [{content: 事件内容, timestamp: 时间或未知}], participations: [{person_name: 人名, event_content: 事件内容}] } 对话内容{user_input} def extract_and_update_graph(user_input, driver): # 1. 调用LLM进行抽取 response openai.ChatCompletion.create( modelgpt-4, messages[{role: user, content: extraction_prompt.format(user_inputuser_input)}] ) result json.loads(response.choices[0].message.content) # 2. 更新Neo4j图数据库 with driver.session() as session: # 创建或合并Person节点 for person in result.get(persons, []): session.run( MERGE (p:Person {name: $name}) SET p.description $description, nameperson[name], descriptionperson.get(description, ) ) # 创建或合并Event节点 for event in result.get(events, []): session.run( MERGE (e:Event {content: $content}) SET e.timestamp $timestamp, contentevent[content], timestampevent.get(timestamp, 未知) ) # 创建参与关系 for part in result.get(participations, []): session.run( MATCH (p:Person {name: $p_name}) MATCH (e:Event {content: $e_content}) MERGE (p)-[:PARTICIPATED_IN]-(e), p_namepart[person_name], e_contentpart[event_content] )注意在实际生产中LLM的JSON输出可能不稳定需要加入健壮的解析和错误处理逻辑。同时对于时间戳可以使用更精确的解析库如dateparser来标准化。步骤3实现混合检索当用户提出一个可能需要历史记忆的问题时我们先进行检索。from sentence_transformers import SentenceTransformer import numpy as np # 初始化向量模型 encoder SentenceTransformer(all-MiniLM-L6-v2) def retrieve_related_memory(query, driver): related_info [] # 策略1关键词/实体匹配检索 # 假设我们有一个简单的实体识别函数 extract_entity_names(query) entities extract_entity_names(query) # 这里简化实际可用LLM或NER工具 for entity in entities: with driver.session() as session: # 查找与该实体直接相关的节点和关系 result session.run( MATCH (n)-[r]-(m) WHERE n.name CONTAINS $entity OR m.content CONTAINS $entity RETURN n, r, m LIMIT 5 , entityentity) for record in result: related_info.append(format_record(record)) # 策略2向量语义检索针对事件内容等文本属性 query_embedding encoder.encode(query) with driver.session() as session: # 获取所有事件节点的内容和ID result session.run(MATCH (e:Event) RETURN id(e) as node_id, e.content as content) events [(record[node_id], record[content]) for record in result] # 计算相似度 contents [e[1] for e in events] content_embeddings encoder.encode(contents) similarities np.dot(query_embedding, content_embeddings.T) top_k_indices np.argsort(similarities)[-3:][::-1] # 取最相关的3个 for idx in top_k_indices: node_id, content events[idx] with driver.session() as session: # 找到这个事件及相关的人物 result session.run( MATCH (e) WHERE id(e) $node_id OPTIONAL MATCH (p:Person)-[:PARTICIPATED_IN]-(e) RETURN e, collect(p) as persons , node_idnode_id) for record in result: related_info.append(format_record(record)) # 去重并格式化检索到的信息作为上下文 return \n.join(list(set(related_info))) def format_record(record): # 将Neo4j记录格式化为自然语言字符串 # 例如: “张三(Person) 参与了 上周的生日派对(Event)。” # 具体实现略 pass步骤4整合记忆生成回复最后将检索到的记忆上下文和用户当前查询一起发送给LLM生成最终回复。def generate_response_with_memory(user_input, driver): # 1. 检索相关记忆 memory_context retrieve_related_memory(user_input, driver) # 2. 构建最终提示 system_prompt 你是一个拥有记忆的助手。以下是你之前对话中记录的一些相关信息 {memory_context} 请根据这些记忆和当前对话友好、准确地回答用户的问题。如果记忆中的信息不足以回答请基于常识回答并说明你不记得相关细节。 final_prompt system_prompt.format(memory_contextmemory_context) # 3. 调用LLM生成回复 response openai.ChatCompletion.create( modelgpt-4, messages[ {role: system, content: final_prompt}, {role: user, content: user_input} ] ) # 4. 可选将本轮问答中的重要信息也更新到记忆图中 # extract_and_update_graph(fQ: {user_input} A: {response}, driver) return response.choices[0].message.content4.3 实操心得与避坑指南图模式的精心设计是成功的一半一开始不要贪图复杂。从最简单的实体-关系开始验证流程跑通。模式设计直接影响抽取的难度和检索的效率。边类型的设计要具有明确的语义避免歧义。信息抽取的稳定性挑战LLM的生成具有随机性即使有JSON格式约束也可能输出非法格式。务必在解析环节加入try-catch并设计备选方案如让LLM重试、使用更稳定的微调模型、或采用规则后处理。检索策略的平衡纯向量搜索容易丢失结构信息纯图遍历又受限于查询的准确性。混合检索是方向但需要根据业务场景调整权重。对于强关系型查询如“谁介绍A和B认识的”应更依赖图遍历对于语义模糊查询如“那次有趣的活动”向量搜索更有效。记忆的冲突与融合当用户说“我的猫叫小白”后来又说“我的猫叫雪球”时系统需要决定这是两只猫还是同一只猫改名了或是用户之前记错了。简单的实现可以用时间戳覆盖但更智能的系统需要引入置信度管理或主动询问的机制。性能考量随着图规模增大多跳查询和全图向量计算会变慢。需要考虑对图进行社区划分、为常用查询路径建立索引、对节点嵌入进行分层聚类索引等优化手段。评估的困难如何自动化评估记忆系统的效果除了抽取的准确率更关键的是看它是否真正提升了对话或任务完成的质量。这通常需要人工评估或设计复杂的模拟环境成本较高。5. 前沿探索与未来展望通过Awesome-GraphMemory项目我们可以看到这个领域的一些前沿趋势自监督的图学习减少对大量标注数据的依赖让智能体在交互中自我构建和优化记忆图。神经符号结合将图记忆的符号性、可解释性与神经网络的感知、泛化能力更深层次地融合。例如用GNN来学习节点和边的更好表示用于更精准的检索和推理。大规模分布式图记忆面向海量智能体、海量记忆的场景研究如何分布式地存储、同步和查询一个全局共享或分片的记忆图。记忆的元认知让智能体不仅能记忆事实还能记忆“如何记忆”、“何时检索”的策略本身形成更高阶的学习能力。对于开发者和研究者而言Awesome-GraphMemory这样的资源库是一个绝佳的起点。它节省了你四处搜寻论文、代码和博客的时间。我的建议是不要试图一次性消化所有内容。可以先从一两篇综述或经典论文开始建立一个宏观图景然后选择一个最感兴趣的子方向比如“基于图的对话记忆”或“用于规划的图记忆”深入研究相关的几篇核心论文和开源项目最后像我们上面做的那样动手实现一个最简单的原型。在实践过程中你遇到的具体问题会让你对文献中的解决方案有更深刻的理解从而能更有效地利用这个“Awesome”列表中的宝藏资源。图记忆作为构建更强大、更持久、更可信赖AI智能体的关键技术其发展方兴未艾现在正是深入探索的好时机。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2554776.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…