OpenClaw三层记忆系统:为AI助手构建可检索的长期知识库

news2026/5/14 16:31:34
1. 项目概述如果你和我一样长期与各种AI助手打交道无论是编程、写作还是日常任务规划最头疼的问题之一就是“记忆”。每次对话都像是一次全新的邂逅助手记不住你昨天提到的项目细节也忘了上周讨论过的技术方案。这种“金鱼式”的短期记忆极大地限制了AI作为长期伙伴的潜力。今天要聊的OpenClaw Memory System正是为了解决这个痛点而生。它不是一个简单的笔记插件而是一个受学术研究启发、完整实现的三层记忆管理系统旨在为AI助手赋予接近人类的短期与长期记忆能力。简单说它能让你的AI助手记住过去并利用这些记忆更好地服务于未来。这个系统的核心价值在于它将零散、易逝的对话信息通过一套自动化的工作流转化为结构化、可检索的长期知识资产。无论你是开发者希望构建更智能的Agent还是知识工作者想打造一个永不遗忘的“第二大脑”这套开源方案都提供了从理论到实践的完整路径。接下来我会结合自己搭建和调优类似系统的经验带你深入拆解OpenClaw的每一层设计分享如何落地这套系统并避开那些我踩过的坑。2. 核心架构与设计哲学2.1 三层记忆模型从瞬时到永恒OpenClaw的核心是其清晰的三层记忆模型这直接借鉴了人类认知心理学和现代AI记忆研究如MemGPT。理解这三层就理解了整个系统的灵魂。工作记忆Working Memory这是AI的“思维黑板”。它容量有限设计为约20万tokens用于存放当前对话的上下文、临时的计算中间结果以及正在执行的任务状态。它的管理是自动的系统会像我们的大脑一样不断移出不重要的信息为新的思考腾出空间。在实际实现中这通常对应着AI模型的最长上下文窗口并通过某种优先级算法管理哪些信息应该保留在窗口内。短期记忆Short-Term Memory这是记忆的“加工车间”。所有新产生的、有价值的信息首先被收集到这里保存30到90天。这一层采用半自动管理核心是一个基于文件目录的工作流inbox收件箱用于每日收集processing处理中用于每周的人工或AI辅助审查archive归档用于存放已审查通过的记忆。这一层的意义在于提供了一个缓冲和筛选区避免未经处理的碎片信息直接污染长期记忆。长期记忆Long-Term Memory这是知识的“永久档案馆”。经过短期记忆层筛选和提炼的重要信息会被分类并永久存储在这里。OpenClaw将其分为事实、决策、经验教训和项目信息四类并使用LanceDB这类高性能向量数据库进行存储。这意味着记忆不仅是文本更是可以被语义搜索的向量实现了高效、智能的回忆。这个分层模型的精妙之处在于其渐进式提炼和成本控制。不是所有信息都值得永久保存让信息依次流过这三层就像矿砂经过多道筛选最终只有金子被留存下来。这极大地降低了存储和检索的成本与噪音。2.2 为什么是LanceDB向量数据库的选型考量在长期记忆层OpenClaw选择了LanceDB作为向量存储后端这是一个非常务实且高性能的选择。市面上向量数据库很多比如Chroma、Qdrant、Weaviate等。我选择深入LanceDB主要是基于以下几点实战考量首先性能与效率。LanceDB的底层是Apache Arrow和Lance列式存储格式。这意味着它对向量搜索这类SIMD单指令多数据友好型操作进行了极致优化查询速度极快。更重要的是它将数据直接存储在对象存储如S3或本地文件系统上无需维护复杂的数据库服务架构简单资源消耗低。对于个人或中小团队的知识库场景这种轻量级特性是巨大的优势。其次开发者体验。它的Python API设计非常简洁。插入和搜索向量的代码通常只需几行与NumPy、Pandas生态无缝集成。对于快速原型开发和迭代来说这能节省大量时间。再者成本可控。由于数据以文件形式存储你可以利用现有的廉价对象存储服务并且没有按查询次数收费的隐形成本。这对于需要长期、大量存储记忆的应用至关重要。当然它并非没有缺点。例如在需要极强的事务一致性或多写少读的高并发场景下传统的数据库或许更合适。但对于记忆系统这种“一次写入多次读取偶尔更新”的模式LanceDB的优势非常明显。在实际部署时我建议将记忆的元数据如ID、类型、创建时间和向量分开存储元数据可以用轻量的SQLite管理而向量用LanceDB这样能兼顾灵活查询与高效检索。3. 记忆的自动化工作流实现3.1 从收集到归档一个记忆的生命周期光有架构不够关键是如何让记忆流动起来。OpenClaw通过一组精巧的Bash脚本实现了全自动化的工作流这正是其“开箱即用”价值的体现。我们来一步步拆解。第一步每日收集daily-collect.sh。这个脚本的核心是创建一个带有日期戳的Markdown文件作为当天的“收件箱”。它不应该只是创建一个空文件。一个更实用的实现是它可以与你的日常工具链集成。例如在我的设置中这个脚本会检查我当天在代码仓库的提交信息并自动提取摘要。扫描我指定的笔记软件如Obsidian的每日日志。甚至可以通过调用AI API对我一天的工作聊天记录进行摘要然后将这些初步处理过的内容预填充到inbox/YYYY-MM-DD.md文件中。文件模板可以包含一些引导性问题如“今天学到的最重要的一个事实是什么”、“做了一个什么关键决策”。第二步每周审查weekly-review.sh。这是整个流程中最需要人工介入也最体现价值的环节。脚本应该以交互式方式运行逐个展示inbox中的记忆条目。一个高级的实现可以这样做调用本地大模型如通过Ollama运行的Llama 3或Qwen对每条记忆进行初步分析建议其所属类别Fact/Decision/Lesson/Project并生成一个更精炼的摘要。在终端里以清晰格式如使用rich库展示原始内容、AI建议的类别和摘要。然后用户只需按FFact、DDecision、LLesson、PProject或DDelete键即可快速处理。用户的选择会被记录脚本随后将标记为归档的记忆移动到archive/目录并为其添加元数据标签。第三步每月清理monthly-cleanup.sh。这个脚本的逻辑相对直接查找archive/目录中超过90天或你设定的保留期限的文件。但关键在于“清理”不等于“删除”。更安全的做法是将这些过期文件移动到一个cold-storage/目录。对该目录进行压缩打包例如用tar.gz。然后可以选择将压缩包上传到云端廉价存储如AWS Glacier或Backblaze B2最后再删除本地副本。这样既释放了本地空间又保留了在极端情况下恢复的可能。3.2 智能转移从短期记忆到长期知识库smart-promote.sh脚本是连接短期与长期记忆的桥梁也是自动化程度的最高体现。它的核心任务是定期扫描archive/目录找出那些足够重要、值得永久保存的记忆将其向量化后存入LanceDB。如何定义“重要”这是算法的核心。简单的规则可以是凡是被人工审查后放入archive的都算重要。但我们可以做得更智能基于频率如果某个概念或关键词在近期多个记忆片段中反复出现则提升其重要性。基于来源来自代码提交、正式文档的记忆可能比随手记的聊天片段更重要。基于AI评分在每周审查时除了分类还可以让AI模型对记忆的“长期价值”进行1-10分的打分。smart-promote.sh只转移分数高于阈值比如7分的记忆。转移的具体过程文本预处理与分块一篇完整的日记可能包含多个主题。直接整篇向量化会导致检索精度下降。需要先进行智能分块确保每个块语义完整。可以按自然段落分或使用更高级的语义分割模型。生成嵌入向量调用嵌入模型如OpenAI的text-embedding-3-small或开源的BGE-M3、nomic-embed-text为每个文本块生成向量。这里有一个重要技巧在生成向量时除了文本内容本身最好将记忆的“元数据”如类型、日期、重要性评分也以特定格式拼接到文本中这样后续检索时既能根据语义也能根据这些条件进行过滤。存入LanceDB将文本块、其向量、以及完整的元数据ID、原始文件路径、日期、类型等作为一个记录写入LanceDB的对应表中可以为四种记忆类型分别建表也可以用一个大表加type字段区分。4. 混合检索策略如何精准地“回忆”记忆存得好更要找得准。OpenClaw采用了混合检索策略这是保证实用性的关键。单一的检索方式总有局限结合多种方式才能取长补短。4.1 三重检索机制详解1. 向量搜索语义搜索这是核心。当用户提出一个问题如“我之前是怎么解决数据库连接池泄漏的”系统会将这个问题也转化为向量然后在LanceDB中查找余弦相似度最高的记忆向量。它的优势在于能理解语义即使你用的词汇和记忆中不完全相同比如“连接池泄漏”和“连接池耗尽”也能找到相关结果。实操注意点嵌入模型的选择至关重要。通用模型如OpenAI的效果不错但可能有延迟和成本开源模型如BGE可以本地部署隐私性好但需要根据你的语料微调以达到最佳效果。2. BM25关键词搜索这是传统信息检索的基石。它基于词频和逆文档频率来评估关键词匹配的相关性。对于非常精确的查询比如查找具体的错误代码“ERROR 1040 (HY000)”BM25的效果往往比向量搜索更直接、更准确。在实现上我们可以使用像rank_bm25这样的Python库对记忆文本构建索引。3. 重排序单独使用以上任何一种方法都可能返回不理想的结果。重排序层的作用是先分别用向量搜索和BM25搜索各取出前K个结果比如各20条合并去重后得到一个候选集。然后使用一个更强大但更耗资源的“交叉编码器”模型Cross-Encoder让这个模型直接对查询和每一个候选记忆进行相关性打分。这个模型能进行更精细的语义匹配最终根据它的打分对结果进行最终排序。sentence-transformers库就提供了方便的交叉编码器模型。4.2 检索流程的工程实现在实际代码中这个混合检索流程大致如下import lance from rank_bm25 import BM25Okapi from sentence_transformers import CrossEncoder, SentenceTransformer class HybridRetriever: def __init__(self, lancedb_uri, embedding_model_name, cross_encoder_name): self.db lance.connect(lancedb_uri) self.embedding_model SentenceTransformer(embedding_model_name) self.reranker CrossEncoder(cross_encoder_name) # 为BM25构建内存中的文本索引定期更新 self.bm25_index self._build_bm25_index() def search(self, query, top_k10, memory_typeNone): # 1. 向量搜索 query_vec self.embedding_model.encode(query) vector_results self.db.search(query_vec).limit(top_k*2).to_list() # 多取一些 # 2. BM25搜索 bm25_scores self.bm25_index.get_scores(query.split()) bm25_results [...] # 根据分数获取top_k*2的结果 # 3. 合并与去重 all_candidates self._merge_and_deduplicate(vector_results, bm25_results) # 4. 重排序 pairs [[query, cand[text]] for cand in all_candidates] rerank_scores self.reranker.predict(pairs) for cand, score in zip(all_candidates, rerank_scores): cand[final_score] score # 5. 按最终分数排序并返回top_k sorted_candidates sorted(all_candidates, keylambda x: x[final_score], reverseTrue) return sorted_candidates[:top_k]注意BM25索引需要定期例如每次新增记忆后从LanceDB中重新加载所有文本进行构建。对于非常大的记忆库可以考虑使用专门的全文检索引擎如Elasticsearch来替代内存中的BM25但这会引入系统复杂性。对于个人或中小规模使用内存索引通常足够。5. 实战部署与优化经验5.1 环境搭建与配置要点按照官方脚本create-short-term.sh初始化目录结构只是第一步。要让整个系统顺畅运行还需要一个稳定的环境。我强烈建议使用Docker Compose来封装核心服务特别是如果你计划使用开源嵌入模型和重排序模型。一个典型的docker-compose.yml可能包含Ollama服务用于本地运行嵌入模型和重排序模型。可以拉取nomic-embed-text和bge-reranker等模型的镜像。LanceDB由于LanceDB是文件库形式通常不需要单独容器但可以将数据卷挂载到容器中以便在应用容器内访问。你的应用服务包含上述所有脚本逻辑的Python应用。这样你只需要docker-compose up -d就能启动所有依赖避免了在本地机器上安装各种AI框架和CUDA驱动的麻烦。配置文件如模型路径、数据库路径、API密钥应通过环境变量或.env文件管理绝对不要硬编码在脚本里。5.2 性能调优与成本控制记忆系统运行起来后随着数据量增长性能和成本会成为关注点。Token节省策略渐进式加载在AI助手对话时不要一次性把所有相关记忆的完整文本都塞进上下文。而是先加载记忆的摘要或标题当助手确定需要某条记忆的细节时再通过一个函数调用去检索完整内容。这正是MemGPT等系统采用的思路。摘要生成在记忆存入长期库时就使用AI为其生成一个简洁的摘要。检索时优先返回摘要上下文窗口只包含摘要仅在需要时引用完整内容。相关性过滤在检索阶段就设置较高的相似度阈值只返回最相关的几条记忆避免无关信息占用宝贵token。存储优化向量维度选择嵌入模型的向量维度如384、768、1536直接影响存储大小和检索速度。维度越高表征能力越强但成本也越高。对于大多数文本记忆text-embedding-3-small的1536维或nomic-embed-text的768维已经非常足够。可以通过在小样本集上测试权衡精度与成本。定期清理与归档除了脚本层面的monthly-cleanup在LanceDB层面也可以定期执行“真空”操作清理被标记为删除的数据并优化数据布局以提升查询速度。增量备份结合Git来管理memory/short-term/目录是一个好习惯。每次审查归档后可以将变更提交到Git仓库。对于LanceDB的数据文件可以使用rsync或rclone进行增量同步到云存储而不是每次都全量备份。5.3 常见问题与排查技巧在开发和运行这套系统时你肯定会遇到一些坑。以下是我遇到的一些典型问题及解决方法问题1向量检索结果不相关总是返回一些泛泛而谈的内容。可能原因嵌入模型不适合你的领域文本分块不合理导致块内语义不完整查询语句太短或太模糊。排查与解决检查分块打印出被检索到的文本块原文看它是否是一个完整的语义单元。尝试调整分块大小和重叠窗口。优化查询尝试将用户的自然语言查询改写成更接近记忆文档风格的陈述句。例如将“怎么装驱动”改为“在Ubuntu 22.04上安装NVIDIA显卡驱动的步骤”。尝试不同模型在Hugging Face上寻找在技术文档、代码或对话数据上训练过的嵌入模型进行测试。引入元数据过滤在检索时除了向量相似度强制要求记忆类型如type’Lesson’或时间范围匹配可以大幅提高精度。问题2每周审查脚本运行缓慢尤其是调用AI模型分析时。可能原因一次性处理整周的记忆调用API次数太多或本地模型推理太慢。优化方案批量处理将一周的记忆条目批量发送给AI API而不是逐条调用。大多数API都支持批量输入效率更高。本地模型轻量化使用量化后的较小模型如Qwen2.5-7B-Instruct的4位量化版进行初步分类和摘要虽然质量略有下降但速度极快。异步处理将审查任务提交到一个后台队列如Celery允许用户继续工作处理完成后通过通知告知结果。问题3LanceDB文件越来越大导致检索速度下降。可能原因数据没有索引优化磁盘IO成为瓶颈。解决方案创建向量索引LanceDB支持IVF_PQ等索引来加速近似最近邻搜索。当数据量超过10万条时务必创建索引。命令类似tbl.create_index(“vector_column”, index_type”IVF_PQ”, num_partitions256, num_sub_vectors16”)。使用SSD确保LanceDB数据文件存放在SSD硬盘上这对随机读取性能提升巨大。分区存储可以按记忆类型或年份月份对表进行分区查询时指定分区可以缩小扫描范围。问题4自动化脚本意外中断导致状态不一致。可能原因脚本中某一步出错如API调用失败、磁盘已满但流程已经部分执行。防御性编程实现原子操作对于移动文件、写入数据库等操作尽量先在一个临时位置完成最后通过重命名原子操作来提交。避免直接覆盖原文件。记录详细日志每个脚本都应输出结构化日志如JSON Lines格式记录每一步的开始、结束和状态。便于出错后追溯。设计幂等性脚本应该可以安全地重复运行。例如daily-collect.sh在运行时应先检查当天的收件箱是否已存在避免重复创建。monthly-cleanup.sh在清理前可以先检查目标文件是否已被移动过。6. 从开源项目到个性化系统OpenClaw Memory System提供了一个优秀的范式和起点但真正的力量在于你如何根据自己的工作流定制它。与现有工具集成不要把它变成一个信息孤岛。我的做法是使用Obsidian或Logseq作为日常笔记和inbox的输入前端利用它们的社区插件将每日笔记自动同步到OpenClaw的inbox目录。将记忆系统的检索功能封装成一个HTTP API服务。这样我可以在VS Code中通过快捷键随时查询相关的技术决策也可以在团队聊天工具如Slack中通过机器人来查询团队知识库。把weekly-review.sh与我的日历整合每周五下午自动弹窗提醒进行记忆审查形成习惯。扩展记忆类型基础的四种类型可能不够。我根据自己的需求增加了Snippet用于存储常用的代码片段检索时可以连带上下文和解释一起返回。Contact记录与特定人员交流的重要共识或背景信息。Reference存放经常需要查阅的文档、手册的精华摘要和链接。量化评估与迭代定期检查系统的效果。可以手动构造一批测试查询检查系统返回的记忆是否准确相关。记录下“误判”案例分析是分类问题、检索问题还是存储问题并针对性地调整模型、分块策略或检索参数。构建一个属于你自己的记忆系统就像在数字世界里培育一个不断成长的伙伴。它从笨拙开始随着你不断地喂养输入和训练调整会变得越来越懂你最终成为你工作和思考中不可或缺的延伸。OpenClaw提供了一个坚实的骨架而血肉和灵魂需要你根据自己的节奏和需求去填充。开始动手吧从创建一个简单的每日收件箱开始感受记忆被妥善安放的秩序与力量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2596626.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…