周红伟:Herems到底凭什么抢了OpenClaw的风头?

news2026/4/17 3:30:56
Hermes Agent 凭自进化技能和主动记忆系统超越OpenClaw引领开源Agent新方向。进入 2026 年 4 月才火了两个月的 OpenClaw 俗称“龙虾”就迎来了它的挑战者。Hermes Agent 连续数周占据 GitHub Trending 榜首狂揽 22,000 颗星。它火到什么程度呢连 Anthropic 都要抄它的。4 月 10 日Nous Research 的创始人 Teknium 跳出来吐槽说 Anthropic 正在「复制」Hermes 自动判断任务完成、主动提醒用户的功能。社区叙事也因此非常统一认为 Hermes 凭借自进化 Agent、自动记忆管理和用户建模系统在技术上全面超越了前任王者 OpenClaw重新定义了开源 Agent 的方向。不过如果抛开这些宏大叙事真正把两边拆开对比你会发现它们在功能上一模一样的地方远比差异多得多。比如定时调度两边都有。Hermes 支持人类可读的格式和标准的 cron 表达式每个任务都跑在隔离的会话session里。OpenClaw 也同样支持 at、every、cron 三种调度类型任务直接持久化写进本地的 JSON 文件重启也不会丢。再比如子 Agent 委派两边都有。Hermes 的 delegate_task 支持单任务和最多 3 个并行子任务子 Agent 环境完全隔离干完活只返回一个摘要。OpenClaw 的 sub-agent 机制也支持这种后台隔离执行和结果回传甚至还能配置嵌套深度。浏览器自动化、TTS语音合成、Vision 视觉能力、图像生成、语音交互两边也全都有。Gateway 方面Telegram、Discord、Slack、WhatsApp、Signal 等 20 多个平台的消息集成两边也毫无悬念地全都有。对着清单一项项打勾就会发现两者的功能几乎完全重合。所谓功能表上的「绝对碾压」根本不存在。那么问题来了既然功能都一样Hermes 凭什么火成这样社区里被吹上天的「自进化」「自动记忆」「用户建模」到底有多少是真正的底层结构差异01 会自己长大的 Skill翻遍两边的默认配置你能找到的唯一硬核差异就一个即Hermes 在 Skill技能上实现了自动进化的闭环。Skill 算是 Agent 的工作流知识单元说白了就是一个 Markdown 文件专门告诉 Agent 遇到某类任务该按什么步骤干、中间调什么工具、搞砸了怎么救场。Hermes 把技能的生命周期硬生生劈成了两截。一截是运行时的静默生成另一截是离线的硬核进化。先说生成。平时让 Agent 干活只要它在中间调用了 5 次以上工具或者出了错又自己把流程救回来了再或者你作为用户直接纠正了它的输出主仓库里一套写死的硬规则就会被触发。Agent 会默默把刚才那套跑通的工作流打个包存成本地的 SKILL 文件。这一步完全静默很多时候你根本不知道它又给自己写了个新技能。等下次再遇到类似任务它会自动去扫索引。这个加载过程分四层渐进就像去图书馆找资料。它先看目录卡片Tier 0只把名称和描述塞进系统提示词里大概占 3,000 个 token。方向对了再逐层去书架拿书把完整内容展开。但真正让 Hermes 拉开身位的是第二步的进化。Hermes 内置了一套离线批量进化算法还专门拉了一个独立仓库hermes-agent-self-evolution。引擎用的是 DSPy 框架加上一套叫 GEPA 的核心算法。GEPA 的全称是 Genetic-Pareto Prompt Evolution。这套体系并非 Hermes 自创出自 Lakshya Agrawal 等人的一篇 ICLR 2026 Oral 论文标题就叫《反思性提示词进化可以跑赢强化学习》。现在的学术圈搞技能进化大部分都在走 RL强化学习的路线。像 SkillRL 或者 SAGE 这些框架连名字都带着 RL指望用梯度更新来强化技能库。但 GEPA 走了一条完全对立的路刻意抛弃了强化学习。GEPA 论文本身就是在证明一件事哪怕没有梯度更新靠大模型的反思能力加上进化算法不仅能跑赢 RL样本利用效率还更高。它是怎么做的呢这套算法有三个硬核的底座。首先是反思性变异Reflective mutation。它不是瞎猜式的随机变异。大模型会去读之前的执行轨迹trace自己反思这次为什么做对了为什么做错了提示词到底该改哪几个字。其次是帕累托前沿选择Pareto frontier selection。生成了一批变异的候选技能后它不是一刀切只留全局均分最高的。只要某个候选在哪怕一个评估样本上表现最强它就会被保留下来。这么做是为了保证技能探索的多样性和鲁棒性。最后是自然语言反馈作为变异信号。传统 RL 靠数值 reward 引导参数更新但数值信号颗粒度太粗跑了一次得 0.6 分你根本不知道是哪里对哪里错。GEPA 的每次变异用的都是具体的自然语言反馈比如「这一步没检查边界条件」「应该先读配置再写缓存」。LLM 读得懂这种反馈并据此产生下一轮变体比解读一个浮点数有效得多。把它串成工作流就是这样。系统定期去读现有的 SKILL 文件去历史会话里抽样或者干脆自己合成搞出一个评估集。然后 GEPA 介入看执行轨迹反思提意见生成候选变体跑一轮评估最后用帕累托算法挑出赢家。这套离线的进化闭环跑完得出优化后的 Skill 后它不会直接覆盖原文件而是老老实实生成一个 PRPull Request必须要等你作为人类审核员点头合并这个进化的技能才会真正生效。系统永远不会进行直接提交。这直接戳破了社区里那套「用户完全无需介入」的爽文神话。Hermes 的态度其实很明确技能生成可以全自动且静默但技能进化必须过人眼。回过头看看 OpenClaw。它也不是没有 Skill 系统但要命的是每一步都得靠你主动。你需要手动建文件、手动安装、再手动授权三个条件凑齐了技能才会生效。搞了个新 Skill 还得重启它统一管理的 Gateway 网关进程系统才能认得出。而且它的加载极其简单粗暴根本不做任务匹配只要配了就全量塞进上下文里除非你手动加个禁用标签把它踢出去。两边都有 Skill。真正的区别就在于谁来按下启动键。Hermes 说「放着我来」OpenClaw 说「你自己搞」。02 谁在替谁记事如果说 Skill 解释了 Hermes 为什么「越用越快」那社区里传得神乎其神的另一半叙事「它懂我是谁」就得归功于记忆系统了。现在的三大主流开源 AgentClaude Code、OpenClaw、Hermes其实都有自动记忆。但只要稍微深挖就会发现它们服务的对象、触发机制和记忆保质期完全是两码事。先说 Claude Code。它的自动记忆auto-memory是默认开着的平时干活时会自动把构建命令、调试经验、架构笔记甚至代码风格都记下来而且每 24 小时就跑一次 Auto Dream 来整理把过期或者自相矛盾的东西清掉。听起来很智能但这套系统有着极其严格的项目隔离。它的边界卡死在 git root项目根目录上项目 A 里学到的血泪教训绝对带不到项目 B 里。它不记你的个人偏好不关心坐在屏幕对面的是谁脑子里只有「这个项目该怎么跑」。再说 OpenClaw它的记忆系统就更偏长程。每次启动对话它都会把包括 MEMORY.md 和 USER.md 在内的 8 个底层文件强制灌进自己的脑子里。这两个文件不仅跨项目共享而且会自动写入。那它是怎么写入的呢它的写入机制极其被动更像兜底。在每次对话的上下文token快要撑爆、系统准备做大压缩compaction之前Agent 会悄悄跑一个 silent turn隐藏轮次。它会在这个轮次里把当前聊过的重点随手记到当天的日记文件里同时把关于你的偏好写进长期挂载的 MEMORY.md 或 USER.md。所以你很久没用 OpenClaw隔几天一打开发现它「居然还记得你是谁」靠的就是这张被动结成的长期大网那些偏好早就被塞进了几个启动必读的文件里。这确实能让人产生「这 AI 可以养」的实感。但本质上更像是一种求生本能眼看脑子装不下了赶紧存一下档。至于那些老旧日记如果不用外挂的语义向量数据库支持它只能靠关键词生搜。在这个维度上 Hermes 是另一套逻辑。在 v0.7 版本之前Honcho 是 Hermes 里唯一写死的长期记忆后端没有别的选项。这个之前是默认选项的 Honcho 设计得很巧妙。绝大多数 Agent 的记忆系统包括 Hermes 的默认内置记忆本质上是一个被动的记录仪。你聊了什么它切碎了转成向量塞进数据库下次遇到相似的话题再通过计算距离Embedding 余弦相似度捞出来。Honcho 不走这条路。它是一个「AI 原生」的记忆后端主打的是异步的辩证推理Dialectic reasoning和深度实体建模。你跟 Agent 聊完天主会话结束了但 Honcho 的活才刚开始。它会在后台拉起额外的模型调用对刚聊完的历史进行分析提炼出你话里的概念Entity提取底层偏好甚至把你前后矛盾的话进行辩证和对齐。它把你随口说出的碎碎念计算成结构化的「洞察Insight」。听着非常先进但它也非常费 token容易把关键细节给洗掉。设成插件更安全。但就算没有 HonchoHermes 的记忆写入都比 OpenClaw 主动得多。Hermes 搞了个微调nudge机制根本不等脑子撑爆大概每聊 15 轮对话就会被硬性触发一次。这就是系统强制塞给 Agent 的一条反思指令赶紧回顾一下刚才聊的看看这人有什么习惯值得记一笔。这种高频的主动反思让 Hermes 在同等时间里写进持久文件的信息量大得惊人。不仅写入更积极Hermes 找回记忆的手法也更硬。它在默认架构里内置了 SQLite FTS5 的全文检索能力。不用再去费劲配什么词向量服务Agent 想翻旧账直接就能去庞大的过往聊天记录里扫街。把这三家摆在一起看那条进化线就清晰了。OpenClaw 是一套被动触发的长期记忆体系。Claude Code 做到了主动记录和整理但底线是对事不对人。而 Hermes 把触发时机做得极其主动记忆插件随意切全局共享还默认配齐了能翻遍所有历史的检索利器。日常用起来的体感差异也就是这么拉开的。OpenClaw 是在快崩溃前才想起来认识你一下。Hermes 则是每隔一会儿就在暗中揣摩你的心思并且能随时翻出你们俩说过的话。03 把复杂度藏起来无论是 Skill 的自生成还是记忆的高频主动写入背后指的其实都是同一件事即Hermes 只是替你把本该你做的决定都做了。但是系统复杂度这种东西是守恒的。你不用动手不代表决策凭空消失了它只是从你的手动操作转移到了底层硬编码的死规则里。在搭这套 harnessAgent 外壳的过程里Hermes 的设计者领悟了一个道理模型判断不可信那就做成死规则。这套 harness 远比 Anthropic 之类的要死。Agent 干活的时候并不是一个纯粹的大模型在裸跑思考大模型外面严严实实地包着一层代码框架这层框架里写满了条件判断。工具调用满 5 次了吗对话轮数凑够 15 轮了吗刚才是不是刚死里逃生重试了一次用户有没有明确开口指出错误这些问题系统根本不打算交给大模型去模糊判断而是用确定性的代码一条条死盯。条件一满足立刻执行写好的动作去生成初始技能或者硬塞反思指令再或者把某句话记进长期文件里。这些遍布各处的防御网就是被转移走的那部分复杂度。本来该由用户在使用过程中自我规范现在全写死在 Hermes 的代码里。而 Hermes 写这些规则依靠的就是设计判断。调用 5 次工具触发技能生成设成 3 次太容易误触发设成 8 次又可能漏掉有价值的工作流。每 15 轮反思一次而不是每轮都反思因为那会产生海量垃圾记忆且烧钱。你坐在屏幕前觉得什么都不用管真爽背后是 Hermes 的开发团队提前把所有判断逻辑替你写死了。自动化并没有消灭决策它只是把决策藏到了看不见的地方。为了保证这套硬规则在没有人类盯着的时候不翻车Hermes 在底层做了一系列防御性设计。首先看上下文管理。当对话撑到 85% 阈值时Hermes 根本不叫大模型来做智能摘要它的 ContextCompressor 就是一套纯粹的字符串替换逻辑把旧的工具输出直接换成一个占位符粗暴但绝对安全。而记忆层面它用的是冻结快照开机时把记忆一次性倒进系统提示词里中途不刷新等下次重启才生效。这牺牲了实时性但换来了前缀缓存稳定的命中率直接砍掉了大概 75% 的 token 输入成本。两个选择的精神一致session 内部不让 LLM 去做关于上下文和记忆的动态判断用最笨的规则保住确定性。再看它的安全审查。内置的 Smart 审批模式同样不让大模型当裁判去判断一条命令危不危险而是直接拿一套硬编码的黑名单去正则匹配终端操作。匹配中就必须人类点头确认。它甚至连搞生态扩展的插件系统都把开发者当成了潜在敌人。Event Hooks 系统里有 6 种钩子其中 5 种全都是触发即忘fire-and-forget的看客系统根本不管它们的返回值。想修改 Agent 的运行上下文只有一个唯一的注入点。官方死死卡住一条底线就算插件代码跑崩了也绝不拖垮 Agent 的主循环。这几个看似保守的选择底层逻辑高度一致。今年初 Chroma 团队做过多轮对话压测单轮变多轮后模型平均性能直接掉 39%最惨能掉 85%。同一时期的记忆综述论文也指出在超长上下文施压下死板的规则化跑分愣是碾压了让大模型全权统管的方案。说白了当大模型驾驭超长上下文的底子还虚的时候那些听起来越智能的统管方案越容易原地爆炸。反倒是越笨的死规则越靠得住。在平时跑任务的环境里不翻车才是最高优先级。这是一个诚实的工程判断。04 一条「干预递减」的光谱把这几家串起来看不管是自动写技能、主动存记忆还是故意退一步的技术栈选择最终落点都是同一个产品判断到底该让用户管多少事从 Claude Code 和 Codex到 OpenClaw再到 Hermes市面上的开源 Agent 其实铺成了一段清晰的光谱。一端是「所有决定都由人来做」的生产工具必须让开发者看 diff、批命令、盯每一步。在真实业务里精确控制永远是第一顺位这不是技术不到位是产品定位决定的。另一端是「全都交给 Agent 包办」的自动化工具。Hermes 直接站在了最远那头。它押注的是大部分用户既不想弄懂、也不屑于弄懂 Agent 怎么跑起来。你只管张嘴提需求技能匹配、记忆分类、上下文压缩全都在阴影里完成。它的野心不是让你觉得它好用而是让它在不知不觉中自己越变越好。05 扛不住硬活但方向对了尽管 Hermes 已经很克制用各种技术保守的规则系统剥夺了模型的自由判定权以使这个更自动化的系统能够稳定。就放了这么点非规则的权限模型就开始拉垮。重灾区就是那套引以为傲的技能系统。不止一个高阶玩家抱怨自己花好几个小时手动精调出来的技能被全自动的进化流程直接覆盖掉这完全是没法接受的灾难。自动记忆微调的机制同样经不起细看。nudge 的本质是让 Agent 自己判断这轮有没有值得记的但社区发现 Hermes 判断自己「是否完成了任务」时几乎总觉得自己成功了。所以反思出来的记忆非常薄弱。如果是拿去拟一份核心合同、过一遍底层代码、或者搭复杂的财务模型全自动模式本身就是一个巨大的隐患。这也是那些老牌专业工具不敢直接上全自动的原因专业人士是会为 Agent 的脑抽付出真金白银代价的。但在写写周报、翻翻天气、或者理一理本地文件这种容错率极高的日常重复任务里Hermes 现在确实能站得住。只要你给它二十几次迭代的机会那些慢慢攒起来的技能和记忆确实能让它跑得又稳又快。这实打实的体感足够它圈住第一波忠实用户了。更重要的是它踩在了一个基本确定的方向上。梳理这两个月的发展你会看到一条非常有意思的演进弧线。2026 年 2 月 25 日 Hermes 首发打出的旗号是「与你共同成长的 Agent」。它靠着主动记忆、自动进化和强行替用户做决定的激进路线一口气冲到了 57,200 颗星。但到了 4 月 3 日发布的 v0.7 韧性更新里它其实悄悄往回撤了半步。Hermes 引入了抽象接口把原本写死在系统里的唯一高级记忆后端 Honcho降级成了和新接入的 MEM0、ByteRover 等 6 个第三方服务平起平坐。反而把最原始的纯文件加全文检索顶成了默认兜底方案。一个自称替你决定一切的系统主动把复杂的方案剥离把记忆的选择权交还给了用户。这不是硬编码规则派走不下去毕竟微调触发、技能生成这些核心机制一个没动。这是先行者在撞上社区真实投诉后的一种战略让步觉得现在的规则系统还吃不透所有复杂场景有些选择不必强行替用户做。而另一边的 OpenClaw动作却是截然相反的补课式加强。过去短短几天里它连跑两步。4 月 5 日放出了类似 Claude Auto Dream 一样的 Dreaming 做离线记忆整理把已有的短期流水文档在离线时段提炼、评分、晋升为持久的 MEMORY.md 条目。4 月 10 日的更新里它又砸出 Active Memory直接在主回复前跑一个专门的记忆子 Agent。这套大模型做裁判的主动派打法粒度比 Hermes 固定 15 轮一次的微调还要细、还要聪明。这说明不管是 Anthropic 还是 OpenClaw大家全都在往「替你做决定」这条路上靠。Hermes 只不过是下注下得最早也最狠。它用两个月的时间死死卡住了全自动 Agent 的叙事高地和用户心智。当 OpenClaw 在后面拼命追赶、用更高级的子 Agent 补齐主动记忆机制的时候心智已立的 Hermes 反而有了谨慎和退让的余裕。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2525391.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…