腾讯版「龙虾」Workbuddy上线当天,我用它搭了一套行业情报日报系统

news2026/3/18 7:52:24
写在前面最近 AI 圈最火的词大概是「龙虾」。OpenClaw 掀起了一波桌面 AI Agent 的热潮——不再是聊天窗口里你一句我一句的问答而是让 AI 直接在你的电脑上干活操作文件、执行脚本、联网搜索、交付结果。3 月 9 日腾讯发布了 WorkBuddy被称为「腾讯版龙虾」。完全兼容 OpenClaw 的 Skills 技能体系但有一个关键差异不需要自己买服务器部署不需要自己购买 API token安装即用。如果你用企微1 分钟就能连上手机发条消息就能远程让它在办公电脑上干活。当晚我就下载试了。不是因为想写评测而是因为我手上正好有一个真实需求我需要一套系统每天自动帮我搜集全球数据平台行业的最新动态整理成一份结构化的情报简报推送到企微群。这个需求我已经用手动方式做了很久——每天花 30-40 分钟刷 Twitter、LinkedIn、各厂商博客和分析师报告再整理成笔记分享。WorkBuddy 上线当天我决定试试看用桌面 AI Agent 能不能把这件事自动化。结果是1 小时跑通了第一个可用版本1 天反复优化3 天后稳定运行。这篇文章完整记录整个搭建过程——怎么设计、怎么实现、踩了哪些坑、怎么解的。如果你也想用 AI Agent 搭一套自己行业的信息自动化系统这篇可以当一个实操参考。一、先看效果这份日报长什么样在讲怎么做之前先看产出物。每天早上 8 点一份《DataAI 全球日报》准时出现在我们的企微群里覆盖全球 10 大数据平台厂商、5 个板块、8-12 条高质量情报。推送方式推送分两步先发一条精简摘要Markdown 格式控制在 4096 字节内在企微内直接可读再发一份 HTML 完整版打开后是一份带精美排版、可点击来源链接的完整报告 为什么分两步企微 Webhook 单条消息限制 4096 字节注意是字节一个中文 3 字节但完整日报通常 8000 字符。这个限制在 Day 1 就把我教做人了后面会讲。内容结构每份日报严格按 5 个板块组织板块内容示例A. Top Signals当天最重大的 3 条行业动态 影响分析Gartner 峰会定调 AI FinOpsB. Product Tech4-6 条产品/技术更新只取一手信源Databricks Asset Bundles GAC. People Views关键人物的原始发言Snowflake CEO 谈 AI Agent 战略D. Analyst InsightsGartner/Forrester/IDC 研报核心数据44% 组织缺乏 AI FinOpsE. Watchlist值得持续跟踪但尚未定论的信号GTC 2026 推理加速每条信息都标注了一手信源链接。公开版除了企微群每期日报同时部署到 GitHub Pages https://haiyangchenbj.github.io/data-ai-daily/HTML 版本有蓝色渐变头部、卡片式板块布局和可点击的来源超链接阅读体验比企微内的 Markdown 好得多。二、为什么选 WorkBuddy搭这套系统需要 AI 工具同时具备三个能力。我来拆解一下选型逻辑也顺便说说 WorkBuddy 作为「腾讯版龙虾」和 OpenClaw 的异同。能力 1联网搜索 结构化输出日报的本质是信息搜集和整理。AI 必须能实时联网搜索而不是只靠训练数据回答问题。每次生成日报WorkBuddy 会执行 10 次搜索——中英文双语覆盖厂商官方博客、GitHub 仓库、分析师报告等信源——然后按我定义的模板结构化输出。能力 2本地文件操作整个系统涉及大量文件操作读取 JSON 配置文件、生成 MD 和 HTML 两种格式的日报、调用 Python 脚本推送。这要求 AI 能直接操作本地文件系统。WorkBuddy 作为桌面智能体可以读取授权文件夹、生成文件、执行脚本。能力 3多步骤任务链生成今日日报是一句话但实际包含 5 个步骤读取配置 → 联网搜索 → 生成内容 → 推送企微 → 部署 GitHub Pages。WorkBuddy 可以自主拆解和执行这个任务链。和 OpenClaw 的关系WorkBuddy 完全兼容 OpenClaw 的 Skills 技能体系。如果你之前给 OpenClaw 写过 Skill可以直接导入使用。不同的是部署门槛OpenClaw 需要自建服务器或购买 API tokenWorkBuddy 安装即用免费额度覆盖日常使用企业连接WorkBuddy 原生支持企微、飞书、钉钉1 分钟连上模型切换国内版支持混元、DeepSeek、Kimi 等模型无缝切换, 国外版基本上主流模型都在。对于我的场景来说安装即用 企微原生连接是决定性的。我不想为一个每天跑一次的日报系统维护一台服务器。三、核心设计一份 3000 字的「情报宪法」这套系统最核心的部分不是代码是一份 Prompt 配置文件。我把它叫做「情报宪法」daily-brief-config.json——它定义了 AI Agent 的所有行为准则。在做数据平台产品时我有一个强烈的认知系统的产出质量不取决于引擎多强大取决于规则定义得多清晰。同样的逻辑放到 AI Agent 上——模型是底座但产出取决于你给它的约束。下面展开说这份配置的几个关键设计。3.1 核心过滤原则core_filter: 每条信息必须能明确回答这会影响企业数据平台的 产品路线、架构设计、成本结构、治理方式、运维效率或 Agent 在 数据场景的落地吗如果不能明确回答是一律不纳入。这是整份配置里最重要的一条。没有它AI 会把每天铺天盖地的 AI 新闻全塞进来——大模型刷新 benchmark、创业公司融资——这些跟「数据平台」这个垂直领域无关。AI 不缺生成能力缺的是判断力。你的判断力需要通过 Prompt 注入 AI。3.2 排除规则光说数据平台优先不够必须明确告诉 AI 什么不碰exclusions: [ 纯 AI 新闻纯模型发布、纯 benchmark、纯消费级 AI 产品, 财经媒体的二手报道Bloomberg、36氪、虎嗅的转述和评论, 搬运号、标题党、无来源转述、无法验证的爆料 ]为什么排除财经媒体因为我只要一手信源。Databricks 发了什么我去看 Databricks 官方博客原文不看科技媒体的二手解读。这和做数据产品的逻辑一样——你宁可要一条干净的一手数据也不要十条加工过的二手数据。3.3 厂商优先级tier_1: [AWS, Google Cloud, Azure, Databricks, Snowflake, 阿里云, 腾讯云, 华为云, 火山引擎], tier_2: [Confluent, MongoDB, ClickHouse, dbt Labs, Fivetran], conditional: [NVIDIA, Intel, AMD]每次生成日报约执行 10 次联网搜索。不设优先级搜索资源会被分散到太多方向。分层之后确保头部厂商的重要动态不会被遗漏。3.4 信源标准accepted_sources: [ 官网、官方博客、Release Notes、GitHub 仓库, 论文原文、官方 Keynote, 创始人/CEO/CTO/核心开源 Maintainer 的原始发言, Gartner、Forrester、IDC 官方报告, PR Newswire/Business Wire 官方新闻稿 ], rejected_sources: [财经媒体、大众媒体的二手分析和转述]这套信源标准让同事说比付费信息服务都好用——因为很多付费服务也在搬运二手信息。3.5 时间窗口time_window: 严格只覆盖过去 24 小时内首次公开的信息。 原始发布日期早于窗口的即使刚被搜索引擎收录也不纳入。这条是踩坑后加的——Day 1 的日报混入了一周前的旧闻因为搜索引擎刚重新收录。加了这条规则后「新鲜度」大幅提升。四、技术实现完整搭建教程这一节是实操教程可以直接照着做。整个系统只需要2 个 Python 脚本 0 个第三方依赖。4.1 系统架构WorkBuddy │ ├── 读取 daily-brief-config.json情报宪法 │ ├── 执行 10 次联网搜索 │ ├── 厂商官方博客中英文双语 │ ├── GitHub 仓库 │ └── 分析师报告 │ ├── 生成文件 │ ├── DataAI全球日报_YYYY-MM-DD.md │ └── DataAI全球日报_YYYY-MM-DD.html │ └── 分发 ├── send_daily_v3.py → 企微群 └── deploy_to_github.py → GitHub Pages4.2 Step 1编写情报宪法创建daily-brief-config.json内容就是上一节讲的过滤规则、厂商分层、信源标准、输出模板。这是整个系统的灵魂花多少时间打磨都不过分。4.3 Step 2企微推送脚本send_daily_v3.py222 行全部用 Python 标准库urllib、json、re不需要pip install任何东西。核心逻辑 1——智能摘要提取def extract_summary_from_md(md_path): 保留日报骨架去掉详细内容控制在 4096 字节内 lines content.split(\n) summary_lines [] for line in lines: stripped line.strip() # 保留标题行 if stripped.startswith(# ): summary_lines.append(stripped) # 保留今日变化和总判断 if stripped.startswith(## 今日) or stripped.startswith( 总判断): summary_lines.append(stripped) # 保留板块标题 ## A. ~ ## E. if re.match(r^## [A-E]\., stripped): summary_lines.append(stripped) # 保留事件标题### 1. xxx if re.match(r^###\s\d\., stripped): summary_lines.append(stripped) # 硬性限制 summary \n.join(summary_lines) if len(summary.encode(utf-8)) 3900: summary summary[:3850] \n... (完整版见 HTML 文档) return summary这段代码的设计思路保留日报的「骨架」标题、板块名、事件标题去掉「肉」来源链接、详细分析确保精简版在企微字节限制内。核心逻辑 2——文件上传纯标准库实现def upload_file_to_wecom(filepath): 不用 requests用 urllib 手工构建 multipart/form-data boundary ----PythonBoundary7MA4YWxk filename os.path.basename(filepath) with open(filepath, rb) as f: file_data f.read() body ( f--{boundary}\r\n fContent-Disposition: form-data; namemedia; ffilename{filename}\r\n fContent-Type: application/octet-stream\r\n\r\n ).encode(utf-8) file_data f\r\n--{boundary}--\r\n.encode(utf-8) req urllib.request.Request(upload_url, databody) req.add_header(Content-Type, fmultipart/form-data; boundary{boundary}) resp urllib.request.urlopen(req) return json.loads(resp.read())[media_id]为什么不用requests因为这个脚本每天只跑一次生命周期可能很长。零依赖意味着在任何有 Python 的环境里都能直接跑——不用装包不用配环境不用担心版本冲突。对于「每天跑一次 长期运行」的脚本零依赖就是零维护。核心逻辑 3——两步推送# Step 1: 推送精简摘要 summary extract_summary_from_md(md_path) send_markdown_to_wecom(summary) # Step 2: 推送完整版 HTML 文件 media_id upload_file_to_wecom(html_path) send_file_to_wecom(media_id)4.4 Step 3GitHub Pages 部署脚本deploy_to_github.py198 行通过 GitHub API 将 HTML 日报部署到 GitHub Pages# 1. 读取 HTML 并 Base64 编码 encoded base64.b64encode(html_content.encode(utf-8)).decode(ascii) # 2. 上传到 index.html最新版覆盖写入 api_request(PUT, file_url, { message: fDeploy: DataAI daily {date_str}, content: encoded, sha: existing_sha, # 幂等更新先获取旧文件 SHA }) # 3. 同时归档到 archive/{date}.html历史版本 api_request(PUT, archive_url, { message: fArchive: {date_str}, content: encoded, }) # 4. 启用 GitHub Pages api_request(POST, pages_url, { source: {branch: main, path: /} })几个工程细节安全GitHub Token 从环境变量GITHUB_TOKEN读取不硬编码在脚本里幂等上传前先 GET 获取文件 SHA有则更新、无则创建重复执行不报错双重存储index.html始终是最新版archive/目录保留全部历史4.5 Step 4写一条 SOP 规则最后一步把完整流程写成一条 WorkBuddy 的 SOP 规则文件。以后只需要说一句生成今日报告AI 就会按标准流程执行全部 5 步。五、迭代实录1 小时 → 1 天 → 3 天这套系统不是规划出来的是跑出来的。第 1 小时跑通最小可用版WorkBuddy 上线当晚我把之前手动整理日报时积累的过滤规则写成了一份 JSON 配置文件也就是「情报宪法」的初版然后让 WorkBuddy 联网搜索并生成了第一份日报。Markdown 格式的日报生成出来后直接扔到企微——报错了。超过 4096 字节限制。临时方案手动截取前 3000 字符发送。虽然粗暴但至少跑通了「配置 → 搜索 → 生成 → 推送」的完整链路。这一步的意义不是产出有多好而是验证了「用桌面 AI Agent 搭日报系统」这条路走得通。Day 1解决三个阻塞性问题问题 1PowerShell 中文乱码最开始用 PowerShell 调企微 Webhook群里收到的全是乱码。原因PowerShell 默认编码不是 UTF-8。折腾半小时后切换 Python一行# -*- coding: utf-8 -*-解决。问题 2消息长度限制这个问题倒逼出了后来被证明体验更好的方案——「摘要 完整版」双推策略。先发精简摘要企微内直接可读再传 HTML 完整版精美排版 超链接。实际使用中发现大多数人只看摘要就够了想深入了解的再打开 HTML。问题 3过旧信息混入第一版日报混进了一周前的 Databricks 旧闻——搜索引擎会重新收录旧页面。在 Prompt 里加了严格的 24 小时时间窗口后解决。Day 2从「能用」到「有用」新增 D 板块分析师洞察把 Gartner、Forrester 的数据单独成板块日报从搬运新闻升级成情报分析写了自动摘要提取函数替代 Day 1 的手动截取保证摘要保留所有事件标题GitHub Pages 上线写了deploy_to_github.py一行命令部署到公开网站方便分享给外部同行Day 3从「有用」到「稳定可复用」修复摘要提取 Bug函数不识别### 数字.格式的三级标题导致摘要丢失事件标题。排查后补了一条正则流程标准化把五步操作写成 SOP 规则文件以后一句生成今日报告触发全流程质量稳定连续推送 3 天同事反馈信息覆盖度和信源质量稳定没有再出现过旧信息混入的问题六、几点设计思考做完这套系统技术层面其实没什么难的——代码总共不到 600 行。但过程中有几个认知层面的收获觉得值得分享。1. 定义问题 解决问题整个系统里我花最多时间的不是写代码是打磨那份 3000 字的 Prompt 配置。什么值得关注什么要排除信源标准怎么定时间窗口怎么设这些「定义问题」的工作才是核心。如果你做过数据产品对这一点会有共鸣平台的价值不在引擎多快在规则定义得多好。2. AI 擅长执行判断力需要你来注入AI 可以在 3 分钟内搜索 10 个信源、生成 8000 字结构化报告。但如果你不设过滤规则它会把搜到的东西全塞进来。排除规则写得越细产出质量越高。这不是 AI 的缺陷这是协作方式。你提供判断力AI 提供执行力。3. 桌面 Agent 的真正价值缩短从「想法」到「跑通」的路径过去做类似的自动化项目光是搭建环境、调试 API、处理依赖就要花半天。WorkBuddy 这类桌面 Agent 工具把这个过程压缩到了小时级——我从动手到跑通第一个版本只花了 1 小时。不是因为技术变简单了而是因为大量中间步骤被 Agent 代劳了。你只需要描述意图、定义规则、审核产出。在我之前的文章里讨论过 AI Agent 如何重塑企业数据平台。那篇是从行业视角看趋势。这次是亲自下场用一个具体项目验证了一个判断Agent 改变的不是能力边界而是人与系统的协作方式。七、复用指南搭你自己行业的日报这套方案的技术门槛不高核心逻辑可以迁移到任何垂直领域。你需要一个支持联网搜索 本地文件操作的 AI Agent我用的 WorkBuddyOpenClaw 或其他类似工具也行一份 Prompt 配置文件你的行业版「情报宪法」两个 Python 脚本推送 部署总共不到 400 行全部在本文中给出了核心代码把数据平台替换成你关心的领域——AI 基础设施、半导体、新能源、生物医药——方法论是一样的明确覆盖范围你关心哪些厂商/信源 ↓ 定义排除规则什么不要 ↓ 规定信源标准只要一手 ↓ 设定输出模板结构化、可行动 ↓ 自动化分发推送到你的消费场景可以先从最简单的开始——写一份你所在行业的「情报宪法」让 AI 每天帮你搜索和整理发到你的群里或笔记里。有了初版再迭代比从零规划要快得多。八、下一步目前系统还是半自动——每天需要手动说一句生成今日报告来触发。接下来计划接入 Windows 任务计划程序实现全自动定时触发3月12日更新后在Automation已实现增加日报质量评分信息覆盖率、信源多样性、时效性开发周报自动汇总——把 5 天日报聚合成一份周度趋势分析探索语音版日报通勤路上听如果你有类似的想法或已经在做了欢迎交流。写在最后回看整个过程真正花时间的不是写代码——代码不到 600 行。而是想清楚「什么值得关注、什么不值得关注」——这个判断力是 AI 替代不了的也是行业认知的一部分。桌面 AI Agent 正在成为一种新的生产力工具。OpenClaw 开了头WorkBuddy 降低了门槛。但工具本身不是壁垒你对自己所在领域的理解才是。 日报公开地址https://haiyangchenbj.github.io/data-ai-daily/欢迎围观也欢迎提建议。WorkBuddy 由腾讯于 2026 年 3 月 9 日正式发布目前可在官网免费下载使用。新用户注册送 5000 Credits无门槛https://www.codebuddy.cn/profile/usage也可直接到GitHub下载使用https://github.com/haiyangchenbj/data-ai-daily-brief-skill本文仅为基于个人使用经验的记录分享。✍️ 科里笔记 Coralyx NotesWritten by 科里Coralyx发表于「边界层」

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2422223.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…