Tome:基于MCP协议的无代码AI桌面助手,轻松连接本地与云端模型

news2026/5/16 1:46:02
1. 项目概述Tome一个为普通人打造的魔法AI桌面应用如果你对大型语言模型LLM和AI助手感兴趣但又觉得那些命令行工具、复杂的API配置和JSON文件让人望而却步那么Tome的出现可能就是为你准备的。简单来说Tome是一个桌面应用程序它把调用本地或云端AI模型、连接各种外部工具通过MCP协议这件事变得像使用一个普通的聊天软件一样简单。它的目标很明确让任何人无论是不是开发者都能轻松驾驭AI的能力打造属于自己的“魔法书”。我最初接触Tome是因为厌倦了在多个终端窗口、环境变量和配置文件之间来回切换只为了让我本地的Ollama模型能读取一个网页内容或者查询一下天气。Tome提供了一个一体化的图形界面将模型连接、工具管理、定时任务和聊天交互全部整合在一起。它的核心理念是“本地优先”和“人人可用”这意味着你的数据可以完全留在自己的电脑上同时你无需处理任何代码或复杂的配置。在接下来的内容里我将结合自己深度使用和测试的经验为你拆解Tome的每一个核心功能、背后的原理、具体的实操步骤以及那些官方文档里不会写的“踩坑”心得。2. 核心架构与设计理念拆解要理解Tome为何好用我们需要先理解它解决的几个核心痛点以及它依赖的关键技术栈。2.1 痛点解析为什么我们需要Tome这样的工具在Tome出现之前想要一个功能丰富的本地AI助手通常的路径是这样的首先你需要一个模型运行环境比如Ollama或LM Studio然后如果你想让它拥有联网搜索、读取文件等“超能力”就需要寻找或自己编写相应的插件或工具接着你需要通过某种方式通常是代码或复杂的配置将这些工具“告诉”给AI模型最后你还需要一个前端界面来进行交互。这个过程涉及至少三到四个不同的软件和技术栈对非开发者极不友好。Tome将上述所有环节打包进一个应用。它将模型客户端、MCP客户端和用户界面三者合一。你只需要在图形界面中点选、输入就能完成从模型部署到工具扩展的全过程。这种“No-Code”低代码/无代码的设计理念极大地降低了AI应用的门槛。2.2 技术基石深入理解MCP模型上下文协议Tome所有“魔法”的源泉很大程度上来自于对MCPModel Context Protocol的深度集成。你可以把MCP理解为AI模型的“手”和“眼睛”。传统的LLM只是一个聪明的大脑但它被困在聊天框里无法主动获取外部信息或执行操作。MCP则定义了一套标准协议让LLM能够安全、结构化地调用外部工具。这些工具可以是信息获取工具如网络搜索Fetch、数据库查询、股票行情。系统操作工具如读写本地文件系统、执行命令行指令。第三方API工具如连接Jira、Notion、Scryfall一个万智牌数据库等。Tome内置了一个完整的MCP客户端。这意味着当你为Tome安装了一个MCP服务器比如uvx mcp-server-fetch后你连接的AI模型无论是本地的Qwen2还是云端的Gemini就能在对话中直接使用这个工具。例如你可以直接对AI说“帮我查一下今天Hacker News的头条新闻。” AI会通过MCP协议调用Fetch工具获取网页内容然后基于内容给你总结。这一切在Tome的聊天界面中无缝完成用户感知到的只是一个更“全能”的AI。注意MCP是一个新兴的开放协议由Anthropic等公司推动。它的优势在于标准化使得工具开发者可以编写一次就能被所有兼容MCP的客户端如Tome、Claude Desktop、Cline IDE使用。Tome选择深度集成MCP而非自建一套封闭的插件体系这是一个非常开放且明智的选择保证了其工具生态的丰富性和可持续性。2.3 本地优先与隐私设计Tome强调“本地优先”这不仅仅是营销口号而是贯穿其架构的设计原则。这体现在两个方面模型本地化你可以完全使用本地运行的模型如通过Ollama部署的Qwen2、Llama 3和本地运行的MCP服务器如读取本地文件的服务器。所有计算和数据流都发生在你的设备内部没有任何信息会上传到云端。配置本地化你的所有设置、对话历史除非你使用了云端模型、安装的MCP服务器列表都存储在本地。应用本身也是一个桌面端应用而非网页服务。这种设计对于处理敏感信息、追求极致隐私的用户或者单纯想离线使用的场景来说是至关重要的。它给了用户完全的控制权。3. 从零开始详细安装与初始配置指南让我们抛开理论直接上手。我会以Windows平台为例MacOS步骤类似。3.1 环境准备与基础依赖Tome本身是一个打包好的桌面应用不需要你安装Python、Node.js等环境。但是它的功能依赖于后端服务。操作系统目前支持Windows和macOS。Linux版本已在规划中可以关注GitHub仓库的更新。模型运行时二选一或都备Ollama推荐给初学者这是运行本地模型最简单的方式。前往 ollama.com 下载安装。安装后在命令行执行ollama run qwen2:7b即可拉取并运行一个基础模型。Ollama会在本地启动一个API服务默认端口11434Tome通过这个API与模型通信。LM Studio / Cortex这些是功能更丰富的本地模型GUI管理工具。它们也会在本地暴露一个类似OpenAI的API端点。MCP服务器运行时Tome支持多种方式安装MCP服务器最常见的是通过uvx一个Python脚本运行器。当你首次尝试安装一个uvx开头的MCP服务器时Tome可能会提示你安装UV。按照提示操作即可这个过程通常是自动的。3.2 安装Tome应用本体访问Tome的GitHub Releases页面https://github.com/runebookai/tome/releases。找到最新的版本例如0.9.1。根据你的系统下载对应的安装包Windows:Tome_0.9.1_x64-setup.exemacOS:Tome_0.9.1_aarch64.dmg运行安装程序按照提示完成安装。这个过程和安装任何其他桌面软件没有区别。3.3 首次启动与模型连接安装完成后启动Tome。你会看到一个简洁的界面侧边栏有“聊天”、“MCP”、“任务”等选项。添加模型提供商点击界面左下角的设置齿轮图标或直接在聊天界面根据引导进入“模型”设置。连接Ollama本地模型示例在模型提供商列表中应该能看到预置的“Ollama”选项。点击它。确保你的Ollama正在后台运行你可以打开命令行输入ollama list确认。Tome会自动检测本地的Ollama服务http://localhost:11434。你只需要为这个连接起个名字比如“我的本地Qwen”。在下方模型选择下拉框中你会看到Ollama里已经下载的所有模型。选择你想用的比如qwen2:7b。点击“保存”。现在你就可以在聊天界面的顶部选择这个模型进行对话了。连接Gemini云端模型示例点击“添加提供商”选择“Google Gemini”。你需要一个Gemini API密钥。前往 Google AI Studio 获取通常有免费额度。在Tome的配置页面粘贴API密钥并为其命名如“谷歌Gemini”。选择模型版本如gemini-1.5-flash性价比高gemini-1.5-pro能力更强。保存后即可在聊天中切换使用。实操心得建议同时配置一个本地模型如Qwen2 7B和一个云端模型如Gemini。本地模型响应快、无成本适合日常对话和简单任务云端模型能力更强适合处理复杂的逻辑推理或需要最新知识的任务。Tome可以让你在聊天中无缝切换非常灵活。4. 施展“魔法”的核心MCP服务器的配置与使用连接模型只是让Tome有了“大脑”安装MCP服务器则是为它装配“工具”。4.1 通过Smithery Registry一键安装最简方式Tome集成了 Smithery.ai 注册中心这是一个MCP服务器的“应用商店”。在Tome侧边栏点击“MCP”标签页。你会看到“可用的服务器”列表这里就是从Smithery获取的精选服务器。找到你感兴趣的服务器例如“Fetch”网页内容抓取工具点击旁边的“安装”按钮。Tome会自动处理所有依赖和配置。安装完成后该服务器的开关会变为开启状态。现在回到聊天界面对你连接的AI模型说“使用Fetch工具获取Hacker News的首页标题。” 模型就会调用该工具并返回结果。4.2 手动安装MCP服务器高级玩法并非所有服务器都在Smithery上。有时你需要从GitHub或其他地方找到服务器地址手动安装。在“MCP”标签页点击右上角的“添加服务器”。你需要填写“服务器命令”。这是最关键的一步格式取决于服务器的类型uvx 类型这是最常见的形式。例如安装Fetch服务器就输入uvx mcp-server-fetch。Tome会在后台自动处理uvx环境的安装。npm 类型如果服务器是一个npm包例如npx modelcontextprotocol/server-filesystem直接输入这行命令即可。本地脚本类型如果你自己写了一个MCP服务器脚本Python或Node.js你需要输入启动这个脚本的命令例如python /path/to/your/server.py。为这个服务器起一个名字然后保存。注意事项手动安装时务必确保你的系统环境变量如Python、Node.js、UV的路径已被正确配置以便Tome能在其进程环境中找到这些命令。如果安装失败首先检查命令在系统的终端CMD或PowerShell中是否能直接运行。4.3 必备MCP服务器推荐与场景根据我的使用经验以下几类MCP服务器能极大提升Tome的实用性服务器名称安装命令/来源核心功能使用场景Fetchuvx mcp-server-fetch或 Smithery抓取网页内容让AI总结文章、查看最新资讯、获取网页数据。Filesystemnpx modelcontextprotocol/server-filesystem读写本地文件需配置路径让AI分析你的日志文件、总结文档内容、整理文件夹。注意务必将其权限限制在特定子目录切勿开放整个根目录以防误操作。Timeuvx mcp-server-time或 Smithery获取当前时间、日期用于需要时间上下文的对话或任务调度。ScryfallSmithery 直接安装查询万智牌卡牌数据库卡牌游戏玩家必备查询卡牌效果、价格、组合。Brave SearchSmithery 直接安装使用Brave搜索引擎进行网络搜索获取比Fetch更实时、更全面的网络信息。需要申请免费API Key。安装多个服务器后你可以在“MCP”标签页管理它们随时开启或关闭。AI模型在对话时会自动知晓所有已开启的工具并在合适的时机调用它们。5. 超越聊天定时任务与实验室功能Tome不仅仅是一个聊天界面它正在向一个自动化AI工作流平台演进。5.1 设置定时任务Scheduled Tasks这是将AI从被动应答变为主动助手的核心功能。你可以让AI在特定时间自动执行任务。点击侧边栏的“任务”标签页。点击“创建新任务”。配置任务名称例如“每日新闻简报”。调度选择“每天”或“每小时”并设置具体时间如每天上午9点。模型选择执行此任务使用的模型提供商。提示词这是任务的核心。你需要编写一个清晰的提示词告诉AI要做什么。例如“使用Fetch工具获取BBC新闻科技版块的头条并用中文总结成三段每段不超过100字。”MCP服务器勾选此任务需要用到的服务器如Fetch。保存任务。Tome会在后台运行到点自动执行并将结果记录在任务历史中。你可以随时查看历史记录。实操心得定时任务的提示词编写是关键。它需要足够具体、可执行并且考虑到AI可能遇到的异常如网站无法访问。建议先在聊天窗口中手动测试几次你的提示词确保AI能稳定输出你想要的结果再将其设置为定时任务。5.2 实验室功能Telegram Relay远程控制你的AI这是一个非常酷的“实验室”功能需要在设置中手动开启。进入设置找到“实验室”或“实验性功能”选项开启“Telegram Relay”。Tome会生成一个唯一的Bot Token和一个Chat ID。在Telegram中搜索BotFather创建一个新的机器人并获取其API Token。将Telegram Bot的Token填入Tome的配置中。将你的Telegram Chat ID配置到Tome中如何获取Chat IDTome界面会有指引。配置完成后你就可以在Telegram里直接和你创建的Bot聊天了。你发给Bot的消息会被转发到你Tome里设置的默认模型进行处理并且模型可以调用你已开启的MCP工具回复也会传回Telegram。这个功能的意义在于你可以在手机上随时随地通过Telegram使用你电脑上那个配备了强大本地工具链的AI助手。比如在回家路上发消息“让AI用Filesystem工具看看我桌面上的‘购物清单.txt’然后通过Fetch工具查查里面某样商品的最新评测。”6. 高级配置与性能调优要让Tome运行得更顺畅、更符合你的需求可以关注以下几个配置点。6.1 模型参数调优在模型配置页面除了选择模型你还可以调整两个关键参数上下文窗口这决定了AI能记住多长的对话历史。本地小模型如7B参数的上下文通常较短4K-8K调得过高可能导致响应变慢或内存溢出。云端大模型如Gemini 1.5 Pro支持超长上下文百万级别可以根据需要调高用于处理长文档。温度控制AI输出的随机性。值越低如0.1输出越确定、保守值越高如0.8输出越有创造性、多样化。对于需要事实准确性的任务如总结、数据分析建议使用较低温度0.1-0.3对于创意写作、头脑风暴可以调高到0.7以上。6.2 多模型提供商与回退策略你可以添加多个同类型的提供商。例如添加两个不同的Ollama端点一个运行快速的小模型qwen2:7b一个运行能力强的大模型llama3.1:70b。在聊天时可以手动切换。目前Tome尚未提供自动的“回退”策略即当一个模型失败时自动尝试另一个但手动管理多个模型已经能应对大部分场景。6.3 资源管理与问题排查内存占用运行本地大模型如70B参数会消耗大量内存。确保你的电脑有足够的物理内存RAM。在任务管理器中监控Tome和Ollama/LM Studio进程的内存使用情况。网络问题如果你使用云端模型Gemini/OpenAI确保网络通畅。Tome本身没有内置代理设置如果你的网络环境需要可能需要配置系统级的代理。日志查看当遇到MCP服务器安装失败或模型连接问题时首先检查Tome的设置界面是否有错误提示。更详细的日志通常需要查看应用运行的标准输出对于桌面应用这可能需要通过命令行启动Tome来查看或者在其配置目录中查找日志文件。7. 常见问题与故障排除实录在实际使用中你可能会遇到以下问题。这里记录了我的排查和解决方法。7.1 MCP服务器安装失败问题现象在Tome中添加MCP服务器时长时间卡在“安装中”最后提示失败。排查思路检查命令有效性首先将你填写的“服务器命令”如uvx mcp-server-fetch复制到系统的命令行终端Windows的CMD或PowerShellmacOS的Terminal中直接运行。如果这里就报错例如提示“uvx不是内部或外部命令”说明你的系统环境没有安装所需的运行时。安装运行时对于uvx通常Tome会尝试自动安装。如果失败可以手动安装在终端运行pip install uvx或者按照uvx官方文档安装。对于npx它是Node.js自带的请确保已安装Node.js。网络问题安装uvx包或npm包可能需要从网络下载。检查网络连接特别是如果你使用了网络代理确保命令行终端也能使用相同的代理设置。7.2 模型连接成功但无响应问题现象模型显示已连接但发送消息后长时间无回复或提示超时。排查思路检查模型服务状态对于Ollama打开终端运行ollama list确认模型是否在运行或运行ollama run 模型名测试模型本身是否正常。检查API端点对于手动添加的OpenAI兼容端点如LM Studio确认URL和端口是否正确。LM Studio默认的API地址通常是http://localhost:1234/v1。查看模型负载本地模型可能因为硬件资源不足CPU/内存占满而响应极其缓慢。打开任务管理器观察资源使用率。提示词过长如果你一次性发送了很长的上下文比如粘贴了一整篇文章而模型的上下文处理能力有限可能导致卡死。尝试缩短输入。7.3 工具调用不生效问题现象已经安装了Fetch服务器并开启但让AI“搜索xxx”或“获取xxx网页”时AI回答它做不到或没有相关工具。排查思路确认工具已启用在“MCP”标签页确认对应服务器的开关是绿色的“开启”状态。检查模型能力并非所有模型都擅长使用工具。确保你使用的模型是较新的、经过工具调用微调的版本。例如Ollama中的qwen2:7b-instruct比qwen2:7b通常有更好的指令遵循和工具使用能力。Gemini、GPT-4等云端模型在此方面表现优异。使用明确的指令AI需要明确的指令来触发工具。尝试更直接的提示如“请使用Fetch工具访问news.ycombinator.com并获取首页排名第一的故事标题和链接。” 而不是模糊的“看看Hacker News上有什么新闻”。查看聊天界面在Tome的聊天界面中当AI调用工具时会有特殊的消息气泡显示“调用工具XXX…”。如果根本没出现这个气泡说明AI没有理解要调用工具如果出现了但失败了会显示错误信息根据错误信息进一步排查。7.4 定时任务未执行问题现象设置了定时任务但到了时间没有运行也没有历史记录。排查思路确保Tome在运行定时任务需要Tome应用程序在后台运行。检查它是否被关闭或最小化到系统托盘。检查系统权限特别是macOS可能需要授予Tome“自动化”或后台运行权限。检查系统设置中的隐私与安全性。检查任务配置确认调度时间设置正确是AM还是PM确认提示词和模型配置无误。可以手动点击任务旁边的“立即运行”按钮测试任务本身是否正常。查看系统时区确保你的系统时区设置正确。经过一段时间的深度使用Tome给我的感觉更像是一个“AI能力聚合器”和“平民化桥梁”。它没有去发明新的模型或协议而是将现有的、强大的但分散的技术本地LLM、MCP用极其友好的方式整合起来送到了普通用户面前。它的价值不在于技术的颠覆性而在于体验的革新性。对于想要探索AI自动化、又不想深陷技术细节的爱好者来说Tome是目前我能找到的最优雅的解决方案之一。当然作为技术预览版它偶尔会有一些小毛病比如界面卡顿、某些边缘配置不够直观但开发团队在Discord上的响应非常积极社区的反馈也在快速推动产品迭代。如果你对构建个人AI助手感兴趣我强烈建议你现在就下载Tome从连接一个Ollama模型和安装Fetch服务器开始亲自体验一下这种“施展魔法”的感觉。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2608965.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…