基于WeChatPadPro协议构建智能微信机器人:从架构解析到插件开发实战

news2026/5/8 14:41:49
1. 项目概述与核心价值最近在折腾一个挺有意思的项目叫 WeChatPadPro-on-Wechat。简单来说它是一个基于 WeChatPadPro 协议的智能微信机器人框架。如果你跟我一样既想给自己的微信加个“AI大脑”又对市面上一些需要自己抓包、逆向、维护协议的方案感到头疼那这个项目可能就是你一直在找的“甜点”方案。它的核心价值在于把复杂的微信协议对接和AI能力集成这两件麻烦事通过一个清晰、模块化的架构给解耦了。你只需要专注配置和扩展AI功能底层的微信消息收发、登录、同步这些脏活累活交给 WeChatPadPro 这个专门的服务去处理。这个框架脱胎于非常成熟的chatgpt-on-wechat项目后者在GitHub上有上万的Star社区生态和代码质量都经过了考验。而 WeChatPadPro-on-Wechat 在其基础上将通信通道从原先的itchat-uos等方案替换为了更稳定、功能更全的 WeChatPadPro 协议。这意味着你可以获得近乎原版微信客户端的体验包括完整的群聊管理、所有消息类型图片、语音、视频、文件、链接卡片的支持以及更可靠的登录状态维持。对于想搭建一个长期、稳定运行的微信AI助手无论是用于个人效率提升、群聊管理还是轻度自动化任务这都提供了一个非常扎实的起点。2. 核心架构与设计思路拆解要理解这个项目怎么用首先得弄明白它的“三明治”架构。这不是一个 monolithic单体的应用而是清晰地分成了三层各司其职这让它的扩展性和可维护性大大提升。2.1 通信层WeChatPadPro 协议通道这是整个项目的基石也是它区别于其他微信机器人方案的关键。WeChatPadPro 本身是一个独立的、实现微信PC端协议的服务。你可以把它想象成一个“无头”的微信客户端它运行在后台通过HTTP和WebSocket接口暴露所有微信的功能比如登录、收发消息、管理好友和群聊。为什么选择 WeChatPadPro协议稳定性相比于一些基于Web协议或逆向移动端协议的项目PC端协议通常更稳定被封号的风险相对可控当然任何非官方接口都有风险需谨慎使用。WeChatPadPro 作为专门维护此协议的项目更新也比较及时。功能完整性支持的消息类型非常全从文本到各种多媒体再到系统通知和转账红包通常只接收不操作几乎覆盖了日常所有场景。这对于构建一个功能丰富的机器人至关重要。部署分离WeChatPadPro 服务可以独立部署在一台机器上甚至是一台常年开机的旧电脑或树莓派而 AI 机器人逻辑即本项目可以部署在另一台性能更强的服务器上。两者通过网络连接架构非常清晰。在本项目中channel/wxpad/目录下的代码就是专门与 WeChatPadPro 服务通信的适配器。它负责将 WeChatPadPro 的API调用封装成框架内部统一的Channel接口从而让上层的业务逻辑完全不用关心底下用的是哪个微信协议。2.2 逻辑层消息路由与插件系统这是框架的“大脑”。它接收来自通信层的原始微信消息然后决定如何处理。核心流程是这样的消息预处理判断消息来源私聊还是群聊、是否包含触发关键词如机器人或配置的前缀。上下文构建将原始消息转换成框架内部的Context对象里面包含了发送者、接收者、消息内容、类型等所有信息。插件流水线这是最精彩的部分。框架采用了一个事件驱动的插件系统。预处理后的Context会作为一个事件在插件流水线中传递。每个插件都可以监听特定的事件比如ON_HANDLE_CONTEXT处理消息内容。责任链模式插件按照注册顺序执行。如果一个插件处理了该消息并决定“拦截”EventAction.BREAK_PASS则后续插件不再处理如果插件处理了但允许继续EventAction.CONTINUE或完全不处理则消息会继续流向下一插件最终可能到达默认的AI模型处理插件。这种设计意味着你可以轻松地为机器人增加新功能而无需修改核心代码。比如写一个插件来监控群聊中的特定关键词或者自动回复一些固定指令如“查天气”、“讲个笑话”这些都可以在AI模型介入之前或之后完成。2.3 能力层多模型AI后端集成这是机器人的“智慧”来源。框架的bot/目录下为各种主流AI模型提供了适配器。无论是 OpenAI 的 GPT 系列、Anthropic 的 Claude、Google 的 Gemini还是国内可用的智谱GLM、Dify平台都可以通过配置轻松切换。模型选型考量OpenAI/Claude/Gemini通常效果最好功能最强但需要处理网络访问和付费API密钥的问题。智谱GLM、文心一言等国内模型访问速度快符合国内网络环境适合处理中文场景但可能需要企业认证或有使用限制。Dify这是一个值得特别关注的选项。Dify 是一个 LLM 应用开发平台你可以用它可视化的方式编排工作流、管理知识库。将本机器人对接 Dify 后就相当于为微信接上了一个可由你自定义的、可能集成了搜索、长文本处理、私有知识库等能力的超级AI大脑。这对于构建专业领域的问答机器人非常有用。框架通过一个统一的Model接口来抽象不同AI服务你在config.json里改一个model配置项就能切换整个机器人的“智力引擎”非常灵活。3. 从零开始的详细部署与配置实操光说不练假把式下面我就带大家走一遍从零开始把这个机器人跑起来的完整流程。我会把几个容易踩坑的地方重点标出来。3.1 基础环境准备首先确保你的机器上有 Python 3.8 或更高版本。建议使用虚拟环境来管理依赖避免污染系统环境。# 创建并进入项目目录 mkdir wechat-robot cd wechat-robot # 创建Python虚拟环境可选但强烈推荐 python3 -m venv venv # 激活虚拟环境 # Linux/macOS source venv/bin/activate # Windows venv\Scripts\activate # 克隆项目代码 git clone https://github.com/5201213/wechatpadpro-on-wechat.git cd wechatpadpro-on-wechat3.2 部署 WeChatPadPro 服务这是第一步也是最重要的一步。机器人的“手脚”就靠它了。下载前往 WeChatPadPro 的 GitHub Release 页面根据你的操作系统Windows、macOS、Linux下载最新的可执行文件。对于Linux通常是一个压缩包。解压与运行将下载的文件解压到一个单独的目录。在终端中进入该目录。Windows直接双击运行WeChatPadPro.exe。首次运行可能会弹出防火墙提示允许即可。Linux/macOS通过命令行运行./WeChatPadPro。如果提示权限不足执行chmod x WeChatPadPro赋予执行权限。获取管理员密钥服务启动后默认会在http://localhost:1239提供一个Web管理界面。打开浏览器访问这个地址。你会在页面上看到一个admin_key。务必复制保存好这个密钥它是后续配置机器人时连接此服务的凭证。注意WeChatPadPro 服务启动后会弹出一个二维码。不要用你日常主力微信账号去扫强烈建议使用一个专门的小号或备用微信号进行登录。这是对自己账号安全负责也是对所有微信机器人项目的基本操作准则。3.3 配置与启动机器人本体现在我们来配置 AI 机器人部分。安装依赖在项目根目录下安装必需的Python包。pip install -r requirements.txt # 如果你需要语音识别、图片处理等可选功能再安装可选依赖 pip install -r requirements-optional.txt创建配置文件项目提供了一个配置模板。cp config-template.json config.json然后用你喜欢的文本编辑器如 VSCode, Notepad打开config.json。关键配置项详解下面是一个最小化但可运行的配置示例我逐项解释{ channel_type: wxpad, // 固定为 wxpad表示使用 WeChatPadPro 通道 model: openai, // 使用的AI模型这里以openai为例也可以是 dify, gemini 等 // WeChatPadPro 连接配置 wechatpadpro_base_url: http://localhost:1239, // 你刚才启动的WeChatPadPro服务地址 wechatpadpro_admin_key: YOUR_ADMIN_KEY_HERE, // 从Web管理界面获取的密钥 wechatpadpro_ws_url: ws://localhost:1239/ws/GetSyncMsg, // WebSocket地址用于实时接收消息 // AI 模型配置 openai_api_key: sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx, // 你的OpenAI API Key // 如果你用其他模型比如Dify这里就换成 dify_api_key: your-dify-app-api-key // 机器人行为配置 single_chat_prefix: [], // 私聊触发前缀设为[]表示私聊所有消息都回复 group_chat_prefix: [bot], // 群聊触发前缀只有bot开头的消息才会触发回复 group_name_white_list: [ALL_GROUP], // 群聊白名单[ALL_GROUP]表示响应所有群 group_chat_keyword: [], // 群聊关键词触发为空则仅依赖前缀触发 // 功能开关 image_recognition: false, // 是否启用图片内容识别需要额外模型初期可关闭 speech_recognition: false, // 是否启用语音识别同上 voice_reply_voice: false, // 是否用语音回复语音消息 character_desc: 你是我的AI助手回复应简洁友好。 // 系统提示词定义AI的角色 }实操心得group_name_white_list刚开始可以设为[ALL_GROUP]方便测试但正式使用时强烈建议改为具体的群名列表如[技术测试群, 家人群]避免机器人误入其他群造成打扰。single_chat_prefix私聊前缀设为空字符串意味着机器人会回复私聊里的每一条消息。如果你不想这样可以设置为[/]或[机器人]这样只有以“/”或“机器人”开头的消息才会被处理。character_desc是控制AI个性的关键。写得好机器人的回复会更符合你的预期。例如可以写“你是一个专业的软件开发助手擅长用Python和JavaScript解决问题回答要逻辑清晰给出代码示例。”启动机器人配置保存后在项目根目录运行python app.py如果一切正常控制台会输出连接 WeChatPadPro 成功的日志并且机器人就开始运行了。现在你可以用登录了 WeChatPadPro 的那个微信小号给自己或测试群发送bot 你好应该就能收到AI的回复了。4. 插件开发与功能定制实战框架内置的插件已经提供了一些实用功能但真正的威力在于你可以自己写插件。下面我通过一个实际例子手把手教你创建一个自定义插件。4.1 插件开发环境与结构所有插件都放在plugins目录下。每个插件都是一个独立的Python文件。框架会自动扫描并加载这个目录下所有继承了Plugin类的插件。4.2 实战创建一个“群聊关键词监控”插件假设我们想实现一个功能当群聊中出现“加班”这个词时机器人自动回复一句鼓励的话并且这个消息不再传递给后面的AI模型处理。创建插件文件在plugins目录下新建一个文件命名为keyword_monitor.py。编写插件代码# plugins/keyword_monitor.py import plugins from plugins import * from channel.wechat.wechat_message import WeChatMessage from common.log import logger plugins.register( nameKeywordMonitor, # 插件名称 desc监控群聊关键词并自动回复, # 插件描述 version1.0, # 版本 authorYourName, # 作者 desire_priority999 # 优先级数字越大越先执行 ) class KeywordMonitor(Plugin): def __init__(self): super().__init__() # 注册事件处理器当框架处理消息上下文时调用我们的函数 self.handlers[Event.ON_HANDLE_CONTEXT] self.on_handle_context # 定义要监控的关键词列表 self.keywords [加班, 好累, 不想干活] # 定义对应的回复内容 self.replies { 加班: 辛苦了喝杯咖啡休息一下吧~, 好累: 坚持就是胜利你是最棒的, 不想干活: 想想下班后的快乐时光加油 } logger.info([KeywordMonitor] 插件加载成功监控关键词: {}.format(self.keywords)) def on_handle_context(self, e_context: EventContext): 处理消息上下文的函数 context e_context[context] # 1. 只处理群聊消息 if context.get(isgroup): content context.content.strip() # 2. 遍历关键词检查是否包含 for kw in self.keywords: if kw in content: logger.info(f[KeywordMonitor] 检测到关键词 {kw}, 触发自动回复) # 3. 构造回复 reply_content self.replies.get(kw, 加油) reply Reply(ReplyType.TEXT, reply_content) # 4. 将回复放入上下文 e_context[reply] reply # 5. 设置动作为 BREAK_PASS表示已处理并拦截后续插件和AI模型不再处理此消息 e_context.action EventAction.BREAK_PASS return # 处理完毕直接返回 # 如果没有触发关键词什么也不做消息继续传递 # e_context.action 保持默认值 EventAction.CONTINUE # 如果不是群聊也什么也不做 def on_unload(self): 插件卸载时调用 logger.info([KeywordMonitor] 插件卸载)插件生效无需修改主配置框架会自动加载。重启app.py在群聊里发送“今天又要加班了”机器人应该会立即回复“辛苦了喝杯咖啡休息一下吧~”而不会再去调用AI模型生成回复。注意事项desire_priority很重要。如果你希望插件在AI模型之前执行比如本插件的拦截功能优先级要设得比AI模型插件高默认AI插件优先级可能是500。999是一个较高的值。在插件中可以通过context对象获取丰富的消息信息context.type(消息类型),context.content(内容),context[msg].actual_user_nickname(发送者昵称),context[msg].actual_user_id(发送者ID) 等方便你实现更复杂的逻辑。记得引入logger并合理打日志这在调试时非常有用。4.3 内置插件应用ChatSummary 聊天总结框架内置的ChatSummary插件非常实用。它能在群聊中当有人发送“总结一下”之类的指令时自动获取最近的聊天记录发送给AI模型进行摘要总结。配置启用通常这个插件是默认加载的。你可以在群聊中尝试发送“bot 总结”或“bot 总结一下今天的讨论”。它的实现原理就是监听指令然后通过 WeChatPadPro 的接口拉取指定时间范围内的群聊消息历史拼接后发给AI最后将总结结果回复到群里。实操心得这个功能对会议群、学习群的帮助很大。但要注意拉取大量消息历史可能会触发微信的风控。建议在插件配置里如果有的话限制单次总结的时间范围比如最近2小时或消息条数比如最近100条。5. 高级配置与优化技巧当机器人基本跑通后我们可以通过一些高级配置让它更智能、更稳定。5.1 会话管理与上下文长度和AI聊天上下文记忆是关键。框架支持配置会话模式。{ // ... 其他配置 ... single_chat_in_one_session: [好友A, 好友B], // 与这些好友的私聊会保持在一个连续会话中 group_chat_in_one_session: [重要项目群], // 该群聊保持在一个连续会话中 max_tokens: 4096, // 发送给AI的上下文最大token数包括你的问题和AI的历史回复 temperature: 0.9, // AI的“创造力”参数0.0更确定/保守1.0更随机/有创意 clear_memory_commands: [清除记忆, reset] // 发送这些命令可以清空当前会话的历史 }优化建议对于重要的、需要连续对话的群或私聊启用_in_one_session。但要注意这会导致每次对话都会附带上文消耗更多的API Token费用并可能达到模型上下文长度限制。max_tokens需要根据你使用的模型和预算来调整。对于日常闲聊群可能不需要开启会话保持。5.2 使用 Dify 作为强大的AI后端Dify 的配置能极大扩展机器人的能力。假设你已经在 Dify 上创建了一个应用。{ model: dify, // 模型类型指定为 dify dify_api_base: https://api.dify.ai/v1, // Dify API 地址 dify_api_key: app-xxxxxxxxxxxxxx, // 在Dify应用设置里获取的API Key dify_app_id: your-app-id, // 你的Dify应用ID // 其他配置... }配置好后机器人所有的AI请求都会发往你的 Dify 应用。你可以在 Dify 里编排复杂工作流让机器人先联网搜索再结合知识库回答。接入私有知识库上传公司文档、产品手册让机器人基于这些知识回答避免胡言乱语。使用更便宜的模型Dify 支持接入多种模型你可以选择性价比更高的组合。5.3 网络与稳定性优化代理配置如果你的服务器无法直接访问 OpenAI 等海外服务需要在代码或系统环境变量中配置网络代理。通常可以在启动脚本前设置环境变量export HTTP_PROXYhttp://your-proxy:port export HTTPS_PROXYhttp://your-proxy:port python app.py注意这里提到的代理仅用于解决开发者在合规前提下访问国际互联网服务的通用技术需求所有网络活动必须严格遵守国家法律法规。日志与监控妥善配置日志级别定期检查logs/目录下的文件。可以配合tail -f logs/wechat_robot.log实时查看运行状态。对于生产环境建议将日志接入更专业的监控系统。进程守护在 Linux 服务器上使用systemd或supervisor来守护app.py和WeChatPadPro进程确保它们崩溃后能自动重启。一个简单的 supervisor 配置示例 (/etc/supervisor/conf.d/wechatbot.conf)[program:wechatpadpro] command/path/to/your/WeChatPadPro directory/path/to/wechatpadpro_dir autostarttrue autorestarttrue stderr_logfile/var/log/wechatpadpro.err.log stdout_logfile/var/log/wechatpadpro.out.log [program:wxbot] command/path/to/venv/bin/python /path/to/wechatpadpro-on-wechat/app.py directory/path/to/wechatpadpro-on-wechat autostarttrue autorestarttrue environmentPYTHONPATH/path/to/wechatpadpro-on-wechat stderr_logfile/var/log/wxbot.err.log stdout_logfile/var/log/wxbot.out.log6. 常见问题排查与维护心得在实际运行中你肯定会遇到各种问题。这里我总结几个最常见的情况和排查思路。6.1 机器人无响应症状发送触发消息后机器人毫无反应控制台也没有相关日志。排查步骤检查 WeChatPadPro 服务首先确认 WeChatPadPro 进程是否在运行其Web管理界面 (http://localhost:1239) 能否打开。如果打不开说明服务挂了重启它。检查连接配置核对config.json里的wechatpadpro_base_url和wechatpadpro_admin_key是否正确。特别是admin_key如果 WeChatPadPro 重启过admin_key会变需要重新复制更新。检查触发规则确认你发送的消息符合配置的触发条件。比如在群聊里是否正确了机器人注意机器人昵称私聊前缀是否配置正确查看机器人日志运行tail -f logs/wechat_robot.log看是否有连接成功、收到消息的日志。如果连“收到消息”的日志都没有问题大概率出在 WeChatPadPro 服务或连接配置上。6.2 机器人回复“出错”或调用AI失败症状机器人回复“服务暂时不可用”、“AI处理出错”等或直接不回任何内容但日志有错误。排查步骤检查AI模型配置确认model设置和对应的API密钥openai_api_key,dify_api_key等是否正确无误。API密钥是否过期或额度不足。检查网络连通性如果使用海外AI服务确认服务器能否正常访问其API地址。可以在服务器上尝试curl命令测试。查看详细错误日志日志中通常会打印AI接口返回的具体错误信息如401 Unauthorized(密钥错误)、429 Too Many Requests(速率超限)、503 Service Unavailable(服务端问题) 等。根据错误信息对症下药。检查上下文长度如果错误信息提及context length或token limit说明你发送的对话历史太长了。需要调低max_tokens或者检查是否在单次会话中积累了太多轮对话。可以通过发送“清除记忆”指令来重置。6.3 微信账号被限制或封禁这是所有非官方微信机器人项目的最大风险。预防措施使用小号绝对不要用主号、工作号登录。控制频率避免短时间内高频发送消息尤其是群发、自动加好友等行为。可以在插件中增加延时逻辑。模拟人工回复内容不要太“机器”避免完全一样的消息重复发送。可以利用AI生成差异化的回复。减少敏感操作尽量避免使用自动通过好友、自动拉群等功能。关注 WeChatPadPro 更新协议失效是常事关注项目更新及时升级。应对措施一旦账号出现被限制登录要求好友辅助验证等情况立即停止该账号的机器人服务。这个号可能已经进入风控名单短期内不宜再用作机器人。6.4 插件加载失败或冲突症状启动时日志报错ImportError或插件功能不生效。排查检查插件文件是否有语法错误。检查插件类是否正确定义并使用了plugins.register装饰器。查看插件加载日志确认你的插件是否在加载列表中。如果多个插件监听同一事件注意它们的desire_priority优先级高的先执行并且如果某个插件设置了EventAction.BREAK_PASS后续插件将不会执行。我个人在维护这个机器人的过程中最大的体会就是“隔离”和“监控”。把 WeChatPadPro 服务、AI机器人逻辑、甚至不同的功能插件都看作独立的模块。一个模块出问题尽量不影响其他模块。同时给关键操作都加上详细的日志这样无论出什么问题都能快速定位到根源。这个项目就像搭积木给了你足够多的可靠模块和连接器能搭建出什么有趣的应用就完全看你的想象力和需求了。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2595003.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…