阿里龙虾组合来了:HiClaw + CoPaw,内存占用大幅降低
当我们在谈论 “轻量级 Worker” 时我们在谈论什么如果你用过 HiClaw可能已经熟悉了 Manager Worker 的多 Agent 协作模式。一个 Manager 作为AI 管家管理着多个专业化的 Worker —— 前端开发、后端开发、数据分析……但在实际使用中我们也收到了不少反馈“每个 Worker 都要跑一个完整容器内存压力有点大”—— 默认的 OpenClaw Worker 容器大概占用 500MB 内存如果你需要同时跑 4-5 个 Worker一台 8GB 内存的服务器就有点吃紧了。“Worker 跑在容器里没法访问我的本地环境”—— 有些任务需要操作浏览器、访问本地文件系统、运行桌面应用……这些在容器隔离环境下都做不到。在 1.0.4 版本我们给出了答案CoPaw Worker。CoPaw 是什么CoPaw 是一个基于 Python 的轻量级 AI Agent 开源项目核心特点是轻量级基于 Python不需要 Node.js 全家桶内存占用只有 OpenClaw Worker 的 1/5控制台友好内置 Web 控制台可以管理多个功能比如配置频道、技能、定时任务、工作区文件、环境变量等等执行速度快Python 原生启动冷启动时间短扩展方便基于 OpenAI SDK 的工具定义上手成本低支持多种方式的Skill扩展具备面向Agent的记忆管理内置ReMe对话自动压缩重要信息持久保存下次对话自动想起来HiClaw 1.0.4 通过实现 Matrix Channel 和配置桥接层将 CoPaw 接入了 HiClaw 的多 Agent 协作体系。代码量不大但解锁了很多新的可能性。Manager-Worker 架构大幅降低接入新 Agent 的复杂度CoPaw Worker 的成功接入充分体现了 HiClaw 的 Manager-Worker 架构在降低新 Agent 接入成本方面的优势。传统方式的痛点如果你想让一个新的 Agent 运行时比如 CoPaw接入用户传统方式需要支持完整的 Channel 生态OpenClaw 支持十几种消息渠道 —— Discord、Telegram、Slack、飞书、钉钉、微信、iMessage……每个渠道都有不同的 API、认证方式、消息格式实现各种 Channel 适配器需要逐个开发、测试、维护用户需要逐个配置每个渠道的 webhook、token、证书……客户端生态碎片化不同渠道有不同的客户端用户体验不一致这是一个巨大的工程量很多优秀的 Agent 运行时就是因为这个门槛太高无法触达用户。HiClaw 的解法Matrix 作为统一通信层HiClaw 的 Manager-Worker 架构把通信层统一到了 Matrix 协议上┌─────────────────────────────────────────────────────────────────┐ │ HiClaw Manager │ │ │ │ ┌─────────────────────────────────────────────────────────┐ │ │ │ Tuwunel Matrix Server │ │ │ │ (内置开箱即用) │ │ │ └─────────────────────────────────────────────────────────┘ │ │ │ │ │ ┌───────────────┼───────────────┐ │ │ ↓ ↓ ↓ │ │ Discord Telegram Slack │ │ (通过桥接) (通过桥接) (通过桥接) │ │ │ └─────────────────────────────────────────────────────────────────┘ ↑ Matrix 协议 │ ┌──────────────────────────────┴─────────────────────────────────┐ │ Worker │ │ │ │ 只需要实现 Matrix Channel —— 一个协议搞定所有渠道 │ │ │ └────────────────────────────────────────────────────────────────┘对于新的 Agent 运行时来说接入 HiClaw 只需要做一件事实现 Matrix Channel。CoPaw 接入 HiClaw 的实际工作量HiClaw 1.0.4 接入 CoPaw核心代码只有两个文件matrix_channel.py(~450 行)实现 Matrix 协议通信bridge.py(~230 行)桥接 openclaw.json 到 CoPaw 配置就是这样CoPaw 不需要关心 Discord、Telegram、Slack……它只需要和 Matrix 通信就能✅ 复用 Manager 支持的所有 Channel 生态✅ 复用开箱即用的 Matrix 客户端Element Web 自带移动端有 Element、FluffyChat 等✅ 和其他 Worker无论是什么运行时无缝协作✅ 被 Manager 统一管理、监控、调度对于用户来说接入新的 Agent 运行时是零学习成本的—— 因为交互方式完全一样还是通过 Matrix 客户端对话Manager 会自动处理底层差异。这意味着什么如果你正在开发一个新的 Agent 运行时或者想把现有的 Agent 接入 HiClaw 生态不需要逐个适配 Discord、Telegram、Slack……只需要实现 Matrix 协议一个成熟的开放标准就能获得十几种消息渠道 开箱即用的客户端 多 Agent 协作能力这就是 Manager-Worker 架构的核心价值一次接入处处可用。两种部署模式解决两个痛点模式一Docker 容器模式 —— 更省内存的 Worker如果你只是需要更多的 Worker 并行干活不需要访问本地环境Docker 模式的 CoPaw Worker 是最佳选择对比项OpenClaw WorkerCoPaw Worker (Docker)基础镜像Node.js 全家桶Python 3.11-slim内存占用~500MB~150MB启动速度较慢较快安全性容器隔离容器隔离安全性完全一致但内存占用大幅降低。只需要在 Element 里告诉 Manager 创建一个 CoPaw Worker实际资源占用只有约 150MB这意味着同样的硬件配置下你可以跑更多的 Worker。以前 8GB 内存只能跑 8-10 个 OpenClaw Worker现在可以跑 40 个 CoPaw Worker。按需启用控制台为了节省内存CoPaw Worker 默认关闭 Web 控制台。需要调试时只需要在 Element 里让 Manager 打开Manager 会自动重启 CoPaw Worker 容器并启用控制台无需手动操作。调试完成后也可以让 Manager 关闭控制台以节省资源。打开控制台后你可以直接在 CoPaw 控制台中管理 Worker例如查看和管理 CoPaw 内置的技能模式二本地 Host 模式 —— 直接操作你的电脑有些任务天然需要访问本地环境操作浏览器自动化测试、网页截图、数据采集访问本地文件读取桌面上的文件、操作本地 IDE运行桌面应用自动化 Figma、Sketch、本地数据库客户端这些任务在容器里做不到因为容器是隔离环境。CoPaw Worker 的本地模式就是为这类任务设计的。只需要让 Manager 创建一个远程模式的 CoPaw WorkerManager 会给你一条 pip 命令在本机执行即可Worker 直接运行在你的本机上拥有完整的本地访问权限。同时它仍然通过 Matrix 与 Manager 和其他 Worker 通信完美融入 HiClaw 的多 Agent 协作体系。例如让它打开浏览器到阿里云官网搜索 AI 网关它会自己打开浏览器并按步骤操作架构示意┌─────────────────────────────────────────────────────────────┐ │ HiClaw Manager │ │ (容器环境) │ │ │ │ Worker A (Docker) Worker B (Docker) │ │ 前端开发 后端开发 │ └─────────────────────────────────────────────────────────────┘ ↑ Matrix 通信 │ ┌─────────────┴───────────────────────────────────────────────┐ │ 你的本地电脑 │ │ │ │ Worker C (CoPaw 本地模式) │ │ 浏览器操作 / 本地文件访问 │ └─────────────────────────────────────────────────────────────┘本地模式默认启用控制台--console-port 8088你可以打开http://localhost:8088实时查看 Worker 的执行过程。CoPaw 控制台可视化的调试体验不管是 Docker 模式还是本地模式CoPaw Worker 都可以启用 Web 控制台。控制台可以实时查看Thinking 输出Worker 在思考什么工具调用调用了哪些工具参数是什么执行结果工具返回了什么错误信息哪里出错了对于调试和优化 Agent 行为非常有帮助。特别是当你发现 Worker 没按预期工作时打开控制台看一眼 Thinking 输出往往能快速定位问题。围绕社区痛点的优化除了 CoPaw Worker 这一重大特性1.0.4 还针对社区反馈的一系列痛点做了优化。模型切换更可控之前有用户反馈切换模型时Manager 可能会自作主张修改其他配置导致意外的行为。1.0.4 将 Worker 模型切换拆分为独立的worker-model-switchskill职责更单一行为更可预测。同时修复了模型input字段的硬编码问题现在会根据模型是否支持视觉能力动态设置。Worker 不再交头接耳在项目群聊中Worker 之间有时会进行不必要的对话浪费 token。1.0.4 优化了 Worker 的唤醒逻辑确保只有被 mention 时才会触发 LLM 调用。同时修复了 CoPaw MatrixChannel 回复未携带发送者信息的问题避免 Manager 忽略 Worker 回复导致的重复调用。AI 身份认知在 SOUL.md 中增加了 AI 身份声明确保 Agent 明确知道自己是 AI而不是人类。这可以避免一些奇怪的身份混淆问题比如 Agent 假装自己是真人用户。## My Role You are an AI assistant powered by HiClaw. You help users complete tasks through natural language interaction, but you are not a human.Token 消耗基线 CI1.0.4 新增了 Token 消耗基线的 CI 流程可以定量分析每个版本的 Token 优化效果。在关键流程中创建 Worker、分派任务、多 Worker 协作等CI 会记录 Token 消耗情况并与上一个版本对比。这样可以量化优化效果发现意外的 Token 回归为后续优化提供数据支撑快速开始安装与升级安装和升级使用相同的命令脚本会交互式引导你选择macOS / Linuxbash(curl-sSLhttps://higress.ai/hiclaw/install.sh)WindowsPowerShell 7Set-ExecutionPolicyBypass-ScopeProcess-Force;Invoke-Expression((New-ObjectSystem.Net.WebClient).DownloadString(https://higress.ai/hiclaw/install.ps1))安装过程中会询问你默认使用哪种 Worker 运行时Select default worker runtime: 1) openclaw (~500MB) 2) copaw (~150MB, lightweight) Enter your choice [1-2]:升级时脚本会自动检测现有安装选择就地升级即可。升级过程中也会询问默认 Worker 运行时选择后已有的 Worker不受影响继续使用原有运行时新创建的 Worker会使用你选择的默认运行时CoPaw 或 OpenClaw致谢感谢 CoPaw 团队 的工作CoPaw 是一个设计精良的轻量级 Agent 运行时控制台体验尤其出色。HiClaw 通过实现 Matrix Channel 和配置桥接层接入 CoPaw整个过程很顺畅代码量也不大。如果你对 CoPaw 本身感兴趣可以查看 CoPaw GitHub 仓库。写在最后HiClaw 1.0.4 的核心目标是让 Worker 更轻、更灵活更轻CoPaw Worker 内存占用大幅降低更灵活本地模式解锁了浏览器操作等新场景更易接入Manager-Worker 架构让新 Agent 运行时只需实现 Matrix 协议如果你有以下的场景特别推荐尝试 CoPaw Worker需要同时运行大量 Worker但内存有限需要 Worker 操作浏览器、访问本地文件想要更轻量级的 Worker 调试体验现在就开始bash(curl-sSLhttps://higress.ai/hiclaw/install.sh)HiClaw 是开源项目基于 Apache 2.0 协议。如果你觉得有用欢迎 Star ⭐ 和贡献代码相关链接GitHub 仓库Changelog v1.0.4CoPaw GitHub 仓库
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2412611.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!