OpenClaw-CN 本地部署完全攻略
OpenClaw-CN 本地部署完全攻略根据你从零开始的完整踩坑经历我整理出了这份保姆级安装攻略。按顺序执行就能把“龙虾”跑起来接上飞书用本地模型免费聊天。 第一阶段基础环境准备1.1 安装 Node.js必须 ≥ 18powershell# 访问 https://nodejs.org 下载 LTS 版本如 v20.11.1 # 安装时务必勾选 Add to PATH验证安装powershellnode --version # 应显示 v18 npm --version # 应显示 v81.2 配置 npm 国内镜像加速下载powershellnpm config set registry https://registry.npmmirror.com 第二阶段安装 OpenClaw-CN2.1 全局安装powershellnpm install -g openclaw-cnlatest2.2 验证安装powershellopenclaw-cn --version # 应显示 0.1.7 或更高 第三阶段安装本地模型Ollama3.1 下载并安装 Ollama访问 ollama.com 下载 Windows 版本默认安装即可。3.2 修改模型存储路径可选避免占满 C 盘powershell# 1. 创建目标文件夹如 D:\GD\Ollama # 2. 设置环境变量 [System.Environment]::SetEnvironmentVariable(OLLAMA_MODELS, D:\GD\Ollama, User) # 3. 重启电脑3.3 下载 Qwen 2.5 3B 模型支持工具调用powershell# 启动 Ollama保持窗口运行 ollama serve # 新开一个 PowerShell下载模型 ollama pull qwen2.5:3b⚠️注意qwen2.5:4b不存在正确版本是0.5b、1.5b、3b、7b等。3B 版本是性能和速度的平衡点。验证模型powershellollama list # 应看到 qwen2.5:3b⚙️ 第四阶段配置 OpenClaw4.1 运行初始化向导powershellopenclaw-cn onboard按提示选择安全警告Yes模式QuickStartModel/auth provider选Custom Provider因为要用本地 OllamaAPI Base URLhttp://127.0.0.1:11434/v1API Key随便输如ollama-localEndpoint compatibilityOpenAI-compatibleModel IDqwen2.5:3b后续配置全选No或Skip4.2 手动修改配置文件关键OpenClaw-CN 0.1.7 的向导可能不会自动设置默认模型需要手动改配置。powershell# 停止网关 openclaw-cn gateway stop # 用记事本打开配置文件 notepad C:\Users\Administrator\.openclaw\openclaw.json确保配置文件包含以下内容直接复制替换记得把飞书的appId和appSecret换成你自己的json{ models: { providers: { ollama: { baseUrl: http://127.0.0.1:11434/v1, apiKey: ollama-local, api: openai-completions, models: [ { id: qwen2.5:3b, name: qwen2.5:3b, reasoning: false, input: [text], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 128000, maxTokens: 4096 } ] } } }, agents: { defaults: { model: { primary: ollama/qwen2.5:3b }, models: { ollama/qwen2.5:3b: { alias: qwen2.5:3b } }, workspace: C:\\Users\\Administrator\\.openclaw\\workspace, compaction: { mode: safeguard } } }, channels: { feishu: { accounts: { default: { appId: 你的_飞书_App_ID, appSecret: 你的_飞书_App_Secret, domain: feishu, enabled: true } } } }, gateway: { port: 18789, mode: local, bind: loopback, auth: { mode: token, token: 自动生成不用管 } } }关键检查点✅models.providers.ollama存在且模型是qwen2.5:3b✅agents.defaults.model.primary是ollama/qwen2.5:3b✅channels.feishu下没有enabled: false这一行如果有就删掉✅ 飞书的appId和appSecret正确4.3 重启网关powershellopenclaw-cn gateway看到agent model: ollama/qwen2.5:3b就说明配置生效了。 第五阶段配置飞书机器人5.1 飞书开放平台配置登录 飞书开发者后台创建企业自建应用取名如“OpenClaw助手”获取App ID和App Secret添加机器人能力添加权限im:messageim:chat:readim:message:send_as_botcontact:contact.base:readonly事件订阅配置添加im.message.receive_v1订阅方式选择长连接WebSocket重要不需要配置回调地址创建版本并发布应用5.2 在 OpenClaw 中配对飞书powershell# 1. 启动网关如果没启动 openclaw-cn gateway # 2. 在飞书客户端搜索你的机器人发送任意消息如“你好” # 3. 机器人会回复一个配对码如 PAIR-8XJX34AV # 4. 在命令行批准配对 openclaw-cn pairing approve feishu 你拿到的配对码 # 例如openclaw-cn pairing approve feishu 12JX34AV5.3 测试在飞书群里机器人或私聊发送text你好应该能收到正常回复了 第六阶段日常维护6.1 常用命令操作命令启动网关openclaw-cn gateway停止网关openclaw-cn gateway stop查看模型列表openclaw-cn models list查看飞书通道openclaw-cn channels list查看实时日志openclaw-cn logs --follow创建新会话/session new在飞书里发送6.2 如果觉得慢换小模型ollama pull qwen2.5:1.5b更快略降智能限制上下文创建 Modelfile 设置num_ctx 4096定期新会话在飞书发/session new6.3 如果飞书没反应检查飞书通道是否启用openclaw-cn channels list应显示“已启用”检查网关日志openclaw-cn logs --follow看有没有报错重新配对先禁用再启用飞书通道 最终成果项目状态本地模型✅ Qwen 2.5 3B免费、支持工具调用飞书聊天✅ 可机器人对话Web 界面✅http://127.0.0.1:18789费用 0 元完全本地运行一路踩坑过来恭喜你拥有了自己的“龙虾”智能助手以后可以在飞书里随时和它聊天了
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2429442.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!