Windows下OpenClaw安装全攻略:对接ollama的GLM-4.7-Flash模型
Windows下OpenClaw安装全攻略对接ollama的GLM-4.7-Flash模型1. 为什么选择OpenClawGLM-4.7-Flash组合去年我在尝试自动化办公流程时发现市面上的RPA工具要么功能臃肿要么需要复杂的图形化编程。直到遇见OpenClaw这个开源智能体框架它让我可以用自然语言指挥AI完成本地文件整理、数据收集等重复性工作。而选择ollama部署的GLM-4.7-Flash模型主要是看中其轻量高效的特点——相比动辄上百GB的大模型这个7B参数的版本在我的家用电脑上就能流畅运行。这个组合特别适合像我这样的Windows用户既想要AI自动化能力又不愿意把敏感工作数据上传到公有云。通过本文你将学会如何在Windows 11系统上完整部署这套方案。2. 安装前的准备工作2.1 系统环境检查首先确认你的Windows版本至少是Windows 10 21H2或更高。我曾在老旧的Windows 7上尝试安装结果卡在了Node.js环境依赖上。按下WinR输入winver可以查看系统版本。需要准备的软件清单PowerShell 7非系统自带的老版本Node.js 18.x LTS版本Git用于后续可能的插件安装2.2 管理员权限获取OpenClaw需要安装系统服务因此所有操作都必须在管理员权限的PowerShell中进行。这里有个小技巧在开始菜单搜索PowerShell右键选择以管理员身份运行时可以按住CtrlShift再点击这样能避免UAC弹窗干扰。3. 核心安装步骤3.1 Node.js环境配置虽然官方文档说支持Node.js 16但我实测发现v18.x的兼容性更好。安装时务必勾选Automatically install the necessary tools选项这会把npm和核心组件都装好。安装完成后运行node -v npm -v如果返回版本号说明环境正常。有个常见坑点是系统PATH没更新表现为命令找不到这时需要注销重新登录。3.2 OpenClaw本体安装在管理员PowerShell中执行npm install -g openclawlatest这个步骤我遇到过两次失败公司网络有SSL拦截需要先执行npm config set strict-ssl false旧版本残留冲突需要用npm uninstall -g openclaw彻底卸载安装成功后验证版本openclaw -v3.3 初始化配置向导运行配置向导是关键步骤openclaw onboard这里建议选择Advanced模式因为我们要自定义模型连接。在Provider选择界面按方向键选择Custom模型名称可以随意填写如my-glm4。配置文件中需要特别关注这几个参数baseUrl: ollama服务的本地地址apiKey: 留空即可本地部署通常不需要model: 填写glm-4-7b-flash4. 对接ollama的GLM-4.7-Flash模型4.1 ollama服务准备假设你已经用ollama部署好了GLM-4.7-Flash模型默认服务地址是http://localhost:11434。可以用curl测试服务是否正常curl http://localhost:11434/api/generate -d { model: glm-4-7b-flash, prompt:你好 }4.2 OpenClaw配置修改找到配置文件C:\Users\[用户名]\.openclaw\openclaw.json修改models部分models: { providers: { ollama-glm: { baseUrl: http://localhost:11434, api: openai-completions, models: [ { id: glm-4-7b-flash, name: GLM-4-Flash, contextWindow: 8192 } ] } } }保存后需要重启网关服务openclaw gateway restart4.3 连接测试执行模型列表查询验证连接openclaw models list如果看到GLM-4-Flash出现在可用模型列表说明对接成功。我在这里踩过一个坑ollama默认只监听127.0.0.1如果OpenClaw和ollama不在同一台机器需要修改ollama启动参数。5. 常见问题解决方案5.1 端口冲突问题如果18789端口被占用启动时会报EADDRINUSE错误。解决方法openclaw gateway --port 18790然后在配置文件中同步修改所有相关端口设置。5.2 证书错误Windows Defender可能会拦截本地HTTPS请求出现证书错误时可以临时关闭SSL验证$env:NODE_TLS_REJECT_UNAUTHORIZED05.3 模型响应超时GLM-4.7-Flash在首次请求时需要加载模型可能会超时。可以修改超时参数models: { providers: { ollama-glm: { timeout: 60000 } } }6. 基础使用演示安装完成后最简单的测试方法是启动交互式命令行openclaw chat试着输入帮我列出D盘下的所有PDF文件OpenClaw会调用GLM-4理解指令然后执行文件系统操作。我第一次成功运行这个命令时看着AI自动打开文件管理器筛选出目标文件那种未来已来的震撼感至今难忘。对于更复杂的任务建议通过Web控制台操作。启动服务后访问http://localhost:18789这里可以看到任务历史和执行日志。我常用它来自动整理下载文件夹根据文件类型自动归类到不同目录。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2465249.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!