在 WorkBuddy 中添加自定义Ollama模型方法,已成功测试
概述本文档总结了如何通过 WorkBuddy 的international-ai-deploy技能来添加和管理自定义 AI 模型特别是针对本地 Ollama 服务的配置。文档涵盖了完整的流程从技能安装到模型配置文件的创建。安装 international-ai-deploy 技能方法1通过 WorkBuddy 插件市场安装打开 WorkBuddy点击侧边栏插件点击插件市场输入以下 URLhttps://github.com/hangtiger/international-ai-deploy-skill方法2从 GitHub 安装# 克隆仓库gitclone https://github.com/hangtiger/international-ai-deploy-skill.git然后在 WorkBuddy 中导入本地技能。方法3直接从 GitHub下载源码压缩包本人测试Code -- Download ZIP -- “international-ai-deploy-skill-master.zip”解压后选中WorkBuddy 左侧的“技能”菜单然后点击右侧“导入技能”来找到解压后的文件夹导入本地技能。配置自定义模型1. 确认技能已安装首先确认international-ai-deploy技能已经成功安装。检查文件路径C:\Users\ttyui\.workbuddy\skills\international-ai-deploy-skill-master2. 使用技能添加模型Ollama本地部署模型的方法请自行搜索过程并不复杂我当前选用的模型为qwen3-coder:30b在 WorkBuddy 中使用以下指令来配置模型添加自定义模型3. 手动编辑 models.json 文件推荐对于 Ollama 模型我们推荐直接编辑models.json文件。其中配置文件的位置为C:\Users\ttyui\.workbuddy\models.json注意其中“ttyui”我的用户名需替换成你自己的用户名。4. 配置文件结构确保你的models.json文件内容如下{models:[{id:qwen3-coder:30b,name:Qwen3-Coder 30B (Ollama),vendor:Ollama,apiKey:ollama,url:http://[自定义大模型的IP地址]:11434/v1/chat/completions,maxInputTokens:128000,maxOutputTokens:8192,disabled:false}]}5. 关键配置说明配置项作用id模型唯一标识符 (重要必须与部署的模型名称严格一致)name显示名称vendor供应商如 OllamaapiKeyAPI 密钥对于自行部署的Ollama服务为空或者随便写如ollamaurl模型访问的 URL 地址maxInputTokens最大输入 token 数maxOutputTokens最大输出 token 数disabled是否禁用该模型重要提示models.json配置文件规则只添加models[]数组不要添加availableModels字段内置模型与自定义模型并存WorkBuddy 默认会自动处理内置模型的显示重启 WorkBuddy修改配置后需要重启 WorkBuddy 使更改生效验证配置重启 WorkBuddy在模型选择器中应该能看到内置模型如 Qwen 系列新添加的自定义模型Qwen3-Coder 30B (Ollama)故障排除常见问题模型未显示检查models.json文件格式是否正确重启 WorkBuddy 应用连接错误检查 Ollama 服务是否正在运行验证 URL 地址是否正确确认网络连通性配置文件格式错误使用 JSON 验证工具检查语法确保所有字符串都使用双引号检查是否有多余的逗号总结通过以上步骤你已经成功安装了international-ai-deploy技能配置了自定义的 Ollama 模型实现了内置模型与自定义模型并列显示的效果如下现在你可以愉快地在 WorkBuddy 中使用你的本地模型进行开发和测试了
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2417730.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!