保姆级教学:用星图AI云平台快速搭建Clawdbot,让Qwen3-VL:30B接入飞书
保姆级教学用星图AI云平台快速搭建Clawdbot让Qwen3-VL:30B接入飞书1. 为什么选择本地部署多模态办公助手在日常办公中我们经常遇到需要处理图片和文字的场景同事发来的产品截图需要快速分析内容会议白板照片需要提取关键信息市场素材需要批量生成描述文案传统解决方案要么依赖公网API数据安全风险要么需要复杂的技术栈部署门槛高。本文将展示如何在CSDN星图AI云平台上零基础搭建一个既能看图又能聊天的本地智能办公助手。2. 环境准备星图平台一键获取专业级硬件2.1 硬件配置概览组件规格说明GPUNVIDIA A100 48GBCPU20核心内存240GB系统盘50GB SSD数据盘40GB SSD预装软件Ollama Node.js2.2 快速创建实例登录CSDN星图AI平台进入「算力实例」→「新建实例」搜索并选择Qwen3-VL-30B (Ollama)镜像使用推荐配置启动实例3. 部署Qwen3-VL:30B多模态模型3.1 验证模型服务实例启动后点击「Ollama控制台」进入Web界面# 测试对话示例 你好你能分析这张图片吗[上传测试图片]预期看到类似回复 我能理解图像内容。请上传一张图片我会为你详细分析...3.2 API连通性测试from openai import OpenAI client OpenAI( base_urlhttps://gpu-pod[你的实例ID]-11434.web.gpu.csdn.net/v1, api_keyollama ) response client.chat.completions.create( modelqwen3-vl:30b, messages[{role: user, content: 用一句话说明AI多模态的意义}] ) print(response.choices[0].message.content)4. 安装配置Clawdbot网关4.1 全局安装Clawdbotnpm i -g clawdbot4.2 初始化配置clawdbot onboard # 按回车跳过所有选项使用默认配置4.3 解决Web控制台访问问题编辑配置文件vim ~/.clawdbot/clawdbot.json修改关键参数gateway: { bind: lan, trustedProxies: [0.0.0.0/0], auth: { mode: token, token: csdn } }重启服务clawdbot gateway --restart5. 集成Qwen3-VL:30B与Clawdbot5.1 配置模型供应商编辑clawdbot.json添加models: { providers: { my-ollama: { baseUrl: http://127.0.0.1:11434/v1, apiKey: ollama, models: [{ id: qwen3-vl:30b, name: Local Qwen3 30B, contextWindow: 32000 }] } } }, agents: { defaults: { model: { primary: my-ollama/qwen3-vl:30b } } }5.2 验证集成效果新开终端监控GPU使用watch nvidia-smi在Clawdbot控制台发送测试消息 请分析这张产品截图[上传图片]观察GPU利用率变化和返回结果。6. 总结与下一步通过本教程你已经完成在星图平台部署Qwen3-VL:30B多模态模型安装配置Clawdbot网关服务实现模型与网关的本地集成在下篇教程中我们将配置飞书机器人应用设置消息Webhook路由打包环境为可复用镜像获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2474295.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!