openclaw添加本地大模型支持接受图片输入
这里写自定义目录标题1.故障现象2.背景3.解法4.排查1.故障现象openclaw gateway的聊天处上传图片报错parseMessageWithAttachments: 1 attachment(s) dropped — model does not support images2.背景qwen3.5的大模型原本就是多模态的支持图片的输入。llama.cpp启动qwen3.5的大模型配上mmproj就是能支持图片输入的。此时用open-webui连接它能够上传图片llama-server -fa on -t 8\ -ngl 99\ -c 131072\ -mm /media/f/aigc/llm/models/qwen3.5/35b/mmproj-BF16.gguf\ -m /media/f/aigc/llm/models/qwen3.5/35b/Qwen3.5-35B-A3B-UD-IQ3_XXS.ggufopenclaw onboard添加它时选customer provider选8080端口不要加v1选open兼容接口。之后在openclaw.json的provider里的这个模型的input要加上image。前几天也是可以在gateway的网页处上传图片的。今天不知道怎么不行了不知道是不是跟更新到20260331版本有关。3.解法在.openclaw/agents/main/agent/models.json里找到provider添加apiKey:“local”例如providers: { llama-cpp: { baseUrl: http://127.0.0.1:8080, api: openai-completions, apiKey: local, models: [...] }4.排查trae开启builder使用glm-5大模型汇报故障现象告诉它.openclaw目录位置它自己会去github找源码10分钟搞定。碉堡了本地的qwen3.5-35b-a3b-iq3.gguf折腾了1个小时都没搞定。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2479636.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!