DeerFlow2.0 Docker + 本地 Ollama qwen3.5:9b 部署指南
DeerFlow2.0 Docker 本地 Ollama qwen3.5:9b 部署指南实现 Token 自由本地模型免费 1. 前提条件Windows 11 家庭版版本号 25H2Docker Desktop 已安装并运行WSL2 已安装并配置Ollama 已安装ollama version is 0.18.3Git 已安装硬件环境OMEN笔记本 RTX5090 24G显存/32G内存2. 部署步骤2.1 克隆代码库gitclone https://github.com/bytedance/deer-flow.gitcddeer-flow2.2 配置 Ollama 服务修改 Ollama 绑定地址# 设置环境变量使 Ollama 绑定到所有网络接口$env:OLLAMA_HOST0.0.0.0:11434# 启动 Ollama 服务ollama serve拉取 qwen3.5:9b 模型ollama pull qwen3.5:9b2.3 配置 deer-flow创建配置文件复制config.example.yaml为config.yaml并修改以下内容# 模型配置models:# 本地 Ollama 模型-name:qwen3.5:9bdisplay_name:Qwen 3.5 9Buse:langchain_openai:ChatOpenAImodel:qwen3.5:9bapi_key:testbase_url:http://你的主机IP:11434/v1# 替换为你的主机实际IPmax_tokens:4096temperature:0.7supports_vision:true# Checkpointer 配置checkpointer:type:memory获取主机 IP 地址ipconfig|findstr IPv4选择一个可以被 Docker 容器访问的 IP 地址通常是以太网适配器的 IP。2.4 启动 Docker 服务cddockerdocker-composeup-d2.5 验证部署检查容器状态docker-composeps测试 Ollama 连接dockerexecdeer-flow-langgraphcurl-shttp://你的主机IP:11434/api/tags访问 deer-flow打开浏览器访问http://localhost:20263. 配置文件详细说明3.1 核心配置项3.1.1 模型配置models:-name:qwen3.5:9b# 模型名称与 Ollama 中的模型名一致display_name:Qwen 3.5 9B# 显示名称use:langchain_openai:ChatOpenAI# 使用的模型类model:qwen3.5:9b# 模型标识api_key:test# Ollama 不需要实际 API 密钥随意设置base_url:http://你的主机IP:11434/v1# Ollama API 地址max_tokens:4096# 最大 token 数temperature:0.7# 温度参数supports_vision:true# 是否支持视觉3.1.2 Checkpointer 配置checkpointer:type:memory# 内存型 checkpointer适用于开发环境# 其他选项# type: sqlite # 文件型需要安装 langgraph-checkpoint-sqlite# type: postgres # 数据库型需要安装相关依赖3.1.3 沙箱配置sandbox:use:deerflow.sandbox.local:LocalSandboxProvider# 本地沙箱# 或使用容器沙箱# use: deerflow.community.aio_sandbox:AioSandboxProvider3.1.4 工具配置tools:# Web 搜索工具-name:web_searchgroup:webuse:deerflow.community.ddg_search.tools:web_search_toolmax_results:5# 文件操作工具-name:lsgroup:file:readuse:deerflow.sandbox.tools:ls_tool-name:read_filegroup:file:readuse:deerflow.sandbox.tools:read_file_tool-name:write_filegroup:file:writeuse:deerflow.sandbox.tools:write_file_tool# Bash 执行工具-name:bashgroup:bashuse:deerflow.sandbox.tools:bash_tool3.2 其他重要配置3.2.1 内存配置memory:enabled:true# 启用内存storage_path:memory.json# 内存存储路径debounce_seconds:30# 更新等待时间model_name:null# 使用默认模型max_facts:100# 最大事实数fact_confidence_threshold:0.7# 事实置信度阈值injection_enabled:true# 启用内存注入max_injection_tokens:2000# 最大注入 token 数3.2.2 标题生成配置title:enabled:true# 启用标题生成max_words:6# 最大单词数max_chars:60# 最大字符数model_name:null# 使用默认模型3.2.3 摘要配置summarization:enabled:true# 启用摘要model_name:null# 使用默认模型trigger:-type:tokensvalue:15564# 触发摘要的 token 数keep:type:messagesvalue:10# 保留的消息数trim_tokens_to_summarize:15564# 摘要前修剪的 token 数4. 常见问题解决4.1 Ollama 连接问题症状Docker 容器无法连接到 Ollama 服务原因Ollama 默认只绑定在 127.0.0.1解决方案设置OLLAMA_HOST0.0.0.0:11434并重启 Ollama 服务4.2 内部错误症状访问 deer-flow 时出现内部错误原因配置文件格式错误或模型连接失败解决方案检查配置文件格式确保 Ollama 服务正常运行4.3 模型加载失败症状模型无法加载或响应原因Ollama 模型未正确拉取或服务未运行解决方案确保ollama pull qwen3.5:9b成功且 Ollama 服务正在运行5. 服务管理5.1 启动服务cddockerdocker-composeup-d5.2 停止服务cddockerdocker-composedown5.3 查看日志cddockerdocker-composelogs5.4 重启服务cddockerdocker-composerestart6. 注意事项Ollama 服务需要保持 Ollama 服务运行否则 deer-flow 将无法连接到模型网络连接确保 Docker 容器可以访问主机的 Ollama 服务资源需求qwen3.5:9b 模型需要较大的内存建议至少 16GB配置备份定期备份config.yaml文件以防配置丢失安全考虑在生产环境中应设置合适的访问控制和 API 密钥7. 运行效果8. 参考链接Deer-Flow GitHub 仓库https://github.com/bytedance/deer-flowOllama 官方文档https://ollama.com/docDocker Compose 文档https://docs.docker.com/compose
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2468694.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!