AI编程助手Claude Code、Codex、OpenCode一站式Docker环境
AI编程助手Claude Code、Codex、OpenCode一站式Docker环境一、为什么要搭建这样一个环境1.1 背景与动机1.2 你能得到什么二、相关截图二、整体架构与核心概念三、准备工作是什么 为什么3.1 基础环境3.2 可选Ollama服务四、详细操作步骤如何操作步骤1如果你在Windows上先安装WSL可选步骤2安装Docker如果没有步骤3启动Ollama服务宿主机或外部服务器步骤4测试Ollama服务可选步骤5创建并运行Docker容器步骤6初始化默认配置步骤7切换模型供应商以使用本地qwen3.5:9b为例步骤8集成飞书机器人OpenClaw可选8.1 设置模型及飞书App ID/Secret8.2 启动网关8.3 浏览器访问管理界面步骤9配置Web SSHeasynode可选9.1 设置SSH密码并启动SSH服务9.2 启动easynode9.3 获取自动生成的登录凭据9.4 浏览器访问步骤10使用三款AI编程工具10.1 Claude Code10.2 CodexOpenAI Codex10.3 OpenCode步骤11其他有用命令11.1 更新工具到最新版本11.2 切换不同模型/供应商的示例11.3 针对OpenCode的特殊说明步骤12进阶——使用MCP模型上下文协议五、常见问题与排错六、结语你是否好奇过不同AI编程助手如Claude Code、Codex、OpenCode在处理同一个任务时的表现差异想知道它们谁更聪明、谁更省token、谁更适合你的工作流本文将搭建一个开箱即用的对比实验环境让你能在同一台机器上、使用同一个模型甚至同一份提示词快速切换测试这三款主流AI编程工具。所有服务都运行在Docker容器内既安全又整洁还支持通过浏览器访问方便部署在云端服务器。一、为什么要搭建这样一个环境1.1 背景与动机AI编程助手正在改变我们写代码的方式。Claude CodeAnthropic出品、CodexOpenAI和OpenCode开源社区各有特色。然而不同工具需要不同的安装和环境配置容易污染本地系统。在本地运行大模型比如qwen3.5:9b需要GPU资源部署在云端更划算。想对比它们在相同任务下的表现需要一个可复现、可切换的统一环境。因此这里采用Docker方案隔离性所有依赖封装在容器里宿主机干干净净。可访问性通过Web SSH和Web UI随时随地用浏览器操作。低成本默认集成Ollama可使用本地模型如qwen3.5:9b也可切换至云端模型通过OpenRouter等。可对比一个容器内集成了三款主流CLI编程工具一键切换模型供应商方便做A/B测试。1.2 你能得到什么一个运行着SSH服务、Web SSH管理界面easynode、三款AI编程工具Claude Code, Codex, OpenCode的Docker容器。预配置的Ollama客户端可以连接本地或远程的Ollama服务使用任意模型。一套切换模型的Python脚本支持自定义API地址、模型名、API Key和代理。一个可选集成的飞书机器人OpenClaw方便在聊天中调用AI能力。二、相关截图二、整体架构与核心概念在开始操作前先理解几个关键组件组件是什么为什么需要Docker容器化平台将应用及其依赖打包成轻量级、可移植的容器隔离环境避免污染宿主机方便分发和部署Ollama大模型运行框架可以本地运行或连接云端模型API提供统一的模型访问接口支持多种模型本地/云端Claude Code / Codex / OpenCode三款基于终端的AI编程助手对比不同工具在相同模型下的表现Web SSH (easynode)通过浏览器访问容器内终端的工具无需安装SSH客户端随时随地操作容器OpenClaw连接飞书机器人的AI网关将AI能力接入聊天工具实现自动化办公MCP (Model Context Protocol)模型上下文协议允许AI工具调用外部工具如股票API扩展AI能力实现与真实世界交互三、准备工作是什么 为什么3.1 基础环境一台Linux服务器或Windows WSL如果你用的是Windows建议先安装WSLWindows Subsystem for Linux体验原生Linux环境。为什么Docker在Linux上运行最稳定大多数AI工具也针对Linux优化。Docker容器运行时我们用它创建和管理容器。为什么Docker能保证环境一致性避免“在我电脑上能跑”的问题。3.2 可选Ollama服务你可以选择在宿主机上运行Ollama若你有GPU也可以使用云端Ollama或OpenRouter。本教程以本地Ollama为例。为什么本地模型免费、无网络延迟云端模型可能更强但需付费。通过Ollama我们可以无缝切换。四、详细操作步骤如何操作下面每一步都会说明“是什么”、“为什么”和“如何操作”。请逐条执行注意替换示例中的IP地址、密钥等为你的实际信息。步骤1如果你在Windows上先安装WSL可选是什么WSL让你能在Windows上运行Linux系统无需虚拟机。为什么大多数AI工具和Docker原生支持Linux在WSL里操作更顺畅。如何操作# 安装Ubuntu 24.04发行版wsl--installUbuntu-24.04# 进入WSL环境wsl# 切换到root用户后续操作需要权限sudosu步骤2安装Docker如果没有是什么Docker是容器引擎我们用它拉取和运行镜像。为什么容器内已经打包好所有工具你只需一行命令就能启动完整环境。如何操作以Ubuntu为例# 更新软件包索引aptupdate# 安装必要工具aptinstall-ycurlwgetsudo# 添加Docker官方GPG密钥使用阿里云镜像加速curl-fsSLhttps://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg|sudogpg--dearmor-o/usr/share/keyrings/docker-archive-keyring.gpg# 添加Docker稳定版仓库echodeb [arch$(dpkg --print-architecture)signed-by/usr/share/keyrings/docker-archive-keyring.gpg] https://mirrors.aliyun.com/docker-ce/linux/ubuntu$(lsb_release-cs)stable|sudotee/etc/apt/sources.list.d/docker.list/dev/null# 再次更新并安装Dockersudoaptupdatesudoaptinstall-ydocker-ce docker-ce-cli containerd.io docker-compose-plugin# 验证安装docker--version步骤3启动Ollama服务宿主机或外部服务器是什么Ollama是一个大模型服务提供与OpenAI兼容的API接口。我们需要它来驱动AI编程助手。为什么容器内的AI工具会通过Ollama API调用模型。你可以选择在宿主机运行Ollama利用本地GPU也可以使用远程Ollama实例。如何操作在宿主机执行假设你已有Ollama二进制# 先关闭可能运行的Ollama进程避免端口冲突pkillollama# 设置环境变量优化性能exportOLLAMA_NUM_PARALLEL1# 并行请求数设为1可避免OOMexportOLLAMA_FLASH_ATTENTION1# 启用FlashAttention加速exportOLLAMA_KEEP_ALIVE-1# 模型常驻内存exportOLLAMA_HOST0.0.0.0:8000# 监听所有网卡的8000端口# 后台启动Ollama服务nohupollama serve# 如果你需要使用云端模型如minimax先登录ollama signin# 拉取一个云端模型免费版有速率限制ollama pull minimax-m2.5:cloud# 拉取一个本地模型这里使用qwen3.5:9bollama pull qwen3.5:9b注意如果宿主机没有GPUOllama会使用CPU运行速度较慢。此时可以考虑使用OpenRouter等云端API。步骤4测试Ollama服务可选是什么发送一个简单请求验证Ollama是否正常工作。为什么确保API可用避免后续AI工具调用失败。如何操作curl-XPOSThttp://localhost:8000/v1/chat/completions\-HContent-Type: application/json\-HAuthorization: Bearer sk-local\-d{ model: qwen3.5:9b, messages: [{role: user, content: 12?}], temperature: 0.2 }|jq.如果返回包含“3”的JSON说明服务正常。步骤5创建并运行Docker容器是什么从Docker Hub拉取预构建镜像创建容器并进入交互式Shell。为什么镜像swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/hi20240217/pub:claudecode_codex_opencode_openclaw已包含所有工具和依赖你无需手动安装。如何操作# 停止并删除同名容器如果之前存在dockerstop cowxl2/dev/nulldockerrmcowxl2/dev/null# 运行新容器dockerrun-itd--namecowxl--hostnamecowxl--privileged\--nethost\-v$PWD:/app\-w/app\swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/hi20240217/pub:claudecode_codex_opencode_openclaw /bin/bashdockerstart cowxldockerexec-ticowxlbash参数解释--name cowxl容器名。--hostname cowxl容器内的主机名。--privileged赋予容器特权以便启动SSH等系统服务。--nethost使用宿主机网络方便容器访问宿主机上的Ollama若Ollama在宿主机。-v $PWD:/app将当前目录挂载到容器的/app方便交换文件。-w /app工作目录设为/app。执行后你会进入容器的bash提示符。后续操作均在容器内进行。步骤6初始化默认配置是什么运行容器内的/opt/reset.sh脚本它会重置一些工具的默认配置确保环境干净。为什么避免之前使用残留的配置影响当前实验。如何操作/opt/reset.sh步骤7切换模型供应商以使用本地qwen3.5:9b为例是什么运行Python脚本修改AI工具的配置文件让它们指向你的Ollama服务。为什么Claude Code、Codex等默认使用官方API如Anthropic、OpenAI我们需要将它们重定向到自己的Ollama端点。如何操作python /opt/switch_model.py\--base_urlhttp://127.0.0.1:8000\--model_nameqwen3.5:9b\--api_keytest\--proxy# 使环境变量生效脚本会修改.bashrcsource~/.bashrc参数解释--base_urlOllama API地址容器内访问宿主机用127.0.0.1。--model_name模型名称。--api_keyOllama不需要真实key填任意值。--proxy无需代理脚本会修改/root/.claude-mem/settings.json、/root/.codex/config.toml等文件将API基础URL指向你的Ollama。步骤8集成飞书机器人OpenClaw可选是什么OpenClaw是一个AI网关可以将飞书群聊中的消息转发给模型并返回应答。为什么如果你想在团队协作中测试AI能力或者用飞书作为交互界面这个配置很有用。如何操作8.1 设置模型及飞书App ID/Secret# 配置飞书应用凭证需提前在飞书开放平台创建应用openclaw configsetchannels.feishu.appId你的appIdopenclaw configsetchannels.feishu.appSecret你的appSecret# 设置网关端口和鉴权token,后面http登陆需要传入这个tokenopenclaw configsetgateway.port8989openclaw configsetgateway.auth.token5903a6b692241a37fd0d17b0b08f639b9214e9de1793decd# 配置模型Ollamaopenclaw configsetmodels.providers.ollama.models[0].nameqwen3.5:9bopenclaw configsetmodels.providers.ollama.models[0].idqwen3.5:9bopenclaw configsetmodels.providers.ollama.apiKeyxxx# 设置默认使用的模型openclaw configsetagents.defaults.model.primaryollama/qwen3.5:9b8.2 启动网关nohupopenclaw gateway/app/openclaw.log218.3 浏览器访问管理界面打开http://你的服务器IP:8989/#token5903a6b692241a37fd0d17b0b08f639b9214e9de1793decd即可查看状态。步骤9配置Web SSHeasynode可选是什么easynode是一个基于Web的SSH客户端让你在浏览器里就能操作容器终端无需安装额外软件。为什么方便从任何设备包括手机登录容器尤其当容器部署在云端时。如何操作9.1 设置SSH密码并启动SSH服务# 设置root密码Hello123仅作示例建议修改exportpasswdHello123printf${passwd}\n${passwd}\n|passwdroot# 启动SSH服务脚本会启动sshdnohupsudo/usr/bin/run.sh9.2 启动easynodeexportENABLE_HTTPS1# 启用HTTPSexportHOST0.0.0.0# 监听所有IPcd/easynoderm/easynode/app/db-rfnohupnpmstart/easynode/log.txt219.3 获取自动生成的登录凭据cat/easynode/log.txt|egrep用户名|密码示例输出2026-03-11 15:48:11.089 [INFO] - 用户名: xSaHiazw 2026-03-11 15:48:11.089 [INFO] - 密码: FA7EsYQx9.4 浏览器访问打开https://你的服务器IP:8092/输入上面的用户名和密码即可获得Web终端。步骤10使用三款AI编程工具现在环境已就绪你可以开始体验了10.1 Claude Codeclaude首次运行会提示登录按指引操作若已配置模型切换会直接使用你的Ollama。之后即可在终端中与Claude对话让它帮你写代码、解释代码等。10.2 CodexOpenAI Codexcodex --dangerously-bypass-approvals-and-sandbox注意--dangerously-bypass-approvals-and-sandbox参数会绕过安全确认适合实验环境。10.3 OpenCodeopencodeOpenCode是一个开源实现界面类似。输入/model可以切换模型。步骤11其他有用命令11.1 更新工具到最新版本npmupdate-gopenai/codexnpmupdate-ganthropic/claude-codecurl-fsSLhttps://opencode.ai/install|bash11.2 切换不同模型/供应商的示例switch_model.py支持多种场景# 切换到qwen3.5:27bpython /opt/switch_model.py--base_urlhttp://127.0.0.1:8000\--model_nameqwen3.5:27b--api_keytest--proxysource~/.bashrc# 切换到Ollama上的另一个云端模型python /opt/switch_model.py--base_urlhttp://127.0.0.1:8000\--model_nameglm-5:cloud--api_keytest--proxysource~/.bashrc# 切换到OpenRouter聚合多家模型APIpython /opt/switch_model.py--base_urlhttps://openrouter.ai/api\--model_nameminimax/minimax-m2.5\--api_key你的api_key\--proxy# 如果OpenRouter需要代理如访问Claude模型python /opt/switch_model.py--base_urlhttps://openrouter.ai/api\--model_nameanthropic/claude-sonnet-4.6\--api_key你的OpenRouter密钥\--proxyhttp://你的代理服务器:端口11.3 针对OpenCode的特殊说明OpenCode默认使用Anthropic API如果你通过OpenRouter使用Claude模型需要先登录OpenRouteropencode auth login# 选择OpenRouter并输入API Keyopencode /model# 在对话中切换到OpenRouter下的对应模型步骤12进阶——使用MCP模型上下文协议是什么MCP是一种让AI模型调用外部工具如股票查询、数据库查询的协议。通过MCP你可以赋予AI编程助手实时获取信息的能力。为什么比如让Claude帮你查股票行情它需要调用外部APIMCP就是桥梁。如何操作以股票MCP为例在容器外或另一个终端启动MCP服务cd/optgitclone https://github.com/xinkuang/china-stock-mcpcdchina-stock-mcp pipinstall-rrequirements.txt --break-system-packages uv run-mchina_stock_mcp --streamable-http--host0.0.0.0--port8081在容器内配置Claude Code连接该MCP服务# 添加MCP服务器claude mcpadd--transporthttp stripe--scopelocalhttp://localhost:8081/mcp之后在Claude Code中提问关于股票的问题它会自动调用MCP工具获取数据。五、常见问题与排错Q容器内无法访问宿主机的OllamaA检查是否使用了--nethost并确认宿主机Ollama监听在0.0.0.0:8000而非127.0.0.1。在容器内用curl 127.0.0.1:8000测试。QAI工具报错“Invalid API Key”AOllama不需要真实key但工具可能要求非空脚本已填入“test”。如果使用OpenRouter务必填入有效密钥。Qeasynode无法访问A确认防火墙开放了8092端口并且容器内nohup npm start正常运行。查看日志cat /easynode/log.txt。Q我想用其他模型如DeepSeekA通过switch_model.py指定对应模型的base_url和model_name。如果是Ollama模型先ollama pull。六、结语通过本文你应该能成功搭建一个集成了Claude Code、Codex、OpenCode的Docker环境并自由切换不同模型。这个环境不仅是对比测试的利器也是学习AI编程助手、探索MCP的绝佳平台。希望你能用这个环境发现更多有趣的用法也欢迎分享你的测试结果和心得如果你在搭建过程中遇到问题或有改进建议欢迎在评论区留言交流。祝你玩得开心资源链接股票MCP仓库https://github.com/xinkuang/china-stock-mcp社区Skill分享https://awesomeclaude.ai/
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2413707.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!