AI编程助手Claude Code、Codex、OpenCode一站式Docker环境

news2026/3/15 11:46:19
AI编程助手Claude Code、Codex、OpenCode一站式Docker环境一、为什么要搭建这样一个环境1.1 背景与动机1.2 你能得到什么二、相关截图二、整体架构与核心概念三、准备工作是什么 为什么3.1 基础环境3.2 可选Ollama服务四、详细操作步骤如何操作步骤1如果你在Windows上先安装WSL可选步骤2安装Docker如果没有步骤3启动Ollama服务宿主机或外部服务器步骤4测试Ollama服务可选步骤5创建并运行Docker容器步骤6初始化默认配置步骤7切换模型供应商以使用本地qwen3.5:9b为例步骤8集成飞书机器人OpenClaw可选8.1 设置模型及飞书App ID/Secret8.2 启动网关8.3 浏览器访问管理界面步骤9配置Web SSHeasynode可选9.1 设置SSH密码并启动SSH服务9.2 启动easynode9.3 获取自动生成的登录凭据9.4 浏览器访问步骤10使用三款AI编程工具10.1 Claude Code10.2 CodexOpenAI Codex10.3 OpenCode步骤11其他有用命令11.1 更新工具到最新版本11.2 切换不同模型/供应商的示例11.3 针对OpenCode的特殊说明步骤12进阶——使用MCP模型上下文协议五、常见问题与排错六、结语你是否好奇过不同AI编程助手如Claude Code、Codex、OpenCode在处理同一个任务时的表现差异想知道它们谁更聪明、谁更省token、谁更适合你的工作流本文将搭建一个开箱即用的对比实验环境让你能在同一台机器上、使用同一个模型甚至同一份提示词快速切换测试这三款主流AI编程工具。所有服务都运行在Docker容器内既安全又整洁还支持通过浏览器访问方便部署在云端服务器。一、为什么要搭建这样一个环境1.1 背景与动机AI编程助手正在改变我们写代码的方式。Claude CodeAnthropic出品、CodexOpenAI和OpenCode开源社区各有特色。然而不同工具需要不同的安装和环境配置容易污染本地系统。在本地运行大模型比如qwen3.5:9b需要GPU资源部署在云端更划算。想对比它们在相同任务下的表现需要一个可复现、可切换的统一环境。因此这里采用Docker方案隔离性所有依赖封装在容器里宿主机干干净净。可访问性通过Web SSH和Web UI随时随地用浏览器操作。低成本默认集成Ollama可使用本地模型如qwen3.5:9b也可切换至云端模型通过OpenRouter等。可对比一个容器内集成了三款主流CLI编程工具一键切换模型供应商方便做A/B测试。1.2 你能得到什么一个运行着SSH服务、Web SSH管理界面easynode、三款AI编程工具Claude Code, Codex, OpenCode的Docker容器。预配置的Ollama客户端可以连接本地或远程的Ollama服务使用任意模型。一套切换模型的Python脚本支持自定义API地址、模型名、API Key和代理。一个可选集成的飞书机器人OpenClaw方便在聊天中调用AI能力。二、相关截图二、整体架构与核心概念在开始操作前先理解几个关键组件组件是什么为什么需要Docker容器化平台将应用及其依赖打包成轻量级、可移植的容器隔离环境避免污染宿主机方便分发和部署Ollama大模型运行框架可以本地运行或连接云端模型API提供统一的模型访问接口支持多种模型本地/云端Claude Code / Codex / OpenCode三款基于终端的AI编程助手对比不同工具在相同模型下的表现Web SSH (easynode)通过浏览器访问容器内终端的工具无需安装SSH客户端随时随地操作容器OpenClaw连接飞书机器人的AI网关将AI能力接入聊天工具实现自动化办公MCP (Model Context Protocol)模型上下文协议允许AI工具调用外部工具如股票API扩展AI能力实现与真实世界交互三、准备工作是什么 为什么3.1 基础环境一台Linux服务器或Windows WSL如果你用的是Windows建议先安装WSLWindows Subsystem for Linux体验原生Linux环境。为什么Docker在Linux上运行最稳定大多数AI工具也针对Linux优化。Docker容器运行时我们用它创建和管理容器。为什么Docker能保证环境一致性避免“在我电脑上能跑”的问题。3.2 可选Ollama服务你可以选择在宿主机上运行Ollama若你有GPU也可以使用云端Ollama或OpenRouter。本教程以本地Ollama为例。为什么本地模型免费、无网络延迟云端模型可能更强但需付费。通过Ollama我们可以无缝切换。四、详细操作步骤如何操作下面每一步都会说明“是什么”、“为什么”和“如何操作”。请逐条执行注意替换示例中的IP地址、密钥等为你的实际信息。步骤1如果你在Windows上先安装WSL可选是什么WSL让你能在Windows上运行Linux系统无需虚拟机。为什么大多数AI工具和Docker原生支持Linux在WSL里操作更顺畅。如何操作# 安装Ubuntu 24.04发行版wsl--installUbuntu-24.04# 进入WSL环境wsl# 切换到root用户后续操作需要权限sudosu步骤2安装Docker如果没有是什么Docker是容器引擎我们用它拉取和运行镜像。为什么容器内已经打包好所有工具你只需一行命令就能启动完整环境。如何操作以Ubuntu为例# 更新软件包索引aptupdate# 安装必要工具aptinstall-ycurlwgetsudo# 添加Docker官方GPG密钥使用阿里云镜像加速curl-fsSLhttps://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg|sudogpg--dearmor-o/usr/share/keyrings/docker-archive-keyring.gpg# 添加Docker稳定版仓库echodeb [arch$(dpkg --print-architecture)signed-by/usr/share/keyrings/docker-archive-keyring.gpg] https://mirrors.aliyun.com/docker-ce/linux/ubuntu$(lsb_release-cs)stable|sudotee/etc/apt/sources.list.d/docker.list/dev/null# 再次更新并安装Dockersudoaptupdatesudoaptinstall-ydocker-ce docker-ce-cli containerd.io docker-compose-plugin# 验证安装docker--version步骤3启动Ollama服务宿主机或外部服务器是什么Ollama是一个大模型服务提供与OpenAI兼容的API接口。我们需要它来驱动AI编程助手。为什么容器内的AI工具会通过Ollama API调用模型。你可以选择在宿主机运行Ollama利用本地GPU也可以使用远程Ollama实例。如何操作在宿主机执行假设你已有Ollama二进制# 先关闭可能运行的Ollama进程避免端口冲突pkillollama# 设置环境变量优化性能exportOLLAMA_NUM_PARALLEL1# 并行请求数设为1可避免OOMexportOLLAMA_FLASH_ATTENTION1# 启用FlashAttention加速exportOLLAMA_KEEP_ALIVE-1# 模型常驻内存exportOLLAMA_HOST0.0.0.0:8000# 监听所有网卡的8000端口# 后台启动Ollama服务nohupollama serve# 如果你需要使用云端模型如minimax先登录ollama signin# 拉取一个云端模型免费版有速率限制ollama pull minimax-m2.5:cloud# 拉取一个本地模型这里使用qwen3.5:9bollama pull qwen3.5:9b注意如果宿主机没有GPUOllama会使用CPU运行速度较慢。此时可以考虑使用OpenRouter等云端API。步骤4测试Ollama服务可选是什么发送一个简单请求验证Ollama是否正常工作。为什么确保API可用避免后续AI工具调用失败。如何操作curl-XPOSThttp://localhost:8000/v1/chat/completions\-HContent-Type: application/json\-HAuthorization: Bearer sk-local\-d{ model: qwen3.5:9b, messages: [{role: user, content: 12?}], temperature: 0.2 }|jq.如果返回包含“3”的JSON说明服务正常。步骤5创建并运行Docker容器是什么从Docker Hub拉取预构建镜像创建容器并进入交互式Shell。为什么镜像swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/hi20240217/pub:claudecode_codex_opencode_openclaw已包含所有工具和依赖你无需手动安装。如何操作# 停止并删除同名容器如果之前存在dockerstop cowxl2/dev/nulldockerrmcowxl2/dev/null# 运行新容器dockerrun-itd--namecowxl--hostnamecowxl--privileged\--nethost\-v$PWD:/app\-w/app\swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/hi20240217/pub:claudecode_codex_opencode_openclaw /bin/bashdockerstart cowxldockerexec-ticowxlbash参数解释--name cowxl容器名。--hostname cowxl容器内的主机名。--privileged赋予容器特权以便启动SSH等系统服务。--nethost使用宿主机网络方便容器访问宿主机上的Ollama若Ollama在宿主机。-v $PWD:/app将当前目录挂载到容器的/app方便交换文件。-w /app工作目录设为/app。执行后你会进入容器的bash提示符。后续操作均在容器内进行。步骤6初始化默认配置是什么运行容器内的/opt/reset.sh脚本它会重置一些工具的默认配置确保环境干净。为什么避免之前使用残留的配置影响当前实验。如何操作/opt/reset.sh步骤7切换模型供应商以使用本地qwen3.5:9b为例是什么运行Python脚本修改AI工具的配置文件让它们指向你的Ollama服务。为什么Claude Code、Codex等默认使用官方API如Anthropic、OpenAI我们需要将它们重定向到自己的Ollama端点。如何操作python /opt/switch_model.py\--base_urlhttp://127.0.0.1:8000\--model_nameqwen3.5:9b\--api_keytest\--proxy# 使环境变量生效脚本会修改.bashrcsource~/.bashrc参数解释--base_urlOllama API地址容器内访问宿主机用127.0.0.1。--model_name模型名称。--api_keyOllama不需要真实key填任意值。--proxy无需代理脚本会修改/root/.claude-mem/settings.json、/root/.codex/config.toml等文件将API基础URL指向你的Ollama。步骤8集成飞书机器人OpenClaw可选是什么OpenClaw是一个AI网关可以将飞书群聊中的消息转发给模型并返回应答。为什么如果你想在团队协作中测试AI能力或者用飞书作为交互界面这个配置很有用。如何操作8.1 设置模型及飞书App ID/Secret# 配置飞书应用凭证需提前在飞书开放平台创建应用openclaw configsetchannels.feishu.appId你的appIdopenclaw configsetchannels.feishu.appSecret你的appSecret# 设置网关端口和鉴权token,后面http登陆需要传入这个tokenopenclaw configsetgateway.port8989openclaw configsetgateway.auth.token5903a6b692241a37fd0d17b0b08f639b9214e9de1793decd# 配置模型Ollamaopenclaw configsetmodels.providers.ollama.models[0].nameqwen3.5:9bopenclaw configsetmodels.providers.ollama.models[0].idqwen3.5:9bopenclaw configsetmodels.providers.ollama.apiKeyxxx# 设置默认使用的模型openclaw configsetagents.defaults.model.primaryollama/qwen3.5:9b8.2 启动网关nohupopenclaw gateway/app/openclaw.log218.3 浏览器访问管理界面打开http://你的服务器IP:8989/#token5903a6b692241a37fd0d17b0b08f639b9214e9de1793decd即可查看状态。步骤9配置Web SSHeasynode可选是什么easynode是一个基于Web的SSH客户端让你在浏览器里就能操作容器终端无需安装额外软件。为什么方便从任何设备包括手机登录容器尤其当容器部署在云端时。如何操作9.1 设置SSH密码并启动SSH服务# 设置root密码Hello123仅作示例建议修改exportpasswdHello123printf${passwd}\n${passwd}\n|passwdroot# 启动SSH服务脚本会启动sshdnohupsudo/usr/bin/run.sh9.2 启动easynodeexportENABLE_HTTPS1# 启用HTTPSexportHOST0.0.0.0# 监听所有IPcd/easynoderm/easynode/app/db-rfnohupnpmstart/easynode/log.txt219.3 获取自动生成的登录凭据cat/easynode/log.txt|egrep用户名|密码示例输出2026-03-11 15:48:11.089 [INFO] - 用户名: xSaHiazw 2026-03-11 15:48:11.089 [INFO] - 密码: FA7EsYQx9.4 浏览器访问打开https://你的服务器IP:8092/输入上面的用户名和密码即可获得Web终端。步骤10使用三款AI编程工具现在环境已就绪你可以开始体验了10.1 Claude Codeclaude首次运行会提示登录按指引操作若已配置模型切换会直接使用你的Ollama。之后即可在终端中与Claude对话让它帮你写代码、解释代码等。10.2 CodexOpenAI Codexcodex --dangerously-bypass-approvals-and-sandbox注意--dangerously-bypass-approvals-and-sandbox参数会绕过安全确认适合实验环境。10.3 OpenCodeopencodeOpenCode是一个开源实现界面类似。输入/model可以切换模型。步骤11其他有用命令11.1 更新工具到最新版本npmupdate-gopenai/codexnpmupdate-ganthropic/claude-codecurl-fsSLhttps://opencode.ai/install|bash11.2 切换不同模型/供应商的示例switch_model.py支持多种场景# 切换到qwen3.5:27bpython /opt/switch_model.py--base_urlhttp://127.0.0.1:8000\--model_nameqwen3.5:27b--api_keytest--proxysource~/.bashrc# 切换到Ollama上的另一个云端模型python /opt/switch_model.py--base_urlhttp://127.0.0.1:8000\--model_nameglm-5:cloud--api_keytest--proxysource~/.bashrc# 切换到OpenRouter聚合多家模型APIpython /opt/switch_model.py--base_urlhttps://openrouter.ai/api\--model_nameminimax/minimax-m2.5\--api_key你的api_key\--proxy# 如果OpenRouter需要代理如访问Claude模型python /opt/switch_model.py--base_urlhttps://openrouter.ai/api\--model_nameanthropic/claude-sonnet-4.6\--api_key你的OpenRouter密钥\--proxyhttp://你的代理服务器:端口11.3 针对OpenCode的特殊说明OpenCode默认使用Anthropic API如果你通过OpenRouter使用Claude模型需要先登录OpenRouteropencode auth login# 选择OpenRouter并输入API Keyopencode /model# 在对话中切换到OpenRouter下的对应模型步骤12进阶——使用MCP模型上下文协议是什么MCP是一种让AI模型调用外部工具如股票查询、数据库查询的协议。通过MCP你可以赋予AI编程助手实时获取信息的能力。为什么比如让Claude帮你查股票行情它需要调用外部APIMCP就是桥梁。如何操作以股票MCP为例在容器外或另一个终端启动MCP服务cd/optgitclone https://github.com/xinkuang/china-stock-mcpcdchina-stock-mcp pipinstall-rrequirements.txt --break-system-packages uv run-mchina_stock_mcp --streamable-http--host0.0.0.0--port8081在容器内配置Claude Code连接该MCP服务# 添加MCP服务器claude mcpadd--transporthttp stripe--scopelocalhttp://localhost:8081/mcp之后在Claude Code中提问关于股票的问题它会自动调用MCP工具获取数据。五、常见问题与排错Q容器内无法访问宿主机的OllamaA检查是否使用了--nethost并确认宿主机Ollama监听在0.0.0.0:8000而非127.0.0.1。在容器内用curl 127.0.0.1:8000测试。QAI工具报错“Invalid API Key”AOllama不需要真实key但工具可能要求非空脚本已填入“test”。如果使用OpenRouter务必填入有效密钥。Qeasynode无法访问A确认防火墙开放了8092端口并且容器内nohup npm start正常运行。查看日志cat /easynode/log.txt。Q我想用其他模型如DeepSeekA通过switch_model.py指定对应模型的base_url和model_name。如果是Ollama模型先ollama pull。六、结语通过本文你应该能成功搭建一个集成了Claude Code、Codex、OpenCode的Docker环境并自由切换不同模型。这个环境不仅是对比测试的利器也是学习AI编程助手、探索MCP的绝佳平台。希望你能用这个环境发现更多有趣的用法也欢迎分享你的测试结果和心得如果你在搭建过程中遇到问题或有改进建议欢迎在评论区留言交流。祝你玩得开心资源链接股票MCP仓库https://github.com/xinkuang/china-stock-mcp社区Skill分享https://awesomeclaude.ai/

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2413707.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…