Claude Code 接入 DeepSeek、GLM、MiniMax 等国产大模型,保姆级教程!
每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型这份指南是专门为那些“只想赶紧上手开干”的朋友准备的。咱们不整那些虚头巴脑的理论直接帮你搞定这几件事怎么把 Claude Code 装好如何确定它已经能跑通了怎样把国产模型塞进去替代原生模型进阶玩法如何实现多模型智能分工要是你头一回玩 Claude Code听我一句劝老老实实按这篇教程的步子走别一上来就整太复杂的骚操作。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型一、搞清楚核心你要的是“老司机的工作流”而不只是换个底座用 Claude Code 真正爽的地方不在于模型多聪明而在于它那套丝滑的干活姿势直接在终端里指挥不用切来切去自动翻看你项目里的代码逻辑帮你写代码、改文件能自己跑命令、测 Bug顺着 Git 的路子帮你把活儿干完所以咱们的思路是把 Claude Code 这种牛叉的工作体验留住只是把底层的“大脑”换成更便宜、速度更快、更适合国内网络环境的模型。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型比如大家都在用的DeepSeek 系列智谱的 GLM 4/5MiniMax 的 M2.5通义千问 Qwen或者是通过各种聚合平台接进来的其他模型。二、安装 Claude Code2.1 常见的 npm 安装法动手之前先瞄一眼你电脑里装没装 Node.jsnode -v npm -v只要能看到版本号蹦出来直接上手安装就行了npm install -g anthropic-ai/claude-code装完测一下灵不灵claude --version出了版本号就说明稳了。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型2.2 官方脚本直接拉不想碰 npm 的朋友可以直接用官方给的脚本。macOS / Linux / WSL 系统curl -fsSL https://claude.ai/install.sh | bashWindows 用户PowerShellirm https://claude.ai/install.ps1 | iexWindows 用户CMD 命令行curl -fsSL https://claude.ai/install.cmd -o install.cmd install.cmd del install.cmd装好了别忘了也跑一下claude --version确认下。三、先跑原版流程看看 Claude Code 本体正常不随便进个你的代码项目目录cd /你的项目路径 claude头一回开的时候它会让你登录授权啥的按提示做就行。这时候先别急着捣鼓换模型先看看这几样行不行工具能不能正常启动能不能读懂你项目里的文件你说话它听不听得懂你可以试着丢给它几个任务帮我讲讲这个项目的代码结构 给 utils/date.ts 补个测试用例 把这个函数改成异步 async/await 的写法 帮我搜搜看这个模块里有没有潜在的坑这一步要是顺溜了咱们再接着折腾接入国产模型的事。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型四、最简单的法子直接“调包”接口地址这一部分是全文含金量最高、也最适合新手直接复制粘贴的地方。只要对方的 API 接口能兼容 Anthropic 的格式我们直接改个环境变量就能把模型偷梁换柱。首选推荐这两个DeepSeek智谱 GLM这俩接起来最不容易出差错。五、接入 DeepSeek性价比之选5.1 临时玩玩关了终端就失效在你的终端里直接敲export ANTHROPIC_BASE_URLhttps://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN这里填你申请的_DEEPSEEK_API_KEY export API_TIMEOUT_MS600000 export ANTHROPIC_MODELdeepseek-chat export ANTHROPIC_SMALL_FAST_MODELdeepseek-chat export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC1然后进项目开跑cd /你的项目路径 claude能对话就说明 DeepSeek 已经成功上位了。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型5.2 长期打算推荐这种要是你用的是 zsh就把下面这段塞进~/.zshrcexport ANTHROPIC_BASE_URLhttps://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN这里填你申请的_DEEPSEEK_API_KEY export API_TIMEOUT_MS600000 export ANTHROPIC_MODELdeepseek-chat export ANTHROPIC_SMALL_FAST_MODELdeepseek-chat export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC1改完别忘了刷一下配置source ~/.zshrc。要是用 bash 的就去改~/.bashrc内容一样改完跑source ~/.bashrc。5.3 检查一下 DeepSeek 是不是真干活了看看环境变量对不对echo $ANTHROPIC_BASE_URL echo $ANTHROPIC_MODEL只要看到https://api.deepseek.com/anthropic和deepseek-chat那就没跑了。再启动claude让它写段 Python 的 Hello World没报错就说明彻底搞定了。六、接入 GLM国内开发者的稳当选择接 GLM 有两个路子改配置文件~/.claude/settings.json还是用 shell 环境变量建议你先试 JSON 这种不行再退回环境变量。6.1 用配置文件 settings.json 搞定先把文件夹建好mkdir -p ~/.claude打开并编辑nano ~/.claude/settings.json把这段东西糊上去{ env: { ANTHROPIC_AUTH_TOKEN: 填你的_GLM_API_KEY, ANTHROPIC_BASE_URL: https://open.bigmodel.cn/api/anthropic, API_TIMEOUT_MS: 3000000, ANTHROPIC_DEFAULT_HAIKU_MODEL: glm-4.5-air, ANTHROPIC_DEFAULT_SONNET_MODEL: glm-4.6, ANTHROPIC_DEFAULT_OPUS_MODEL: glm-4.6 } }保存退出来直接开干claude。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型6.2 环境变量法备用方案万一配置文件不灵直接在终端里轰export ANTHROPIC_AUTH_TOKEN你的_GLM_API_KEY export ANTHROPIC_BASE_URLhttps://open.bigmodel.cn/api/anthropic export API_TIMEOUT_MS3000000 export ANTHROPIC_DEFAULT_HAIKU_MODELglm-4.5-air export ANTHROPIC_DEFAULT_SONNET_MODELglm-4.6 export ANTHROPIC_DEFAULT_OPUS_MODELglm-4.6然后再跑claude。想永久改就跟前面说的一样塞进 shell 配置文件。6.3 验一下 GLM 行不行查查变量echo $ANTHROPIC_BASE_URL echo $ANTHROPIC_DEFAULT_SONNET_MODEL开 Claude Code 问它一句“简述一下这个仓库是干嘛的”接口没蹦红字就说明妥了。七、MiniMax-M2.5更适合放在后台跑说点掏心窝子的话MiniMax 确实不错但我不太建议你直接拿它当 Claude Code 的首选底座。倒不是模型本身有问题主要是适配的稳定性得看这几点接口兼容性够不够强聚合平台给不给力路由器转发的时候会不会丢包所以最靠谱的操作是先把 DeepSeek 或者 GLM 跑利索。然后把 MiniMax 挂在后面当辅助。简单说它更适合出现在 OpenRouter、各种聚合平台或者自建的 Router 系统里。八、进阶搞定多模型路由器 (CCR)要是你觉得“能用就行”那看到这可以关了。但如果你想让活儿干得更漂亮小活碎活交给便宜模型烧脑难题交给强力模型几万行的长代码交给长文本模型一个模型挂了另一个赶紧顶上那你就得试试 CCRClaude Code Router了。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型8.1 安装 CCRnpm install -g musistudio/claude-code-router看看装上没ccr --help8.2 建个配置档mkdir -p ~/.claude-code-router nano ~/.claude-code-router/config.json8.3 来份即插即用的最小化配置这份配置专门为新手优化过保你一接就通。{ LOG: true, API_TIMEOUT_MS: 600000, NON_INTERACTIVE_MODE: false, Providers: [ { name: deepseek, api_base_url: https://api.deepseek.com/chat/completions, api_key: 这里填 DeepSeek 的 Key, models: [deepseek-chat, deepseek-reasoner], transformer: { use: [deepseek], deepseek-chat: { use: [tooluse] } } }, { name: glm, api_base_url: https://open.bigmodel.cn/api/paas/v4/chat/completions, api_key: 这里填 GLM 的 Key, models: [glm-4.6, glm-4.5-air] } ], Router: { default: deepseek,deepseek-chat, think: deepseek,deepseek-reasoner, background: glm,glm-4.5-air, longContext: glm,glm-4.6, longContextThreshold: 60000 } }这逻辑很清晰日常活儿 DeepSeek Chat 包了钻牛角尖的事交给 DeepSeek Reasoner背景杂活交给便宜的 GLM 4.5 Air大长篇交给 GLM 4.68.4 启动 CCR 代理版 Claude Code别直接跑 claude 了跑这个ccr code这就是让 CCR 充当“中介”在底层帮你管理模型。要是改了配置记得ccr restart重启一下。想看管理台就敲ccr ui想管模型就敲ccr model。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型九、教你一套超好用的模型分工策略很多人最容易犯的错就是一招鲜吃遍天。聪明的干法是分层A 方案穷玩版极致省钱日常DeepSeek V3.2推理DeepSeek Reasoner 或者 GLM 5超长代码GLM 5 或者 通义 Qwen杂务随温找个便宜模型B 方案稳如老狗版主打GLM 4.6 或 5推理专门的推理型模型长文本看谁稳就用谁兜底DeepSeek V3.2C 方案MiniMax 尝鲜版通过聚合平台接进 MiniMax M2.5专门干代码生成这种特定任务记得留个 DeepSeek 随时备用说到底别迷信最强模型要找最合适的那个。十、避坑指南遇到问题怎么办10.1 找不到 claude 命令八成是没装好或者是你的 npm 路径没加进 PATH。查一下npm root -g npm bin -g装了却找不到就把那个 bin 目录加到系统路径里。10.2 API Key 报错401、授权失败等看看变量里是不是空的echo $ANTHROPIC_AUTH_TOKEN没东西说明你配完了没source或者是 shell 配置文件写错地方了。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型10.3 接口地址不对404、模型找不到检查 Base URL 对不对echo $ANTHROPIC_BASE_URL绝大多数报错都是因为这行地址写漏了或者写错了。10.4 CCR 路由器配置报错检查一下 JSON 有没有少个逗号、模型名是不是抄错了。最简单的法子是丢给 JSON 校验器跑一下或者直接cat ~/.claude-code-router/config.json仔细盯着看一遍。10.5 连上了但干活很拉胯这通常不是坏了而是模型不支持工具调用Tool Use处理多步复杂任务的能力不够你给便宜模型出的题太难了所以说分工真的很重要。十一、最快上手建议如果你想现在就开始别犹豫直接按这个走简单粗暴版npm install -g anthropic-ai/claude-code装好。进个项目敲claude确认原版能跑。复制 5.1 节那堆 DeepSeek 环境变量跑一下。重新开claude开干。每天免费领 1亿 Token白嫖DeepSeek、GLM、MiniMax、Kimi等大模型职业玩家版Claude Code 照样装。npm install -g musistudio/claude-code-router把路由器装了。把 8.3 节的配置抄到~/.claude-code-router/config.json。跑ccr code享受多模型切换。十二、该怎么选给新手的最后建议只是想新鲜一下用 Claude Code 接 DeepSeek 或者 GLM。先跑通感受下在终端写代码的爽。打算正儿八经干活直接上 CCR 多模型方案把分工和兜底都搞好。非要用 MiniMax别急着拿它当主力先按前两种法子跑通再慢慢通过路由器把它加进来。十三、总结一句话Claude Code 让 AI 真正像个同事一样在你身边写代码而接国产模型是为了让这个“同事”不仅干活溜而且还便宜、不掉线。按着我的路子先跑通再细分最后上路由器这才是最稳的开发姿势。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2487060.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!