国内主流大模型API调用入门与对比:DeepSeek/智谱GLM/Kimi/千问完整指南
国内主流大模型API调用入门与对比指南随着人工智能技术的飞速发展国内大模型厂商推出的API服务已经相当成熟本文将详细介绍DeepSeek、智谱GLM、Kimi月之暗面和阿里千问四大主流国产大模型的API调用方式帮助开发者快速上手并选择最适合自己业务需求的方案。一、API调用通用模式虽然各厂商的API细节有所不同但核心调用模式基本一致都遵循以下结构┌─────────────────────────────────────────────────────┐ │ API 调用流程 │ ├─────────────────────────────────────────────────────┤ │ 1. 获取 API Key (身份认证) │ │ 2. 选择 API 端点 (base_url) │ │ 3. 构造 messages 请求体 │ │ - system: 系统提示词 │ │ - user: 用户输入 │ │ - assistant: 模型回复 │ │ 4. 调用 chat.completions.create() │ │ 5. 解析响应获取结果 │ └─────────────────────────────────────────────────────┘核心参数说明参数说明常用取值model模型标识各厂商不同messages对话消息列表system/user/assistanttemperature控制随机性0.0-2.0越低越确定max_tokens最大输出token数根据需求设置stream是否流式输出true/false二、DeepSeekDeepSeek以其高性价比和强大的推理能力著称特别适合需要复杂推理能力的应用场景。2.1 快速开始API端点:https://api.deepseek.com安装依赖:pipinstallopenaiPython调用示例:fromopenaiimportOpenAI clientOpenAI(api_keyyour-api-key,base_urlhttps://api.deepseek.com)responseclient.chat.completions.create(modeldeepseek-chat,messages[{role:system,content:You are a helpful assistant},{role:user,content:Hello},],max_tokens1024,temperature0.7,streamFalse)print(response.choices[0].message.content)cURL调用:curl-XPOST https://api.deepseek.com/chat/completions\-HContent-Type: application/json\-HAuthorization: Bearer YOUR_API_KEY\-d{ model: deepseek-chat, messages: [ {role: user, content: 你好} ] }2.2 主要特色特色说明思考模型deepseek-reasoner 支持深度思考模式OpenAI兼容完美兼容OpenAI SDK超低价格性价比极高长上下文支持128K上下文窗口2.3 Token计算1 个中文字符 ≈ 0.6 个 token 1 个英文字符 ≈ 0.3 个 token三、智谱GLM智谱AI是国内最早的大模型厂商之一GLM系列模型在中文理解方面表现优异且提供了丰富的SDK支持。3.1 快速开始API端点:https://open.bigmodel.cn/api/paas/v4安装SDK:# 新版SDK (推荐)pipinstallzai-sdk# 旧版SDKpipinstallzhipuai使用新版SDK调用:fromzaiimportZhipuAiClient clientZhipuAiClient(api_keyYOUR_API_KEY)responseclient.chat.completions.create(modelglm-5,messages[{role:system,content:你是一个有用的AI助手},{role:user,content:你好请介绍一下自己}],temperature0.6)print(response.choices[0].message.content)使用OpenAI兼容方式:fromopenaiimportOpenAI clientOpenAI(api_keyYOUR_API_KEY,base_urlhttps://open.bigmodel.cn/api/paas/v4)responseclient.chat.completions.create(modelglm-5,messages[{role:system,content:你是AI助手},{role:user,content:你好}])3.2 主要模型模型定位上下文特点GLM-5旗舰32K最新一代逼近Claude Opus级别GLM-4-Plus高智能128K智能旗舰GLM-4-Air-250414高性价比128K价格实惠GLM-Z1-FlashX高速低价128K极速响应GLM-4.6V多模态128K视觉理解SOTAGLM-4.7-Flash免费200K完全免费3.3 价格参考模型输入价格输出价格GLM-54-6元/百万tokens18-22元/百万tokensGLM-4-Plus5元/百万tokens2.5元/百万tokensGLM-4-Air0.5元/百万tokens0.25元/百万tokensGLM-Z1-FlashX0.1元/百万tokens免费四、Kimi (Moonshot AI)月之暗面推出的Kimi以超长上下文窗口著称其K2系列模型在代码能力和推理方面表现突出。4.1 快速开始API端点:https://api.moonshot.cn安装依赖:pipinstallopenai1.0Python调用示例:fromopenaiimportOpenAI clientOpenAI(api_keyyour-api-key,base_urlhttps://api.moonshot.cn/v1)# 单轮对话responseclient.chat.completions.create(modelkimi-k2-turbo-preview,messages[{role:system,content:你是Kimi由Moonshot AI提供的人工智能助手},{role:user,content:你好我叫李雷}],temperature0.6)print(response.choices[0].message.content)多轮对话实现:history[{role:system,content:你是Kimi助手}]defchat(query,history):history.append({role:user,content:query})responseclient.chat.completions.create(modelkimi-k2-turbo-preview,messageshistory,temperature0.6)resultresponse.choices[0].message.content history.append({role:assistant,content:result})returnresult# 多轮调用示例print(chat(地球的自转周期是多少,history))print(chat(月球呢,history))4.2 主要模型模型上下文特点kimi-k2.5128K最新旗舰深度思考kimi-k2-turbo-preview128K高性能Turbo版moonshot-v1-128k128K长文本处理moonshot-v1-32k32K平衡之选moonshot-v1-8k8K基础版本moonshot-v1-8k-vision-preview8K支持图片理解4.3 Token计算接口Kimi提供了专门的Token计算API帮助精确估算用量importrequests responserequests.post(https://api.moonshot.cn/v1/tokenizers/estimate-token-count,headers{Authorization:fBearer{api_key},Content-Type:application/json},json{model:kimi-k2-turbo-preview,messages:[{role:system,content:你是Kimi},{role:user,content:你好}]})print(fToken数量:{response.json()[data][total_tokens]})五、阿里千问 (Qwen)阿里云百炼平台提供的千问系列模型覆盖从轻量到旗舰的完整产品线且支持多地域部署。5.1 快速开始API端点:北京:https://dashscope.aliyuncs.com/compatible-mode/v1新加坡:https://dashscope-intl.aliyuncs.com/compatible-mode/v1安装SDK:pipinstallopenai dashscope使用OpenAI兼容方式:fromopenaiimportOpenAIimportos clientOpenAI(api_keyos.getenv(DASHSCOPE_API_KEY),base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1)responseclient.chat.completions.create(modelqwen3.5-plus,messages[{role:system,content:You are a helpful assistant},{role:user,content:你是谁}])print(response.choices[0].message.content)使用DashScope SDK:fromdashscopeimportGeneration responseGeneration.call(api_keyos.getenv(DASHSCOPE_API_KEY),modelqwen-plus,messages[{role:system,content:You are a helpful assistant},{role:user,content:你好}],result_formatmessage)print(response.output.choices[0].message.content)cURL调用:curl-XPOST https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions\-HAuthorization: Bearer$DASHSCOPE_API_KEY\-HContent-Type: application/json\-d{ model: qwen3.5-plus, messages: [ {role: system, content: You are a helpful assistant}, {role: user, content: 你好} ] }5.2 主要模型模型定位特点Qwen3.5-Plus均衡之选推荐大多数场景使用Qwen3.5-Max效果最佳复杂任务首选Qwen3.5-Flash极速低价简单任务/高并发Qwen-VL-Plus多模态视觉理解Qwen3 开源系列开源免费本地部署5.3 多模态调用示例fromopenaiimportOpenAI clientOpenAI(api_keyos.getenv(DASHSCOPE_API_KEY),base_urlhttps://dashscope.aliyuncs.com/compatible-mode/v1)messages[{role:user,content:[{type:image_url,image_url:{url:https://example.com/image.png}},{type:text,text:请描述这张图片}]}]responseclient.chat.completions.create(modelqwen3.5-plus,messagesmessages)六、流式输出实现所有主流大模型API都支持流式输出(SSE)可以显著提升用户体验fromopenaiimportOpenAI clientOpenAI(api_keyyour-api-key,base_urlhttps://api.moonshot.cn/v1)streamclient.chat.completions.create(modelkimi-k2-turbo-preview,messages[{role:user,content:写一个关于AI的故事}],streamTrue)# 实时打印输出forchunkinstream:ifchunk.choices[0].delta.content:print(chunk.choices[0].delta.content,end,flushTrue)七、综合对比对比维度DeepSeek智谱GLMKimi千问API端点api.deepseek.comopen.bigmodel.cnapi.moonshot.cndashscope.aliyuncs.comSDK兼容性OpenAIOpenAI 专属SDKOpenAIOpenAI DashScope最大上下文128K200K128K128K多模态图片/视频图片/视频/文档图片/视频图片/视频思考模型✅ deepseek-reasoner✅ GLM-5✅ kimi-k2.5✅ Qwen3.5系列免费额度有有(Free模型)有有特色优势性价比高/推理强中文理解好超长上下文生态完善/多地域选型建议┌────────────────────────────────────────────────────────────┐ │ 场景选型指南 │ ├────────────────────────────────────────────────────────────┤ │ 预算敏感 / 复杂推理任务 → DeepSeek │ │ 中文内容创作/长文档分析 → 智谱GLM │ │ 超长文本处理/代码任务 → Kimi │ │ 企业级应用/多地域部署 → 阿里千问 │ │ 需要快速迁移OpenAI代码 → DeepSeek / Kimi / 千问 │ └────────────────────────────────────────────────────────────┘八、常见问题Q1: 如何选择temperature参数场景推荐值说明代码生成0.2-0.3需要确定性输出事实问答0.1-0.2准确为主创意写作0.7-0.9需要多样性通用对话0.6-0.7平衡选项Q2: 如何估算API成本以1000字中文文章为例约600-700 tokens各平台价格约0.01-0.1元/百万tokens输出Q3: 遇到401认证错误怎么办检查API Key是否正确确认API Key是否已激活检查环境变量配置确认账户余额充足Q4: 如何处理流式输出的中断importtimeforchunkinstream:try:ifchunk.choices[0].delta.content:print(chunk.choices[0].delta.content,end)exceptExceptionase:print(f\n连接中断:{e})time.sleep(1)# 重试等待# 可添加重试逻辑九、总结本文详细介绍了国内四大主流大模型API的调用方式DeepSeek- 性价比之王适合预算敏感型项目和复杂推理任务智谱GLM- 中文理解优秀SDK完善适合中文内容创作场景Kimi- 超长上下文能力突出适合长文档处理和代码任务阿里千问- 生态完善多地域支持适合企业级应用所有厂商都提供了OpenAI兼容的接口便于开发者快速迁移和对比。建议根据具体业务场景和预算选择合适的模型并善用各平台的免费额度进行测试。提示: 各平台API和价格可能持续更新建议开发者在正式使用前查阅各平台最新官方文档。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2434261.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!