1.简单介绍
当前DeepSeek使用的人很多,各大AI平台中也快速引入了DeekSeek,比如Azure AI Foundary(以前名字是Azure AI Studio)中的Model Catalog, HuggingFace, GitHub Models等。同时也出现了一些支持DeepSeek的.NET类库。微软的Semantic Kernel也支持DeepSeek。
这边打算尝试一下GitHub Models中DeepSeek V3
2.具体说明
DeepSeek的主流版本有V3和R1,其中R1的推理的推理能力比V3强,适用于涉及逻辑推理和问题求解的应用场景,而在客服,文本总结,内容生成方面,使用V3的人数可能多一些。
下面是使用GitHub Models中使用DeepSeek V3的简单过程
2.1 注册DeepSeek V3
1) 登录到GitHub Models平台,可以找到DeepSeek-V3
2) 直接点击 DeepSeek-V3,就可以跳转到下面这个页面,然后点击按钮Use this model
3) 在弹出的Get API key窗口中,点击 Get developer key按钮去创建一个personal access token
4) 点击Generate new token下拉框,选择Generate new token(classic)选项就可以创建一个personal access token了,
note, token只会在第一次创建的时候显示,这时候要做一下copy动作
2.2 制作.NET Console
2.2.1 代码示例
下面是使用GitHub Models中DeepSeek-V3模型的代码,
var endpoint = new Uri("https://models.inference.ai.azure.com");
var GitHubModelsDeepseekToken = "your personal access token";
var credential = new AzureKeyCredential(GitHubModelsDeepseekToken);
var model = "DeepSeek-V3";
var client = new ChatCompletionsClient(
endpoint,
credential,
new AzureAIInferenceClientOptions());
var requestOptions = new ChatCompletionsOptions()
{
Messages =
{
new ChatRequestUserMessage("东亚和东南亚的可耕地面积是多少?给出一下简短的答案就可以的"),
},
MaxTokens = 1000,
Model = model
};
Response<ChatCompletions> response = client.Complete(requestOptions);
System.Console.WriteLine(response.Value.Content);
2.2.2 运行一下
运行程序,发现DeepSeek有结果正常返回
2.2.3 尝试其他模型
其中endpoint是各个模型都是一样的,假如选择了GitHub Models的Mistral Small 3.1,则将model换成对应的 mistral-small-2503就可以的
运行一下,发现Mistral也能返回结果,不过DeepSeek-V3和Mistral模型返回的结果有一些不同。
2.3 其他
当https://api.deepseek.com/ 的不能使用之后,也可以考虑使用GitHub Models 的DeepSeek
note, 也可以基于Azure AI Foundary中 Model Catolog或者huggingface的DeekSeek模型,自己部署一个endpoint进行使用的。
3.总结
本文简单介绍了一下GitHub Models中DeepSeek模型的使用过程,更为详细的调用DeepSeek的内容,可以参考DeepSeek的官方文章
本文如果哪里有错误的地方,麻烦告之,谢谢谢谢