vscode如何添加ollama本地模型-实现token自由
vscode一直支持的都是云端闭源的模型例如 GPT Claude等等当这些闭源模型的免费额度用完之后则需要付费继续使用。本文介绍的是vscode接入ollama的本地模型从而实现token自由。ollama首先需要到ollama的官网下载ollama应用详见这里。然后下载机器硬件所能支撑的模型如下vscodevscode登录GitHub账号之后进入对应的chat界面如下点击上图红色区域部分下拉选择管理模型如下点击上图红色部分增加ollama模型会跳出ollama默认的地址完成默认的设置完成后如下如果想要vscode可以选择本地的模型还需要将应用的模型变为可见如上图的qwen2.5和qwen3.5。在聊天选中对应的本地模型如qwen3.5有了本地的模型之后在vscode中就不用担心后续token消耗过大了。本文简单介绍了vscode如何添加ollama本地模型后续更多的关于AI方面的介绍将在后续我的专栏《AI安全》专栏详细说明见这里。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2471583.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!