本地大模型系列:1.配置本地lm Studio的大模型助手(another)
体验了一下lm studio感觉lm studio对新手更加友好它有一整套UI并且设置比较完善基本上可以靠点鼠标把事情做完了包括模型下载、测试、网络接口、自身配置等。尽管部分高级功能需要登录且付费使用但是本地用基本不需要。它会自动识别本地硬件N卡、A卡、苹果M并使用对应的加速引擎并且对外做服务的时候有少量的并发4个体验上来说这点要强过ollama了。下载这里会自动给你选好平台的直接下载就行了。第一次运行它会让你下载第一个模型、以及登录跳过不需要。启动后界面可选简体中文但不是很完善。先改模型存储路径避免变成C盘战士把模型存储路径换到后面的盘然后更新模型的驱动引擎这里有显示的都更新就好再点击这个图标来找模型搜索 qwen3.5qwen3.5是原生的多模态模型可以解析文字和图片。如果有显卡8G显卡最多选择 9B模型6.55G再多就背不动了。参数越高、结果精度越高同时消耗资源。如果没有显卡选择 2B 先体验一下如果感觉速度还行再试试4B模型。启动聊天界面选择你想启动的模型即可加载可能需要一点时间关注这个速度指标小任务感受同一个问题多不个不同模型回答的效果。问题示例如下我是一名初一学生最近一周每天的作息和学习数据如下周一23:00 睡6:30 起作业 2h额外刷题 0.5h周二22:40 睡6:30 起作业 1.5h背单词 0.8h周三23:20 睡6:20 起作业 2h看课外书 1h周四23:10 睡6:30 起作业 1.8h整理错题 0.3h周五22:50 睡6:30 起作业 1.2h复习当天知识点 0.6h周六23:40 睡8:00 起作业 1h自由阅读 2h周日23:30 睡7:30 起作业 1.5h预习新课 0.5h请帮我分析目前作息和学习安排存在哪些问题给出 3 条具体可执行的改进建议每条建议要说明 “怎么做” 和 “预期能带来什么变化”。最后你再把这个问题给豆包或者deepseek他们的模型参数远不止9B答案会要更丰满一些体会这里面的不同。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2408684.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!