【亲测】笔记本token免费,window下本地养个龙虾(Openclaw+Ollama)看看?
目录环境检查查看显卡状态检查conda环境跑通OllamaOllama自带API下载模型模型“复读机”问题安装openclaw配置环境浅浅体验一下本人笔记本显卡是GTX1070 8G显存(算是老古董显卡了)cpu是i7-8750H 6核12线程内存32G在window下尝试安装一个龙虾看看。这里展示完整安装过程所有过程均由本人亲测有效。本人笔记本显卡算力很差不磨叽那么开始吧。。。PS:本人承诺所有文章都免费只需点一个免费的关注即可。环境检查打开cmd运行conda如果发现没有此命令就需要安装conda其次检查python是否安装。如果没有安装可以看一下我写的这篇文章有提到如何安装。 点我看文章或者直接点击我下载 注意需要登陆才能下载本人用的github登陆。conda有两个版本我安装的mini版本后续有啥需要就安装啥开始菜单中找到Anaconda Prompt直接运行即可我这边的python版本如下查看显卡状态命令行中输入对应的驱动啥的都需要安装完整如cudnnnvidia-smicudnn下载地址检查conda环境先打开Anaconda Prompt转到对应目录执行如下命令可完成环境的创建或删除等操作。condaenvlist# 看一下有那些环境conda create-pF:\LM\llm_propython3.13.12#创建你的环境路径conda create-nenv_llmpython3.13.12#创建你的环境conda remove-nllm--all#删除llm环境conda activate env_llm#激活环境跑通Ollama安装一下Ollama吧下载Ollamawindow下很简单直接点击下载点我下载OllamaSetup如果下载慢试一下加速链接点我加速下载OllamaSetup安装完成后直接运行在你的右下角会出现一个羊驼图标。可以看一下安装的版本后发现0.6.2版本较低这里换成了最新的0.17.7当然换成最新的显卡驱动等等我都更新了否则无法使用。搭建环境甚是费劲关于一些Ollama用法快速使用Ollama这里我已经拥有模型你要是没有可以去下载对应的模型命令行基础用法ollama list ollama create qwen9b-local-fModelfile#自定义模型需要一个Modelfile文件支持ollama run qwen9b-local#运行模型ollamarmqwen9b-local#删除ollama serve如下运行效果图形化显示ollama本来就是图形化的可以直接打开同时打开了ollama的话本地也能web端访问在浏览器里输入此链接以及默认端口http://localhost:11434/Ollama自带API用post的方式访问http://localhost:11434/api/generate举例curl http://localhost:11434/api/generate修改监听地址Windows CMDsetOLLAMA_HOST0.0.0.0:8080 ollama serve访问地址就变成http://localhost:8080/api/generate下载模型本人下载的模型是开源千问模型。如果下载模型请点击魔塔在里面搜索对应的模型即可。本人这里下载的是9B的千问模型Qwen3.5-9B-Q4_K_M.gguf但是运行后出现可能内存不足或者模型下载有问题这里重新下载后正常。关于千问的模型一些简易的说明模型名称参数量约模型类型上下文长度主要特点适用场景Qwen-Max~100B闭源大模型32768 tokens最强性能多语言、复杂推理、代码生成能力强企业级应用、高复杂任务Qwen-Plus~50B闭源中等模型32768 tokens性能与成本平衡响应速度较快中等复杂度任务、API调用Qwen-Turbo~10B闭源轻量模型32768 tokens响应快、成本低、适合简单任务聊天、简单问答、高频调用Qwen-Max-Long~100B闭源超长上下文版200K tokens支持超长文档理解与生成长文档摘要、法律/科研文本处理Qwen-Audio-多模态音频-支持语音识别与生成语音助手、会议转录Qwen-VL / Qwen2-VL~10B视觉部分额外多模态图像文本32768 tokens图像理解、图文生成图像问答、内容审核、教育Qwen1 / Qwen1.5 / Qwen2 / Qwen2.5 / Qwen3开源版0.5B – 72B开源语言模型4K–32K tokens依版本而定全系列开源支持微调、本地部署研究、私有部署、定制化开发Qwen-72B开源最大72B开源稠密模型32768 tokens开源最强版本接近闭源性能高性能本地推理、学术研究Qwen-14B / Qwen-7B / Qwen-1.8B / Qwen-0.5B0.5B–14B开源小模型4K–32K tokens轻量、高效、适合边缘设备移动端、嵌入式、教学补充说明 参数量指模型的可训练参数数量通常越大能力越强但对算力要求也越高。 闭源 vs 开源Max/Plus/Turbo 等为阿里云 API 提供的闭源模型Qwen1~Qwen3 系列中的具体尺寸如 7B、14B为开源模型可在 Hugging Face 或 ModelScope 下载。 上下文长度表示模型一次能处理的最大 token 数。Qwen-Max-Long 支持超长上下文如 200K tokens适合处理整本书或长报告。 多模态模型如 VL、Audio需额外加载视觉或音频编码器不单纯依赖语言参数量。 ⚠️ 注意具体参数量和性能可能因版本更新略有调整建议参考 阿里巴巴通义实验室官网 或 ModelScope 获取最新信息。至此一个本地模型搭建完成。模型“复读机”问题有时候提问会有多次重复回答的问题称之为“复读机”问题那么通过修改一些参数来减少此类问题。PARAMETER temperature0.85# 稍微提高增加随机性PARAMETER top_p0.9# 启用 nucleus samplingPARAMETER top_k40# 限制候选 token 范围PARAMETER repeat_penalty1.1# 抑制重复Ollama v0.1.34 支持PARAMETER stop|im_end|# 显式设置停止符避免模型继续生成安装openclaw来了到这一步了…OpenClaw曾用名 Clawdbot是一款 2026 年爆火的开源个人 AI 助手GitHub 星标已超过 10 万颗。windows版本先管理员模式打开powershell在安装之前可以修改一下如下权限在命powershell中输入# 场景你想安全地运行自己写的脚本但又不想每次都被阻止Set-ExecutionPolicy RemoteSigned-ScopeCurrentUser# 场景你要运行一个从 GitHub 下载的安装脚本如 oh-my-posh、winget 等Set-ExecutionPolicy-ScopeProcess-ExecutionPolicyBypass# 查看各作用域的策略设置Get-ExecutionPolicy-List实际生效的策略按优先级MachinePolicyUserPolicyProcessCurrentUserLocalMachine解释那么命令行直接安装iwr-usebhttps://openclaw.ai/install.ps1|iex 不行试一下国内镜像# 若下载超时使用国内镜像脚本# iwr -useb https://clawd.org.cn/install.ps1 | iex如下nodejs安装成功在安装的过程中如果遇到错误比如报错npm error code 128 → 底层是 Git 报错这很有可能是你没有“科学上网”哦“科学上网”后继续尝试。安装成功如下那么就需要配置环境。新版先默认配置即可。配置Gateway模式 安装完成后需配置并启动Gateway服务这是提供Web控制台访问和任务执行能力的关键。# 设置Gateway为本地模式openclaw configsetgateway.modelocal# 安装Gateway服务创建计划任务实现开机自启openclaw gatewayinstall# 启动Gateway服务openclaw gateway start点我查看关于openclaw的安装MAC系统参考链接配置环境按照这个要求自己手动设置一个登陆密码。再一次配置OpenClaw onboard --install-daemon选默认url地址除非你改过那就修改一下。注意这里ollama一定要有账户且登陆状态我这里选择了模型是9B的本地qwen。上面机器人暂不设置直接跳过即可。搜索也以后设置吧。技能也以后设置。网关重启后网页就生成了。继续配置至此配置完成。浅浅体验一下现在最新openclaw直接命令行运行的。# 查看 OpenClaw 状态openclaw daemon status# 启动 OpenClawopenclaw daemon start# 停止 OpenClawopenclaw daemon stop# 重启 OpenClawopenclaw daemon restartOpenClaw的后台服务叫做“Gateway”掌握以下命令能帮你轻松管理它 查看服务状态openclaw gateway status 启动服务openclaw gateway start 重启服务openclaw gateway restart 停止服务openclaw gateway stop登陆网页http://127.0.0.1:18789准备聊天一种植物报错[agent/embedded] embedded run agent end: runIddf928e3b-4b12-4494-b63a-3f273249c424 isErrortrue modelqwen3_5_4b-local:latest providerollama errorOllama API error 400: {“error”:“registry.ollama.ai/library/qwen3_5_4b-local:latest does not support tools”}那么为啥呢thking…这个链接说点我查看那么ollama那边下载带有tools的模型。来再试一下果然可以这里下载了一个8B的千问模型可以运行。如下至此完成。那么后续有机会继续分享小龙虾的一些功能。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2428750.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!