一份 Windows/macOS/Linux 完整安装 + 运行 + 对接 WebUI 的步骤
下面是一份Windows /macOS/ Linux 三平台通用的完整步骤安装 Ollama → 运行模型 → 对接 Open WebUI按顺序操作即可。一、安装 Ollama三平台1. Windows 安装下载安装包官网https://ollama.com/download直接下载https://ollama.com/download/OllamaSetup.exe双击OllamaSetup.exe→ 点Install自动完成安装。验证安装打开PowerShell或CMD输入bash运行ollama --version显示版本号如0.3.14即成功。2. macOS 安装下载安装包官网https://ollama.com/download直接下载https://ollama.com/download/Ollama-darwin.zip解压 → 把Ollama.app拖到应用程序文件夹。验证安装打开终端输入bash运行ollama --version显示版本号即成功。3. Linux 安装Ubuntu/Debian/CentOS 等打开终端执行一键安装脚本bash运行curl -fsSL https://ollama.com/install.sh | sh验证安装bash运行ollama --version二、运行 Ollama 与下载模型1. 启动 Ollama 服务Windows/macOS安装后会自动后台运行托盘有图标。Linux手动启动可选bash运行ollama serve2. 下载并运行模型命令行bash运行# 下载并启动 Llama 37B 轻量版推荐新手 ollama run llama3 # 或下载 Qwen 2.57B 中文友好 ollama run qwen2.5:7b-instruct # 或下载 DeepSeek R17B 推理强 ollama run deepseek-r1:7b首次运行会自动下载模型约 4–8GB耐心等待。下载完成后直接进入聊天界面输入问题即可对话。3. 常用管理命令bash运行# 查看已下载模型 ollama list # 停止运行中的模型 ollama stop llama3 # 删除模型 ollama rm llama3三、对接 Open WebUI可视化界面1. 安装 Docker必须Open WebUI 推荐用 Docker 部署先装 DockerWindows/macOS下载安装Docker Desktophttps://www.docker.com/products/docker-desktop/Linux按官方文档安装 Docker Enginehttps://docs.docker.com/engine/install/验证 Docker 安装成功bash运行docker -v2. 启动 Open WebUI 容器方式 A仅用 WebUIOllama 已在本机bash运行docker run -d \ -p 3000:8080 \ -e OLLAMA_BASE_URLhttp://host.docker.internal:11434 \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main方式 BWebUI Ollama 一体推荐新手bash运行# 有 NVIDIA GPU docker run -d \ -p 3000:8080 \ --gpusall \ -v ollama:/root/.ollama \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:ollama # 仅 CPU docker run -d \ -p 3000:8080 \ -v ollama:/root/.ollama \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:ollama {insert\_element\_0\_} ### 3. 访问 WebUI 并连接 Ollama 1. 打开浏览器访问**http://localhost:3000** 2. 首次使用**注册管理员账号**仅本地存储不上云。 3. 连接 Ollama - 进入 **设置 → 连接 → Ollama**。 - 地址http://localhost:11434默认→ 点击 **验证连接**。 - 显示“连接成功”即可。 4. 开始使用 - 顶部选择模型如 llama3、qwen2.5:7b-instruct。 - 输入问题像 ChatGPT 一样对话。 --- ## 四、常见问题与优化 ### 1. 模型下载慢国内 - 可设置代理或用国内镜像源搜索“Ollama 模型镜像”。 ### 2. 模型存储在 C 盘占空间 - Windows设置环境变量 OLLAMA_MODELS指向其他盘如 D:\ollama_models。 - macOS/Linux bash export OLLAMA_MODELS/path/to/your/models3. 速度慢CPU 运行优先用7B 量化模型如llama3:8b、qwen2.5:7b。有 NVIDIA GPU 可开启 CUDA 加速Ollama 自动识别。五、总结安装 Ollama → 验证ollama --version。运行ollama run llama3下载并启动模型。用 Docker 启动 Open WebUI → 访问http://localhost:3000。连接 Ollama → 开始可视化对话。下面整理了按场景分类的 Ollama 常用模型清单每个模型都标注了特点、适用场景和直接可用的ollama run命令新手优先选 7B 量级轻量、易运行一、中文友好型优先选适配中文对话 / 创作表格模型名称特点适用场景Ollama 运行命令通义千问 2.57B阿里出品中文理解顶尖7B 轻量日常聊天、中文创作、问答ollama run qwen2.5:7b-instruct通义千问 2.514B中文能力更强推理略优复杂中文问答、长文本总结ollama run qwen2.5:14b-instruct讯飞星火 V47B讯飞出品中文语音 / 文本兼顾中文对话、本地化场景ollama run spark:7bBaichuan 37B百川大模型中文闲聊 / 写作优秀中文创作、生活化问答ollama run baichuan3:7b二、代码编程型写代码 / 调试 / 解释表格模型名称特点适用场景Ollama 运行命令CodeLlama7BMeta 官方代码模型支持多语言基础代码编写、语法解释ollama run codellama:7b-codeDeepSeek-Coder7B深度求索代码能力顶尖支持中文注释复杂代码编写、调试、重构ollama run deepseek-coder:7b-instructCodeQwen7B千问代码版中文代码场景适配好中文注释代码、国内框架开发ollama run codeqwen:7b-instructStarCoder27BHuggingFace 出品开源代码模型开源项目开发、代码补全ollama run starcoder2:7b三、逻辑推理型数学 / 分析 / 复杂思考表格模型名称特点适用场景Ollama 运行命令Llama 38BMeta 旗舰模型综合推理能力强通用推理、逻辑分析、决策ollama run llama3:8b-instructDeepSeek-R17B深度求索推理版数学 / 逻辑顶尖数学计算、逻辑题、数据分析ollama run deepseek-r1:7bMistral7B轻量高效推理速度快快速逻辑判断、简单分析ollama run mistral:7b-instruct-v0.2Phi-33.8BMicrosoft 出品小模型推理天花板轻量化推理、低配置设备ollama run phi3:3.8b-instruct四、轻量化通用型低配置设备 / 快速响应表格模型名称特点适用场景Ollama 运行命令Qwen2.51.8B千问轻量版仅 1.8B速度极快低配电脑 / 笔记本、快速问答ollama run qwen2.5:1.8b-instructGemma2BGoogle 出品小模型通用能力强轻量化日常使用、离线运行ollama run gemma:2b-instruct新手使用建议首次尝试优先选ollama run qwen2.5:7b-instruct中文友好或ollama run llama3:8b-instruct综合能力。配置有限8G 内存 / 无独显选 1.8B/2B/3.8B 量级如phi3:3.8b-instruct避免卡顿。国内网络模型下载慢可先设置 Ollama 镜像搜索 “Ollama 国内镜像源”或用代理。切换模型运行新模型前先执行ollama stop 旧模型名释放资源。总结中文场景优先选通义千问 2.57B命令ollama run qwen2.5:7b-instruct编程场景优先选DeepSeek-Coder7B命令ollama run deepseek-coder:7b-instruct推理场景优先选DeepSeek-R17B或Llama 38B低配设备选Phi-33.8B。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2433677.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!