Ollama 可以在 Windows 上运行了
- 0. 引言
- 1. 下载 Ollma 安装文件
- 2. 安装 Ollama
- 3. 使用 Ollama
0. 引言
Ollama 终于可以在 Windows 上运行了,一直以来都是 “Coming soon”。

运行 Mixtral 8*7B 试了一下,推理速度和推理效果都很不错。

而且模型的下载速度也很快,我用的联通1000M网络,大概90M~150M/s波动。

1. 下载 Ollma 安装文件
访问 https://ollama.com/download,选择 Windows,单击 “Download for Windows (Preview)” 进行下载。

2. 安装 Ollama
双击下载的 “OllamaSetup.exe”,直接安装就可以了。
3. 使用 Ollama
访问 https://ollama.com/library,搜索你要使用的模型,主流的模型,比如 llama2、qwen1.5、mixtral 等,Ollama都支持。
下面以允许 qwen 为例,我们要运行 7b 的模型,

拷贝上面红框的命令并运行,
ollama run qwen:7b
问一个问题试试,

完结!



















