云服务器部署大模型
云服务器部署大模型1. 服务器配置2. 大模型下载3. 部署大模型1. 服务器配置2. 大模型下载千问2.5-14B-Instruct https://modelscope.cn/models/Qwen/Qwen2.5-14B-Instructpipinstallmodelscope modelscope download--modelQwen/Qwen2.5-14B-Instruct--local_dir/root/autodl-tmp/Qwen2.5-14B3. 部署大模型PyTorch 2.8.0 Python 3.12 CUDA 12.82×RTX 5090 32GB跑 14B 模型属于降维打击x86 Ubuntu 22.04模型已下载到/root/autodl-tmp/Qwen2.5-14B# vllmpipinstallvllm-U-ihttps://pypi.tuna.tsinghua.edu.cn/simplepython-mvllm.entrypoints.openai.api_server\--model/root/autodl-tmp/Qwen2.5-14B\--tensor-parallel-size2\--host0.0.0.0\--port8000\--dtypeauto\--gpu-memory-utilization0.9\--max-model-len32768\--trust-remote-code
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2482433.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!