Xinference下载模型卡住不动?从0%到100%的完整排坑指南
写在前面最近在使用Xinference部署模型时遇到了一个让人抓狂的问题无论WebUI还是命令行模型下载的进度始终卡在0%不动多次重试后还是没变化。更诡异的是服务日志显示一切正常但是就是下载不了。经过一顿倒腾终于找到了问题所在并且成功解决这篇文章记录了完整的排查过程以及解决方案希望能帮助到你。环境说明平台AutoDL部署的XinferenceXinference版本最新版目标模型bge-reranker-large网络环境国内服务器问题现象启动Xinference服务成功WebUI也能正常访问尝试下载模型WebUI界面中进度条一直不动命令行下载的时候也一直显示0%没有任何明确的错误提示。排查过程1确认服务状态首先确认Xinference服务本身是否正常# 启动服务 xinference-local --host 0.0.0.0 --port 6006 # 检查服务健康状态 curl http://127.0.0.1:6006/v1/models输入rootautodl-container-969947803a-48d90d73:~# curl http://127.0.0.1:6006/v1/models输出{object:list,data:[]}rootautodl-container-969947803a-48d90d73:~#说明Xinference服务在正常运行返回的空列表[]确认了此时没有任何模型2检查环境变量发现xinference list命令报错接连失败是因为命令默认连接到9997端口而我们的服务是在6006端口# 需要指定正确的 endpoint xinference list --endpoint http://127.0.0.1:60063端口冲突在输出的服务日志中发现一条警告WARNING Failed to create socket with port 6006说明6006端口已被别的进程占用解决方法# 查看端口占用 lsof -i :6006 # 杀掉占用进程 kill -9 PID # 或者直接清理所有 Xinference 进程 pkill -f xinference4网络问题端口问题解决后下载仍然卡住是因为国内的服务器访问Hugging Face官方源速度极慢甚至超时。解决方法使用国内镜像源# 设置 Hugging Face 镜像 export HF_ENDPOINThttps://hf-mirror.com # 重新启动服务 xinference-local --host 0.0.0.0 --port 6006最终成功的启动方式使用终端1启动Xinference服务# 确保端口干净 pkill -f xinference # 设置镜像源并启动 export HF_ENDPOINThttps://hf-mirror.com xinference-local --host 0.0.0.0 --port 6006 # 设置学术加速 source /etc/network_turbo使用终端2下载模型xinference launch --model-type rerank --model-name bge-reranker-large --model-uid my-reranker --endpoint http://127.0.0.1:6006就可以看到进度条变化了图形化界面也可以使用下载了最终就可以在 Running Models看到下载的模型同时可以重新查看服务的状态发现两个模型的参数写在最后每次重启Xinference后之前加载的模型都会被清空这是因为Xinference的设计理念是模型不会持久化运行因此需要重新启动。打开WebUI点击Launch Model选择已经下载过的模型点击启动即可几秒钟就OK
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2482837.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!