Qwen3-ASR-1.7B在Ubuntu20.04上的Docker化部署教程
Qwen3-ASR-1.7B在Ubuntu20.04上的Docker化部署教程1. 引言语音识别技术正在改变我们与设备交互的方式而Qwen3-ASR-1.7B作为一款支持52种语言和方言的开源模型为开发者提供了强大的语音转文字能力。今天我将带你一步步在Ubuntu 20.04系统上完成这个模型的Docker化部署让你快速搭建属于自己的语音识别服务。无论你是刚接触语音识别的新手还是有一定经验的开发者这篇教程都会用最直白的方式讲解每个步骤。我们不需要复杂的理论只需要跟着操作就能在半小时内让模型跑起来。2. 环境准备与系统要求2.1 硬件要求首先确认你的硬件配置是否满足要求。Qwen3-ASR-1.7B对GPU有特定需求GPU内存至少8GB显存推荐12GB以上系统内存16GB RAM或更多存储空间模型文件需要约4GB空间你可以用下面的命令检查GPU信息nvidia-smi如果看到GPU信息说明驱动已经安装。如果没看到需要先安装NVIDIA驱动。2.2 软件依赖确保你的Ubuntu 20.04系统已经更新到最新状态sudo apt update sudo apt upgrade -y安装必要的工具sudo apt install -y docker.io nvidia-docker2 curl wget验证Docker安装docker --version3. Docker环境配置3.1 安装NVIDIA Container Toolkit为了让Docker能够使用GPU我们需要安装NVIDIA容器工具包# 添加NVIDIA包仓库 distribution$(. /etc/os-release;echo $ID$VERSION_ID) curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add - curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list # 安装nvidia-container-toolkit sudo apt update sudo apt install -y nvidia-container-toolkit # 重启Docker服务 sudo systemctl restart docker3.2 验证GPU访问测试Docker是否能正常使用GPUdocker run --rm --gpus all nvidia/cuda:11.8.0-base nvidia-smi如果看到GPU信息输出说明配置成功。4. 构建Docker镜像4.1 创建Dockerfile首先创建一个工作目录然后创建Dockerfilemkdir qwen3-asr-deployment cd qwen3-asr-deployment创建Dockerfile文件FROM nvidia/cuda:11.8.0-runtime-ubuntu20.04 # 设置环境变量 ENV DEBIAN_FRONTENDnoninteractive ENV PYTHONUNBUFFERED1 # 安装系统依赖 RUN apt update apt install -y \ python3.8 \ python3-pip \ git \ wget \ rm -rf /var/lib/apt/lists/* # 创建工作目录 WORKDIR /app # 安装Python依赖 COPY requirements.txt . RUN pip3 install --no-cache-dir -r requirements.txt # 下载模型可选也可以在运行时下载 # RUN python3 -c from modelscope import snapshot_download; snapshot_download(Qwen/Qwen3-ASR-1.7B) # 暴露服务端口 EXPOSE 8000 # 启动命令 CMD [qwen-asr-serve, Qwen/Qwen3-ASR-1.7B, --host, 0.0.0.0, --port, 8000]创建requirements.txt文件torch2.0.0 modelscope1.10.0 qwen-asr0.1.0 vllm0.3.04.2 构建镜像执行构建命令docker build -t qwen3-asr:1.7b .这个过程可能需要一些时间取决于你的网络速度。构建完成后可以用以下命令查看镜像docker images5. 运行语音识别服务5.1 启动容器使用以下命令启动服务docker run -d \ --name qwen3-asr \ --gpus all \ -p 8000:8000 \ -v ./model_cache:/root/.cache/modelscope \ qwen3-asr:1.7b参数说明-d后台运行--gpus all使用所有GPU-p 8000:8000端口映射-v ./model_cache:/root/.cache/modelscope模型缓存目录5.2 检查服务状态查看容器日志确认服务正常运行docker logs -f qwen3-asr如果看到类似Server started on 0.0.0.0:8000的信息说明服务已经启动成功。6. 测试语音识别功能6.1 准备测试音频首先下载一个测试音频文件wget https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen3-ASR-Repo/asr_en.wav6.2 发送识别请求使用Python脚本测试识别功能import requests import json url http://localhost:8000/v1/chat/completions headers { Content-Type: application/json } data { messages: [ { role: user, content: [ { type: audio_url, audio_url: { url: https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen3-ASR-Repo/asr_en.wav } } ] } ] } response requests.post(url, headersheaders, jsondata, timeout300) result response.json() print(识别结果:, result[choices][0][message][content])保存为test_asr.py并运行python3 test_asr.py你应该能看到音频的识别文字结果。7. 常见问题解决7.1 GPU内存不足如果遇到GPU内存不足的错误可以尝试调整批处理大小docker run -d \ --name qwen3-asr \ --gpus all \ -p 8000:8000 \ qwen3-asr:1.7b \ qwen-asr-serve Qwen/Qwen3-ASR-1.7B --max-batch-size 4 --host 0.0.0.0 --port 80007.2 模型下载缓慢如果模型下载太慢可以预先下载到本地# 在主机上下载模型 python3 -c from modelscope import snapshot_download; snapshot_download(Qwen/Qwen3-ASR-1.7B, cache_dir./models) # 启动时挂载模型目录 docker run -d \ --name qwen3-asr \ --gpus all \ -p 8000:8000 \ -v $(pwd)/models:/root/.cache/modelscope \ qwen3-asr:1.7b7.3 端口冲突如果8000端口被占用可以改用其他端口docker run -d \ --name qwen3-asr \ --gpus all \ -p 8080:8000 \ qwen3-asr:1.7b8. 总结通过这篇教程我们成功在Ubuntu 20.04上部署了Qwen3-ASR-1.7B语音识别服务。整个过程从环境准备到最终测试每个步骤都力求清晰明了。Docker化的部署方式让我们的服务更加隔离和可移植也方便后续的维护和扩展。实际使用中你可能会根据具体需求调整一些参数比如批处理大小、GPU内存分配等。这个部署方案为后续的二次开发和集成提供了很好的基础。如果遇到其他问题可以查看官方文档或者在社区寻求帮助。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2495495.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!