在Ascend NPU上构建并运行onnxruntime的实战指南
1. 为什么要在Ascend NPU上运行onnxruntime最近几年国产AI加速硬件发展迅猛Ascend NPU凭借出色的算力和能效比在推理场景中表现亮眼。但很多开发者手上积累了大量ONNX格式的模型直接迁移到新硬件平台总会遇到各种兼容性问题。这时候onnxruntime就成为了打通生态的关键桥梁。我在实际项目中就遇到过这样的困境团队之前基于GPU训练好的ResNet、YOLO等模型想要快速部署到搭载Ascend 910B的服务器上。直接用原生框架转换太麻烦而onnxruntime官方默认只提供CUDA和CPU版本。这时候就需要自己动手编译适配CANN的定制版本。这种需求在国产化替代过程中非常普遍。比如某安防客户要将原有的人脸识别系统从英伟达平台迁移到昇腾服务器或者工业质检客户希望利用NPU的低延迟特性提升产线效率。onnxruntime的跨平台特性正好能解决这类问题让开发者无需重写整个推理 pipeline。2. 环境准备与依赖检查2.1 硬件与基础软件要求在开始编译之前建议先确认你的Ascend设备满足以下条件至少16GB内存编译过程比较吃内存已安装Ubuntu 18.04/20.04 LTS这是CANN官方支持的系统已正确部署Ascend驱动和CANN工具包建议5.1.RC2以上版本我遇到过最典型的环境问题就是驱动版本不匹配。有一次在客户现场发现编译总是报奇怪的段错误最后排查是CANN版本太旧。可以用以下命令检查基础环境# 检查NPU设备识别 npu-smi info # 查看CANN版本 cat /usr/local/Ascend/ascend-toolkit/latest/acllib/version.info2.2 开发依赖安装除了硬件驱动还需要准备这些开发工具CMake 3.18GCC 7.3太新的版本可能反而会有兼容问题Python 3.6-3.8onnxruntime对3.9支持还不完善建议用apt-get一次性安装sudo apt-get install -y build-essential cmake python3-dev python3-pip特别注意如果之前安装过onnxruntime-gpu一定要先卸载干净pip uninstall onnxruntime-gpu rm -rf ~/.cache/onnxruntime3. 源码编译实战3.1 获取适配CANN的源码官方社区维护的CANN执行提供器目前还在主分支外推荐用这个特定提交git clone --recursive https://github.com/microsoft/onnxruntime.git cd onnxruntime git checkout 5810f31 # 这个提交已验证过兼容性如果遇到子模块下载慢的问题可以修改.gitmodules中的URL为国内镜像源。我在内网环境编译时就吃过这个亏等了三小时才发现卡在protobuf下载。3.2 编译参数详解关键编译命令如下source /usr/local/Ascend/ascend-toolkit/set_env.sh ./build.sh --config Release \ --build_shared_lib \ --parallel 8 \ --use_cann \ --build_wheel \ --skip_tests几个实用技巧--parallel根据你CPU核心数设置能显著加快编译内存不足时可以加--minimal_build去掉非必要组件国内网络建议先export http_proxyhttp://your_proxy避免下载超时编译过程中最容易出问题的就是第三方依赖下载。我整理了几个常见错误的解决方法错误现象解决方案Failed to download protobuf手动下载后放到cmake/build/downloads/目录numpy头文件找不到先pip install numpy再设置PYTHONPATHacl库链接失败检查set_env.sh是否生效3.3 生成whl包与验证成功编译后在build/Linux/Release/dist/下会生成类似onnxruntime_cann-1.12.0-cp36-cp36m-linux_x86_64.whl的文件。安装时建议创建新的虚拟环境python3 -m venv cann_env source cann_env/bin/activate pip install onnxruntime_cann-*.whl验证安装是否成功import onnxruntime as ort print(ort.get_available_providers()) # 应该看到CANNExecutionProvider4. 模型推理最佳实践4.1 基础推理示例以ResNet34为例典型使用方式如下providers [ (CANNExecutionProvider, { device_id: 0, npu_mem_limit: 4 30, # 4GB内存限制 arena_extend_strategy: kSameAsRequested, }) ] session ort.InferenceSession(resnet34.onnx, providersproviders) inputs np.random.randn(1, 3, 224, 224).astype(np.float32) outputs session.run(None, {input: inputs})这里有个性能调优的小技巧对于固定输入尺寸的模型设置arena_extend_strategy为kSameAsRequested可以减少内存碎片。我在图像分类场景实测能提升约15%的吞吐量。4.2 高级配置参数CANN执行提供器支持一些特有参数{ enable_cann_graph: True, # 启用图优化 dump_graphs: False, # 调试时保存计算图 precision_mode: force_fp16, # 强制FP16推理 op_select_impl_mode: high_performance, optypelist_for_implmode: Gelu,Add }特别说明几个关键参数precision_mode对支持混合精度的模型效果显著我在BERT上测试能提速2倍op_select_impl_mode建议对Transformer类模型开启调试时可以开启dump_graphs查看算子融合情况4.3 性能对比测试在Ascend 310P上测试不同配置的ResNet50推理时延配置时延(ms)内存占用默认参数8.21.2GBFP16模式5.70.8GB图优化FP164.10.9GB从数据可以看出合理的参数组合能带来显著的性能提升。不过也要注意FP16可能会导致精度损失实际业务中需要做好验证。5. 常见问题排查5.1 编译阶段问题问题一acl库链接错误undefined reference to aclrtSetDevice解决方法export CXXFLAGS-I/usr/local/Ascend/ascend-toolkit/latest/acllib/include export LDFLAGS-L/usr/local/Ascend/ascend-toolkit/latest/acllib/lib64问题二Python绑定生成失败检查是否安装了正确版本的protobufpip install protobuf3.20.15.2 运行时问题问题一找不到CANN提供器确认两点安装的是自己编译的onnxruntime_cann运行前执行了source set_env.sh问题二模型加载失败常见于包含不支持算子的情况可以用官方工具检查python -m onnxruntime.tools.check_onnx_model resnet34.onnx5.3 性能问题如果发现推理速度不如预期建议按以下步骤排查用npu-smi查看NPU利用率检查是否启用了enable_cann_graph尝试不同的arena_extend_strategy使用Ascend的msprof工具进行性能分析我在部署EfficientNet时遇到过性能反而不如CPU的情况最后发现是因为模型中的Swish激活函数没有被正确融合。通过修改模型中的Swish为SigmoidMultiply后性能提升了7倍。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2517414.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!