CANN/cann-samples N-Buffer特性介绍
N-Buffer特性介绍【免费下载链接】cann-samples算子领域高性能实战演进样例与体系化调优知识库项目地址: https://gitcode.com/cann/cann-samples1. 原理介绍1.1 背景在NPU神经网络处理单元的数值计算中性能瓶颈往往不在于计算单元本身的处理速度而在于数据搬运与计算之间的等待延迟。传统编程模式下数据加载通常由MTE流水完成和矩阵计算由Cube流水执行采用串行执行方式计算单元必须等待当前数据块完全加载至片上后才能开始运算而在计算过程中数据加载单元又处于空闲状态。这种串行模式导致硬件资源利用率低下计算流水线上频繁出现“空洞”严重制约了整体性能。1.2 原理N-Buffer 是一种经典的流水线并行优化技术其核心思想在于通过引入多份缓冲区实现数据加载与计算的重叠执行从而有效隐藏数据搬移带来的延迟。以双缓冲机制为例通过将芯片内部缓冲区划分为两个独立区域使得数据搬运与计算任务能够交替进行避免了因防止数据冲突而引入的等待开销从而提升了流水线并行度。然而当数据搬移时间较长或计算粒度较小时双缓冲机制仍可能出现计算单元空闲、等待数据就绪的情况。为进一步隐藏数据搬移延迟可引入四缓冲机制。四缓冲在双缓冲的基础上将缓冲区数量扩展至四个构建更深层次的流水线结构进一步增强数据供给与计算执行之间的解耦能力。在高端 NPU 或对性能有极致要求的场景中还可根据实际流水级数和访存特性进一步增加缓冲块数量以实现更高的资源利用率。计算流水图如下如图所示在传统串行模式下计算单元与搬运单元无法并行工作导致计算资源频繁空闲整体效率显著降低。而在Double Buffer双缓冲下文简称 DB模式下当计算单元正在处理缓冲区0中的数据时数据加载单元可同时将下一块数据预取至缓冲区1中。通过这种“乒乓”式的流水线机制计算与搬运过程实现完全重叠流水线持续饱满硬件利用率得以大幅提升。可以在流水图中看到各级均配置了ping/pong双缓冲区从而实现“搬运-计算”的无缝重叠。这六个步骤环环相扣最大限度地提升了硬件利用率。1.3 预期效果隐藏搬运延迟计算单元无需等待数据加载持续满负荷运转。提升硬件利用率MTE2和Cube单元并行工作接近理论峰值性能。减少流水间隙消除计算间的等待时间实现指令级并行。2. 实践使用DB优化matmul计算流水2.1 代码以下以一个典型的MatMul计算为例展示如何改造为DB使能版本。2.1.1 流水同步事件初始化由于 MatMul 计算流水线由流水同步事件严格管控在循环起始处需等待上一轮数据搬运完成后方可继续执行 因此需要提前初始化同步事件标志。在串行版本中仅初始化了单一组事件标志所有同步操作均依赖同一标志位导致不同流水阶段之间无法实现独立的并行执行。引入DB机制后可初始化两组独立的事件标志分别对应 Ping 缓冲区和 Pong 缓冲区。同时引入 l1PingPong 与 l0PingPong 计数器用于追踪当前所使用的缓冲区索引为后续实现乒乓切换机制奠定基础。串行版本constexpr static int16_t ZERO_FLAG 0; ... // 流水同步事件初始化 AscendC::SetFlagAscendC::HardEvent::MTE1_MTE2(ZERO_FLAG); AscendC::SetFlagAscendC::HardEvent::M_MTE1(ZERO_FLAG);DB使能版本constexpr static int16_t ZERO_FLAG 0; constexpr static int16_t FIRST_FLAG 1; ... // 初始化变量 uint64_t baseM 256; uint64_t l1PingPong 0; // L1 ping-pong缓冲区索引 uint64_t l0PingPong 0; // L0 ping-pong缓冲区索引 // ... 其他初始化代码 // 流水同步事件初始化包含两套事件标志 AscendC::SetFlagAscendC::HardEvent::MTE1_MTE2(ZERO_FLAG); AscendC::SetFlagAscendC::HardEvent::M_MTE1(ZERO_FLAG); AscendC::SetFlagAscendC::HardEvent::MTE1_MTE2(FIRST_FLAG); AscendC::SetFlagAscendC::HardEvent::M_MTE1(FIRST_FLAG);2.1.2 将L1数据搬运到L0A/L0B阶段串行版本每次搬运操作前必须等待上一次操作完全结束后方可执行搬运完成后才能触发下一阶段整个过程严格串行硬件资源无法得到充分利用。通过引入DB机制可动态选择对应的事件标志进行等待使得当前缓冲区的计算与下一缓冲区的数据预加载能够并行执行。每次操作完成后计数器相应递增实现 Ping/Pong 缓冲区的循环切换从而形成连续的流水线结构有效提升硬件资源利用率。串行版本// 等待MTE1搬运完成触发MTE2启动 AscendC::WaitFlagAscendC::HardEvent::MTE1_MTE2(ZERO_FLAG); // 将L1数据搬运到L0A/L0B // ... 数据搬运代码 // 标记MTE2搬运完成触发MTE1启动 AscendC::SetFlagAscendC::HardEvent::MTE2_MTE1(ZERO_FLAG); AscendC::WaitFlagAscendC::HardEvent::MTE2_MTE1(ZERO_FLAG); // ... L0A/L0B搬运至MMAD并计算 // 标记MTE1搬运完成触发对应L1缓冲区的下一轮MTE2启动 AscendC::SetFlagAscendC::HardEvent::MTE1_MTE2(ZERO_FLAG);DB使能版本// 根据当前L1缓冲区索引等待对应事件 uint64_t l1BufId l1PingPong 1; AscendC::WaitFlagAscendC::HardEvent::MTE1_MTE2(l1BufId); // 将L1数据搬运到L0A/L0B // ... 数据搬运代码 // 标记MTE2搬运完成触发对应L1缓冲区的MTE1启动 AscendC::SetFlagAscendC::HardEvent::MTE2_MTE1(l1BufId); AscendC::WaitFlagAscendC::HardEvent::MTE2_MTE1(l1BufId); // ... L0A/L0B搬运至MMAD并计算 // 标记MTE1搬运完成触发对应L1缓冲区的下一轮MTE2启动 AscendC::SetFlagAscendC::HardEvent::MTE1_MTE2(l1BufId); l1PingPong;2.1.3 MMAD计算阶段串行版本采用单一事件标志控制同步计算单元必须等待数据准备就绪后方可开始运算反之数据搬运亦须等待计算完成二者形成相互等待的阻塞关系严重制约了并行执行效率。相比之下DB 方法为 L0 层级引入独立的缓冲区索引与事件标志使 L0 数据的准备与 MMAD 计算能够重叠执行。当一组 L0 数据送入计算单元时另一组 L0 数据可同步进行预处理从而进一步深化流水线并行度显著提升整体执行效率。串行版本// 等待MMAD计算完成触发MTE1启动 AscendC::WaitFlagAscendC::HardEvent::M_MTE1(ZERO_FLAG); // 将L0A/L0B数据送入MMAD进行计算 // ... 数据准备代码 // 标记MTE1搬运完成触发MMAD启动 AscendC::SetFlagAscendC::HardEvent::MTE1_M(ZERO_FLAG); AscendC::WaitFlagAscendC::HardEvent::MTE1_M(ZERO_FLAG); // 执行矩阵乘加计算 AscendC::Te::Mad( MmadAtomMmadTraitsMmadOperation, MmadTraitDefault{}, tensorL0C, tensorAL0, tensorBL0, para); // 标记MMAD计算完成触发下一轮MTE1启动 AscendC::SetFlagAscendC::HardEvent::M_MTE1(ZERO_FLAG);DB使能版本// 根据当前L0缓冲区索引等待对应事件 uint64_t l0BufId l0PingPong 1; AscendC::WaitFlagAscendC::HardEvent::M_MTE1(l0BufId); // 将L0A/L0B数据送入MMAD进行计算 // ... 数据准备代码 // 标记MTE1搬运完成触发对应L0缓冲区的MMAD启动 AscendC::SetFlagAscendC::HardEvent::MTE1_M(l0BufId); AscendC::WaitFlagAscendC::HardEvent::MTE1_M(l0BufId); // 执行矩阵乘加计算 AscendC::Te::Mad( MmadAtomMmadTraitsMmadOperation, MmadTraitDefault{}, tensorL0C, tensorAL0, tensorBL0, para); // 标记MMAD计算完成触发对应L0缓冲区的下一轮MTE1启动 AscendC::SetFlagAscendC::HardEvent::M_MTE1(l0BufId); l0PingPong; // 切换L0缓冲区2.1.4 fixpipe搬出数据阶段在结果搬出环节串行等待方式导致其与计算过程无法有效并行。相比之下DB 机制在循环处理结束后结果搬出操作虽仍可与计算并行执行从而在一定程度上提升整体性能但其本质上仍存在串行等待机制限制了并行效率的充分发挥。串行版本// 等待MMAD计算完成触发fixpipe搬出数据 AscendC::SetFlagAscendC::HardEvent::M_FIX(ZERO_FLAG); AscendC::WaitFlagAscendC::HardEvent::M_FIX(ZERO_FLAG); // 将L0C结果搬回GM auto copyL0C2GM AscendC::Te::MakeCopy(AscendC::Te::CopyL0C2GM{}); AscendC::Te::Copy(copyL0C2GM, gmBlockC_, tensorL0C); // ... 循环处理 // 释放尾轮多余的事件配置 AscendC::WaitFlagAscendC::HardEvent::MTE1_MTE2(ZERO_FLAG); AscendC::WaitFlagAscendC::HardEvent::M_MTE1(ZERO_FLAG);DB使能版本// 等待MMAD计算完成触发fixpipe搬出数据 AscendC::SetFlagAscendC::HardEvent::M_FIX(ZERO_FLAG); AscendC::WaitFlagAscendC::HardEvent::M_FIX(ZERO_FLAG); // 将L0C结果搬回GM auto copyL0C2GM AscendC::Te::MakeCopy(AscendC::Te::CopyL0C2GM{}); AscendC::Te::Copy(copyL0C2GM, gmBlockC_, tensorL0C); // ... L0C缓冲区切换 // ... 循环处理 // 释放所有事件配置 AscendC::WaitFlagAscendC::HardEvent::MTE1_MTE2(ZERO_FLAG); AscendC::WaitFlagAscendC::HardEvent::M_MTE1(ZERO_FLAG); AscendC::WaitFlagAscendC::HardEvent::MTE1_MTE2(FIRST_FLAG); AscendC::WaitFlagAscendC::HardEvent::M_MTE1(FIRST_FLAG);关键改动点引入双缓冲区定义两个缓冲区异步搬运在计算当前块的同时发起下一次搬运乒乓切换通过buffId交替使用缓冲区2.2 修改注意点缓冲区大小设置需要根据硬件L1/L2缓存大小和算子Tiling参数合理设置避免数据溢出同步点控制 确保流水同步等待先后顺序与预期执行逻辑一致多核场景 通过流水ID切换确保DB与多核并行结合每个核独立使用双缓冲3. 性能结果对比3.1 case前后性能以基础MatMul算子为例在相同输入规模M1024, K2048, N4096下进行性能测试通过Profiling工具采集硬件流水线执行状态。从上图可以看出在串行执行模式下计算单元Cube与数据搬运单元MTE2呈现明显的交替工作状态。当搬运单元加载数据时计算单元处于空闲等待状态而当计算单元开始运算时搬运单元又停止工作。这种“搬-等-算-等”的串行模式导致硬件资源利用率低下流水线中出现大量空洞整体执行时间较长。开启DB特性后硬件流水线状态发生显著变化。计算单元与搬运单元实现高度并行在Cube单元处理当前数据块的同时MTE2单元已经开始预加载下一块数据。从图中可以清晰看到两条流水线几乎完全重叠流水线空洞大幅减少硬件资源得到充分利用。最终体现在执行时间上算子端到端延迟降低约40%硬件利用率提升至接近理论峰值。4. 结论适用场景搬运带宽遇到瓶颈当单次计算耗时远小于搬运时带宽遇到瓶颈开启db可以有效提升搬运效率。多核并行 每个核独立使用DB整体收益累加对于是否可以通过开启DB来提升流水并行度可以先分析Profiling数据判断当前瓶颈是计算还是搬运。若搬运时间远大于计算优先尝试DB优化同时需要结合Tiling策略确保切分后的Tile大小可以在开启双buffer后不超出硬件资源多核使用时注意线程同步。5. 编译 执行编译样例从项目根目录启动构建参考项目README.md在仓库根目录下完成编译和安装后进入当前样例目录cmake -S . -B build -DNPU_ARCHdav-3510 cmake --build build --parallel cmake --install build --prefix ./build_out cd ./build_out/1_Features/instruction_optimization/n_buffer/如需单独编译当前样例可使用以下指令cmake --build build --target n_buffer cp ./Samples/1_Features/instruction_optimization/n_buffer/scripts/profile_matmul.py ./build/Samples/1_Features/instruction_optimization/n_buffer/ cd ./build/Samples/1_Features/instruction_optimization/n_buffer/运行样例使用可执行文件直接执行算子用例需要指定矩阵乘维度并随机生成输入数据。./n_buffer 1024 2048 4096打印如下执行结果证明样例执行成功。matmul run successfully!如果存在精度问题则会打印错误数据并显示如下结果。matmul run failed!测试性能 运行性能测试脚本指定矩阵乘法的维度后执行。python3 profile_matmul.py 1024 2048 4096打印如下执行结果证明样例性能测试成功。[Profile Breakdowm] --------------------------------------------------------------------------------------------- | candidate | kernel(us) | mac(us) | scalar(us) | mte1(us) | mte2(us) | fixpipe(us) | icache_miss(%) | | n_buffer | 66.000 | 40.810 | 2.558 | 10.659 | 37.595 | 1.980 | 1.200 | ---------------------------------------------------------------------------------------------与相同输入规模下的基础 matmul 算子相比[Profile Breakdowm] --------------------------------------------------------------------------------------------- | candidate | kernel(us) | mac(us) | scalar(us) | mte1(us) | mte2(us) | fixpipe(us) | icache_miss(%) | | matmul | 86.870 | 43.804 | 1.850 | 12.997 | 51.857 | 2.970 | 2.200 | ---------------------------------------------------------------------------------------------可以看到整体计算时间显著缩短性能有所提升。6. 支持架构NPU ARCH 3510【免费下载链接】cann-samples算子领域高性能实战演进样例与体系化调优知识库项目地址: https://gitcode.com/cann/cann-samples创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2598712.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!