第六章:异步访问的同步:6.3.1 dma_resv_usage 层级机制详解
1. 概述dma_resvDMA reservation object是 Linux 内核中管理 GPU buffer 同步的核心机制。每个dma_resv对象维护一组dma_fence用于追踪对该 buffer 的各种操作。enum dma_resv_usage定义了 fence 的用途级别控制谁能看到这个 fence。这套层级机制是理解 TTM 内存管理、GPU 命令提交、隐式同步的关键。2. 四个 Usage 级别enumdma_resv_usage{DMA_RESV_USAGE_KERNEL,// 0 — 内核内存管理DMA_RESV_USAGE_WRITE,// 1 — 隐式写同步DMA_RESV_USAGE_READ,// 2 — 隐式读同步DMA_RESV_USAGE_BOOKKEEP,// 3 — 无隐式同步仅记账};2.1 KERNEL — 内核内存管理操作级别值: 0最低/最严格 语义: 内核内部的内存管理 DMA 操作 场景: BO 搬迁move、内存清零clear、页表更新谁应该等待 KERNEL fence所有人。任何访问该 buffer 的代码都必须先等待 KERNEL fence 完成。唯一的例外是 buffer 已被 pin 住位置锁定的情况。amdgpu 实例// TTM 搬迁时添加 KERNEL fencedma_resv_add_fence(bo-base.resv,fence,DMA_RESV_USAGE_KERNEL);// VM 页表更新等待 KERNEL fencedma_resv_wait_timeout(bo-tbo.base.resv,DMA_RESV_USAGE_KERNEL,...);2.2 WRITE — 隐式写同步级别值: 1 语义: 用户空间命令提交的写操作 场景: GPU 渲染写入 render target、compute shader 写入 bufferamdgpu 实例命令提交amdgpu_cs.c// gang leader 的 fence 作为 WRITE 添加dma_resv_add_fence(gobj-resv,p-fence,DMA_RESV_USAGE_WRITE);2.3 READ — 隐式读同步级别值: 2 语义: 用户空间命令提交的读操作 场景: GPU 采样纹理、读取 uniform bufferamdgpu 实例命令提交amdgpu_cs.c// gang 非 leader 的 fence 作为 READ 添加dma_resv_add_fence(gobj-resv,p-jobs[i]-base.s_fence-finished,DMA_RESV_USAGE_READ);2.4 BOOKKEEP — 无隐式同步级别值: 3最高/最宽松 语义: 不参与隐式同步仅内部记账 场景: 抢占 fence、页表更新、TLB flush、eviction fenceBOOKKEEP fence不会被隐式同步查询READ、WRITE 级别看到。只有显式使用DMA_RESV_USAGE_BOOKKEEP级别查询时才会被返回。KFD eviction fence 实例amdgpu_amdkfd_gpuvm.cdma_resv_add_fence(vm-root.bo-tbo.base.resv,vm-process_info-eviction_fence-base,DMA_RESV_USAGE_BOOKKEEP);3. 层级包含规则3.1 核心规则查询某个级别的 fence 时该级别及所有更低级别的 fence 都会被返回。这是由数值大小决定的KERNEL(0)WRITE(1)READ(2)BOOKKEEP(3)\text{KERNEL}(0) \text{WRITE}(1) \text{READ}(2) \text{BOOKKEEP}(3)KERNEL(0)WRITE(1)READ(2)BOOKKEEP(3)查询 KERNEL → 返回 KERNEL 查询 WRITE → 返回 KERNEL WRITE 查询 READ → 返回 KERNEL WRITE READ 查询 BOOKKEEP → 返回 KERNEL WRITE READ BOOKKEEP全部3.2 实现原理fence 列表中每个条目存储的是(fence_ptr | usage)usage 编码在指针的低 2 位。迭代器的过滤逻辑dma-resv.cstaticvoiddma_resv_iter_walk_unlocked(structdma_resv_iter*cursor){do{dma_resv_list_entry(cursor-fences,cursor-index,cursor-obj,cursor-fence,cursor-fence_usage);// ...if(!dma_fence_is_signaled(cursor-fence)cursor-usagecursor-fence_usage)// ← 关键过滤条件break;}while(true);}过滤条件cursor-usage cursor-fence_usage的含义查询级别cursor-usage大于等于fence 的实际级别fence_usage时该 fence 被返回例查询 READ(2)fence 级别为 WRITE(1) → 2 ≥ 1 → ✅ 返回例查询 WRITE(1)fence 级别为 READ(2) → 1 ≥ 2 → ❌ 跳过3.3 可见性矩阵查询级别 ↓ / Fence 级别 →KERNELWRITEREADBOOKKEEPKERNEL✅❌❌❌WRITE✅✅❌❌READ✅✅✅❌BOOKKEEP✅✅✅✅4. Fence 升降级规则4.1 可以升级提升可见性// 原来是 BOOKKEEP再次添加为 READ → 升级为 READdma_resv_add_fence(resv,fence,DMA_RESV_USAGE_BOOKKEEP);// fence 级别 3dma_resv_add_fence(resv,fence,DMA_RESV_USAGE_READ);// fence 级别 → 2升级意味着数值变小 → 被更多查询可见 → 参与更多同步。4.2 不能降级降低可见性// 原来是 WRITE再次添加为 READ → 不变仍为 WRITEdma_resv_add_fence(resv,fence,DMA_RESV_USAGE_WRITE);// fence 级别 1dma_resv_add_fence(resv,fence,DMA_RESV_USAGE_READ);// fence 级别仍然 1实现dma_resv_add_fencefor(i0;icount;i){dma_resv_list_entry(fobj,i,obj,old,old_usage);if((old-contextfence-contextold_usageusagedma_fence_is_later_or_same(fence,old))||dma_fence_is_signaled(old)){dma_resv_list_set(fobj,i,fence,usage);// 替换return;}}替换条件中old_usage usage确保只有当旧 fence 的 usage 值 ≥ 新 usage 值时即旧 fence 可见性 ≤ 新 fence 可见性才执行替换。5. 主要 API5.1 添加 Fence// 预留 slot不可失败的后续 add 需要预先分配intdma_resv_reserve_fences(structdma_resv*obj,unsignedintnum_fences);// 添加 fence必须先 reserve且持有 resv lockvoiddma_resv_add_fence(structdma_resv*obj,structdma_fence*fence,enumdma_resv_usageusage);5.2 等待 Fence// 等待指定级别及以下的所有 fencelongdma_resv_wait_timeout(structdma_resv*obj,enumdma_resv_usageusage,bool intr,unsignedlongtimeout);// 返回值: 0 成功, 0 超时, 0 错误5.3 测试 Fence 状态// 检查指定级别及以下的所有 fence 是否都已 signaledbooldma_resv_test_signaled(structdma_resv*obj,enumdma_resv_usageusage);5.4 遍历 Fence// 需要持锁遍历structdma_resv_itercursor;structdma_fence*fence;dma_resv_for_each_fence(cursor,obj,DMA_RESV_USAGE_READ,fence){// fence 的 usage READ 的都会被遍历到}// 无锁遍历RCU 保护可能 restartdma_resv_for_each_fence_unlocked(cursor,fence){if(dma_resv_iter_is_restarted(cursor))// 处理 restart}5.5 获取所有 Fence// 获取指定级别及以下的所有 fence返回数组调用者负责释放intdma_resv_get_fences(structdma_resv*obj,enumdma_resv_usageusage,unsignedint*num_fences,structdma_fence***fences);5.6 辅助函数// 隐式同步用写操作需要等读写读操作只需等写staticinlineenumdma_resv_usagedma_resv_usage_rw(bool write){returnwrite?DMA_RESV_USAGE_READ:DMA_RESV_USAGE_WRITE;}这个看似反直觉的映射逻辑新写操作writetrue→ 返回READ(2) → 等待 KERNEL WRITE READ → 等所有读写完成新读操作writefalse→ 返回WRITE(1) → 等待 KERNEL WRITE → 只等写完成6. TTM 如何使用 Usage 层级6.1 TTM 搬迁时添加 KERNEL fence// ttm_bo.c — ttm_bo_handle_move_memdma_resv_add_fence(bo-base.resv,fence,DMA_RESV_USAGE_KERNEL);搬迁产生的 DMA 操作是内核内部行为必须被所有后续操作等待。6.2 TTM eviction 等待所有 fence// ttm_bo.c — ttm_bo_wait_ctxintttm_bo_wait_ctx(structttm_buffer_object*bo,structttm_operation_ctx*ctx){retdma_resv_wait_timeout(bo-base.resv,DMA_RESV_USAGE_BOOKKEEP,ctx-interruptible,15*HZ);}TTM 在驱逐 BO 前用BOOKKEEP级别等待 →等待所有 fence包括 BOOKKEEP。这确保了所有 GPU 命令已完成WRITE/READ fence所有内核搬迁已完成KERNEL fence所有内部记账 fence 已完成BOOKKEEP fence6.3 DISCARDABLE BO 的驱逐流程ttm_bo_evict(bo) // num_placement 0 (DISCARDABLE) → ttm_bo_wait_ctx(bo) // 等 BOOKKEEP 级全部 fence → dma_resv_wait_timeout(..., DMA_RESV_USAGE_BOOKKEEP, ...) → 遍历所有 fence等待每一个 → ttm_bo_pipeline_gutting(bo) // 丢弃 BO 内容7. 实际应用场景7.1 GPU 命令提交隐式同步// amdgpu_cs.c — 提交完成后在每个引用的 BO 上添加 fence// 所有 gang member 的 fence → READ其他人能并行读dma_resv_add_fence(gobj-resv,p-jobs[i]-base.s_fence-finished,DMA_RESV_USAGE_READ);// gang leader 的 fence → WRITE后续读写都要等它dma_resv_add_fence(gobj-resv,p-fence,DMA_RESV_USAGE_WRITE);后续对同一 BO 的操作会按需等待另一个写操作提交时 → 查询 READ → 等待所有读写 fence另一个读操作提交时 → 查询 WRITE → 只等写 fence7.2 DMA-BUF 导出/隐式同步// dma-buf.c — 用户空间 DMA_BUF_IOCTL_SYNCusage(arg.flagsDMA_BUF_SYNC_WRITE)?DMA_RESV_USAGE_WRITE:DMA_RESV_USAGE_READ;dma_resv_wait_timeout(dmabuf-resv,dma_resv_usage_rw(write),...);跨设备共享 buffer 时隐式同步依赖 WRITE/READ fence。BOOKKEEP fence 不参与 → 不会阻塞跨设备共享。7.3 SVM Eviction Fencedma_resv_reserve_fences(bo-tbo.base.resv,1);dma_resv_add_fence(bo-tbo.base.resv,evict_fence-base,DMA_RESV_USAGE_BOOKKEEP);选择 BOOKKEEP 的原因语义正确eviction fence 是内部管理用途不代表 GPU 读写操作不干扰隐式同步READ/WRITE 级别的查询看不到这个 fenceTTM 驱逐时可见ttm_bo_wait_ctx使用 BOOKKEEP 查询 → 能等到我们的 fence7.4 Xe 驱动中的 Page Table 更新// xe_vm.c — 页表更新 fence 使用 BOOKKEEPdma_resv_add_fence(xe_vm_resv(vm),fence-base,DMA_RESV_USAGE_BOOKKEEP);页表更新是内部操作不参与 buffer 隐式同步。8. 如何选择正确的 Usage 级别我的 fence 代表什么操作 │ ├─ 内核内存管理 DMA搬迁/清零/拷贝 │ → DMA_RESV_USAGE_KERNEL │ ├─ GPU 命令提交的写操作 │ → DMA_RESV_USAGE_WRITE │ ├─ GPU 命令提交的读操作 │ → DMA_RESV_USAGE_READ │ └─ 内部管理/不参与隐式同步 抢占、页表更新、eviction fence、TLB flush → DMA_RESV_USAGE_BOOKKEEP等待时应该用什么级别我需要等什么 │ ├─ 只等内核搬迁完成 │ → dma_resv_wait_timeout(resv, DMA_RESV_USAGE_KERNEL, ...) │ ├─ 等之前的写操作完成我要读 │ → dma_resv_wait_timeout(resv, DMA_RESV_USAGE_WRITE, ...) │ ├─ 等之前的所有读写完成我要写 │ → dma_resv_wait_timeout(resv, DMA_RESV_USAGE_READ, ...) │ └─ 等所有操作完成驱逐/释放 BO → dma_resv_wait_timeout(resv, DMA_RESV_USAGE_BOOKKEEP, ...)9. amdgpu_bo_fence 封装说明amdgpu_bo_fence是 amdgpu 对dma_resv_add_fence的封装voidamdgpu_bo_fence(structamdgpu_bo*bo,structdma_fence*fence,bool shared){structdma_resv*resvbo-tbo.base.resv;intr;rdma_resv_reserve_fences(resv,1);if(r){dma_fence_wait(fence,false);// OOM 时退化为同步等待return;}dma_resv_add_fence(resv,fence,shared?DMA_RESV_USAGE_READ:DMA_RESV_USAGE_WRITE);}sharedtrue→DMA_RESV_USAGE_READsharedfalse→DMA_RESV_USAGE_WRITE注意amdgpu_bo_fence只支持 READ 和 WRITE 两个级别。如果需要 KERNEL 或 BOOKKEEP必须直接调用dma_resv_add_fence。10. 总结级别数值语义典型场景被谁等待KERNEL0内核内存管理BO move/clear所有操作WRITE1隐式写同步GPU 写命令后续读写READ2隐式读同步GPU 读命令后续写操作BOOKKEEP3无隐式同步eviction fence, PT update仅 BOOKKEEP 查询核心设计思想数值越小可见范围越广同步约束越强数值越大可见范围越窄越不影响其他操作TTM eviction 和 BO 释放用 BOOKKEEP 查询 → 保证等待一切隐式同步dma-buf 共享只看 KERNEL/WRITE/READ → BOOKKEEP 完全透明选择 BOOKKEEP 给内部管理 fence 是最安全的做法不干扰外部同步只在需要时驱逐/释放被等待
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2501887.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!