【Zynq 进阶三】榨干带宽!深度解析 Linux 下 AXI DMA 高速数据搬运与 Cache 一致性实战
【Zynq 进阶三】榨干带宽深度解析 Linux 下 AXI DMA 高速数据搬运与 Cache 一致性实战文章目录【Zynq 进阶三】榨干带宽深度解析 Linux 下 AXI DMA 高速数据搬运与 Cache 一致性实战 前言为什么 UIO 搞不定海量数据 第一部分硬件大局观——认识 AXI DMA1. 三大 AXI 总线的绝妙配合2. DMA 到底在干嘛 第二部分Linux DMA 开发的最大天坑——Cache 一致性1. 通俗理解 Cache 冲突2. 如何解决️ 第三部分实战派——在用户态控制 DMA零拷贝方案步骤 1在设备树中预留一块“非缓存”内存步骤 2用 UIO 接管 AXI DMA 的控制寄存器步骤 3C 语言 App 启动 DMA 传输并读取数据 第四部分进阶展望——V4L2 框架的降维打击总结 前言为什么 UIO 搞不定海量数据在上一篇教程中我们通过 UIO 框架让跑在 Linux 用户态的 App 能够轻松读写 PL 端FPGA的 AXI-Lite 寄存器。点亮几个 LED、读写几个状态位UIO 绝对是神器。但是如果你面对的是以下场景呢高速 ADC 采集每秒产生几十 MB 甚至上 GB 的数据流。高清视频流处理1080P 60帧的摄像头图像需要送进 ARM 跑 OpenCV 或者 AI 模型。如果你还指望用 CPU 通过 UIO 去“挨个字节”读取这些数据结果只有一个CPU 占用率瞬间飙升到 100%系统直接卡死而且数据还会大量丢失因为 CPU 是公司的“大老板”你不能让他去干“搬砖”的体力活。这就需要引入专业的“物流团队”——AXI DMA (Direct Memory Access)。今天我们就来深度剖析在 PetaLinux 下如何优雅、高效地玩转 AXI DMA并彻底讲透让无数开发者抓狂的Cache缓存一致性问题 第一部分硬件大局观——认识 AXI DMA在 Vivado 中常用的 DMA 有两种AXI DMA和AXI VDMA专门针对视频。无论是哪种它们的核心工作原理是一样的主要扮演**“翻译官”和“搬运工”**的角色。1. 三大 AXI 总线的绝妙配合在 Zynq 中有三种 AXI 总线分工明确AXI-Lite轻量级用于 PS 控制 PL 端的寄存器。大老板发指令AXI-Stream数据流没有地址概念只有握手信号Valid/Ready数据像水流一样源源不断。常用于连接 ADC、DAC、图像传感器。工厂流水线AXI-Full全功能支持突发传输Burst通过具体的物理地址对 DDR 内存进行批量读写。大型物流车2. DMA 到底在干嘛DMA 的本质就是 AXI-Stream 和 AXI-Full 之间的桥梁。S2MMStream to Memory Map接收通道把 FPGA 产生的水流Stream收集起来按地址写进 DDR 内存Full。MM2SMemory Map to Stream发送通道把 DDR 内存里的数据Full读出来化作水流Stream冲进 FPGA。(在这个过程中CPU 只需要在传输开始前告诉 DMA 两个参数“内存首地址”和“传输长度”然后就可以去喝茶了。DMA 搬完后会给 CPU 发个中断“老板货送到了”) 第二部分Linux DMA 开发的最大天坑——Cache 一致性如果你在裸机Bare-metal下跑过 DMA会觉得很简单。但一到 Linux 下很多人的数据就全乱了明明 DMA 提示搬运完成了但 CPU 读出来的内存数据全是 0或者是旧数据罪魁祸首就是Cache高速缓存。1. 通俗理解 Cache 冲突我们可以打个比方DDR 内存 公司的大黑板所有人都能看。CPU 坐在前排的老板。Cache 老板桌上的小本子。DMA 后勤小哥。为了提高效率老板CPU不会每次都抬头看黑板读写DDR而是把黑板上的内容抄到小本子Cache上。现在后勤小哥DMA把一批新货悄悄写到了黑板上DDR但老板并不知道当你需要处理数据时老板依然低头看自己的小本子Cache读出来的自然是旧数据2. 如何解决在 Linux 驱动中解决这个问题有两个标准动作Invalidate使无效 / 刷新 Cache接收数据前S2MM。CPU 撕掉小本子上的旧记录强迫自己下次必须抬头看黑板强制从 DDR 重新读取最新数据。Flush / Clean冲刷 Cache发送数据前MM2S。CPU 把小本子上刚写好的新命令立刻誊抄到黑板上强制把 Cache 里的数据写入 DDR这样 DMA 才能读到最新的数据。️ 第三部分实战派——在用户态控制 DMA零拷贝方案在标准的 Linux 开发中写 DMA 驱动需要使用复杂的dmaengine框架。但对于很多自定义的 FPGA 算法模块我们更希望在 App 层直接收发数据。结合我们本系列第一篇保留内存和第二篇UIO 控制我们可以组合出一个极其强大且高效的“用户态零拷贝 DMA 方案”步骤 1在设备树中预留一块“非缓存”内存打开system-user.dtsi利用no-map属性在 DDR 中划出一块专属地盘。no-map的神奇之处不仅在于防止 Linux 乱用更在于这块内存默认是关闭 Cache 的这样就彻底根除了 Cache 一致性问题/ { reserved-memory { #address-cells 1; #size-cells 1; ranges; /* 为 DMA S2MM 通道保留 32MB 内存起始地址 0x30000000 */ dma_rx_buffer: buffer30000000 { no-map; reg 0x30000000 0x02000000; }; }; };步骤 2用 UIO 接管 AXI DMA 的控制寄存器同样的配方把 Vivado 中 AXI DMA 的控制节点改为 UIOaxi_dma_0 { compatible generic-uio; };(注意AXI DMA 通常有两个中断S2MM 和 MM2SUIO 会将它们合并或你需要配置设备树分别映射为了简单我们可以采用轮询状态寄存器的方式检查传输完成)步骤 3C 语言 App 启动 DMA 传输并读取数据现在我们在 App 中既要用 UIO 控制 DMA 寄存器又要读取那块保留内存里的海量数据我们需要操作两个设备/dev/uio0用来配置 DMA 的寄存器源地址、目的地址、传输长度。/dev/mem用来直接把0x30000000处的物理内存映射到 App 中核心 C 代码示例#includestdio.h#includefcntl.h#includesys/mman.h#includeunistd.h#includestdint.h#defineDMA_REG_BASE_ADDR0x40400000// 假设 AXI DMA 控制寄存器物理地址#defineDMA_RX_BUF_ADDR0x30000000// 我们在设备树预留的内存物理地址#defineTRANSFER_SIZE4096// 传输字节数// AXI DMA 寄存器偏移 (S2MM 通道)#defineS2MM_DMACR0x30// 控制寄存器#defineS2MM_DMASR0x34// 状态寄存器#defineS2MM_DESTDESC0x48// 目的地址 (Simple Mode)#defineS2MM_LENGTH0x58// 传输长度 (写此寄存器触发传输!)intmain(){intfd_uio,fd_mem;volatileuint32_t*dma_regs;volatileuint32_t*rx_data;// 1. 映射 DMA 控制寄存器 (通过 UIO)fd_uioopen(/dev/uio0,O_RDWR);dma_regs(volatileuint32_t*)mmap(NULL,65536,PROT_READ|PROT_WRITE,MAP_SHARED,fd_uio,0);// 2. 映射高速数据缓冲区 (通过 /dev/mem 和 O_SYNC 确保无 Cache 干扰)fd_memopen(/dev/mem,O_RDWR|O_SYNC);rx_data(volatileuint32_t*)mmap(NULL,TRANSFER_SIZE,PROT_READ|PROT_WRITE,MAP_SHARED,fd_mem,DMA_RX_BUF_ADDR);printf(内存映射成功准备启动 DMA...\n);// 3. 配置并启动 DMA (Simple/Direct Mode)// 启动 S2MM 通道 (Run/Stop bit 1)dma_regs[S2MM_DMACR/4]0x0001;// 写入目的物理地址 (FPGA 只能认物理地址!)dma_regs[S2MM_DESTDESC/4]DMA_RX_BUF_ADDR;// 写入长度正式触发 DMA 搬运dma_regs[S2MM_LENGTH/4]TRANSFER_SIZE;// 4. 等待 DMA 完成 (轮询状态寄存器的 Idle/Halted 位)printf(等待 FPGA 数据流...\n);while((dma_regs[S2MM_DMASR/4]0x0002)0){// 阻塞等待直到 Idle 位为 1usleep(100);}// 5. 数据处理由于用了 no-map 和 O_SYNC这里的 rx_data 绝对是最新的printf(DMA 传输完成打印前 4 个数据\n);printf(Data 0: 0x%08X\n,rx_data[0]);printf(Data 1: 0x%08X\n,rx_data[1]);printf(Data 2: 0x%08X\n,rx_data[2]);printf(Data 3: 0x%08X\n,rx_data[3]);// 收尾工作munmap((void*)dma_regs,65536);munmap((void*)rx_data,TRANSFER_SIZE);close(fd_uio);close(fd_mem);return0;} 绝妙之处解析绝对零拷贝Zero-Copy数据从 FPGA 产生后直接流进 DDRApp 通过虚拟指针rx_data直接去 DDR 里读取全过程 CPU 没有参与一次数据搬运这就是榨干带宽的核心秘密。物理地址的桥接DMA 芯片是个“文盲”它不懂 Linux 的虚拟内存只认物理地址。所以给 DMA 配置寄存器时必须填入我们在设备树中预留的纯物理地址0x30000000。 第四部分进阶展望——V4L2 框架的降维打击上面的方案虽然高效但如果是做视频采集每次手动配置寄存器、手动管理多块内存Ping-Pong Buffer代码会变得非常复杂而且无法使用 Linux 丰富的视频生态如 FFmpeg、GStreamer。此时Xilinx 为我们提供了官方的正规军AXI VDMA 配合 V4L2Video for Linux 2框架。如果在设备树中绑定了 Xilinx 官方的 VDMA 驱动Linux 会在/dev/下生成一个/dev/video0节点。你不再需要关心什么物理地址、Cache 刷新。只需要在 App 里调用 V4L2 标准的ioctl()命令请求分配DMABUF。驱动会在底层自动帮你完成高阶的SG (Scatter-Gather分散聚集)模式 DMA 传输完美管理多帧缓存队列。由于 V4L2 框架涉及的内容极为庞杂足够再开三篇长文我们将把它作为视频专栏的压轴戏总结至此我们的《Zynq 进阶》三板斧已经全部打完地盘划分Device Tree Reserved Memory防互踩护航系统稳定。控制信令UIO Framework避开复杂驱动让底层寄存器赤裸裸展现在 App 面前。数据洪流DMA Cache Management打破 CPU 瓶颈实现纯硬件级别的数据吞吐。掌握了这三点恭喜你你已经迈过了 Zynq 嵌入式 Linux 软硬件协同开发最难的一道坎无论是做雷达信号处理、高速数据采集仪还是自定义 AI 硬件加速器这套架构都能让你游刃有余。下一篇我们将换一个视角聊聊如何裁剪和定制一个极速启动、带 Qt 图像界面的 PetaLinux 根文件系统敬请期待
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2458088.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!