VulCNN:多视图图表征驱动的可扩展漏洞检测体系
“传统深度学习模型或仅关注语法序列或局限于单一图结构难以全面捕获程序的多维语义。为此本文提出 VulCNN —— 一种基于多视图图表示的可扩展漏洞检测系统通过从抽象语法树AST、控制流图CFG与程序依赖图PDG中提取多维特征将源代码转化为多通道图像实现结构与语义信息的深度融合。”论文标题A Scalable Vulnerability Detection System with Multi-View Graph Representations发表时间2025ACM Transactions on Software Engineering and Methodology, https://github.com/Ablustrund/VulCNNPlus.作者单位复旦大学、华中科技大学等01—方法介绍MVGVD 构建了一个多视图的代码图表示体系通过抽象语法树AST、控制流图CFG与数据流图DFG三种图结构的互补性捕获不同层次的语义关系。具体而言从源代码中构建三类图AST、CFG 与 PDG分别描述语法结构、控制流与数据流。在每个图上进行中心性分析包括Degree、Closeness、Betweenness、Eigenvector、Harmonic、Katz 六种提取不同层次的结构重要性。将各中心性度量视为图像的不同通道形成多视图输入用 CNN 捕获空间结构特征。通过自适应重加权层Adaptive Re-weighting Layer自动学习三类视图的重要性分布融合为统一表示进行漏洞分类。图 1. 将函数转换为多视图图像示例小结MVGVD从单一图结构扩展到多视角结构学习使模型在保持可扩展性的同时具备更强的语义覆盖与泛化能力。02—关键机制机制实现方式主要作用多视图图建模构建 AST / CFG / PDG 三类函数图捕获语法、控制与数据依赖中心性分析Degree、Closeness、Betweenness、Eigenvector、Harmonic、Katz量化节点重要性生成多通道图像特征提取10组卷积核的 CNN 提取结构特征共享参数捕获跨视图的模式表示自适应重加权层Softmax 权重融合多视图嵌入自动调节不同图视角的贡献小结VulCNN通过中心性驱动的多视图表示和可学习融合策略使模型既能保持结构细粒度又具备语义全局性。03—实验结果实验在三个公开数据集上进行Devign、Big-Vul、Reveal。下表摘自论文主要实验结果F1 值单位%。模型DevignBig-VulReVealTokenCNN48.634.023.2VulDeePecker47.136.536.8Devign58.245.748.9VulCNN (Old)61.144.044.8UniXcoder59.342.950.0DeepSeek-Coder60.743.347.4Grace63.346.249.2VulCNN (本文)63.846.750.2小结 VulCNN 在 Recall 与 F1 上显著优于传统图模型与主流LLM 方法在大规模漏洞检测任务中展现出更高的精度与可扩展性。 总结VulCNN通过多视图图构建与自适应融合实现了从程序结构到语义空间的高效映射显著提升了代码漏洞检测的准确率与可扩展性。其创新的中心性度量与视图融合机制为多模态程序理解提供了新的范式。 欢迎留言讨论你认为未来漏洞检测系统的核心突破点会在「结构增强」还是「大模型语义理解」在企业场景中多视图图模型如何与传统静态分析引擎协同工作 点赞 收藏 分享你的支持是我们持续解析高水平软件安全论文的最大动力
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2574245.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!