谷歌威胁情报报告:威胁行为者已将AI直接融入实际网络攻击流程
谷歌威胁情报小组GTIG最新报告警示威胁行为者不再局限于对人工智能的简单试验而是开始将生成式AI直接整合到真实攻击工作流程中。报告特别聚焦对谷歌自家Gemini模型的滥用与针对性攻击表明生成式AI系统正日益成为恶意工具的测试、探测对象甚至被纳入攻击体系。Gemini模型遭恶意代码直接调用部分恶意软件家族在执行过程中会直接向Gemini发起API调用动态请求模型生成源代码来完成特定任务而非将所有恶意功能硬编码。典型案例是HONESTCUE恶意软件家族2025年9月被观察到它通过硬编码提示向Gemini请求C#代码随后在内存中编译并执行生成的代码作为攻击链的第二阶段下载并运行后续恶意负载。这种“即时生成”技术实现文件less无文件攻击可能规避传统静态分析和特征码检测。模型提取攻击蒸馏攻击持续涌现报告记录了多起模型提取攻击知识蒸馏攻击。威胁行为者主要是私营部门实体通过发送大量结构化查询试图推断Gemini的行为模式和内部逻辑。谷歌已识别并阻断多起高频提示活动其中一起涉及超过10万个提示旨在复制模型的推理能力。攻击者可借此低成本近似复现专有模型功能。AI渗透网络攻击全生命周期国家背景组织包括与中国、伊朗、朝鲜相关的威胁行为者和金融动机团体正将AI工具整合进攻击的各个阶段侦察与目标画像漏洞研究与恶意代码开发钓鱼诱饵生成后渗透活动报告还提到威胁行为者正在探索Agentic AI具备代理能力的AI系统但目前尚未发现其被广泛部署大多数案例仍是对人类操作者的能力增强而非完全替代。业界专家质疑报告动机ImmuniWeb SA首席执行官Ilia Kolochenko博士表示这份报告似乎是谷歌在投资者对生成式AI兴趣消退之际的公关举措。他提出两点反驳即使APT组织使用生成式AI也不意味着AI已能独立创建复杂恶意软件或完成完整攻击链AI主要加速简单流程。谷歌明知国家级团体滥用其AI技术可能需为相关攻击损失承担法律责任。构建防护栏和客户尽职调查成本并不高。Kolochenko强调“核心问题在于责任归属。”
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2466559.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!