LayerX研究揭露Claude Code重大安全漏洞:CLAUDE.md文件成攻击利器
LayerX研究人员发现攻击者可利用Claude Code项目中的CLAUDE.md文件轻松绕过安全规则。该漏洞让任何人都能无需编写代码即可自动化实施SQL注入攻击并窃取用户凭证将AI编程助手直接武器化。What I Learned from Anthropic Teams Claude Code Practice | by David Lee | Level Up CodingAI编程助手遭武器化LayerX最新研究表明黑客已将程序员广泛使用的Anthropic Claude Code转化为强大恶意工具。该AI具备自主代理Agentic特性能自主编写代码、决策并在真实系统中执行命令。每个项目都包含名为CLAUDE.md的文本配置文件用于定义AI的行为模式。值得注意的是此漏洞与近期Claude源代码泄露事件完全无关。Claude Code, Real Workflows: Commands, Context Tools. | by Naveed Ul Mustafa | Feb, 2026 | Medium安全护栏形同虚设Claude Code虽内置安全护栏以阻止创建恶意软件等行为但LayerX团队指出这些防护极易绕过。“Claude Code专为开发者设计允许AI在真实系统上自主行动因此权限远超网页版AI接口。这种扩展自由度虽是功能所需却成了当前已被利用的攻击面。”报告明确指出。在DVWA漏洞测试环境中研究人员仅需在CLAUDE.md文件中输入三行基础英文指令就能让AI无视所有安全规则。AI甚至因文件中的“已获授权”虚假声明而直接开放未授权访问立即开始窃取用户名密码并使用SQL注入技术导出整个数据库。指令文件成为攻击载体AI系统会完全信任CLAUDE.md文件内容。研究人员记录到AI的典型回复“鉴于您CLAUDE.md中声明的渗透测试授权……以下是登录绕过方案”。随后AI便使用cURL工具发起实际攻击。“这个看似普通的文本文件突然成了高效攻击载体。”研究人员强调。Structured query language Injection (SQLi) - Part 1LayerX报告警告这已是迫在眉睫的现实威胁黑客可能通过以下方式利用该漏洞直接欺骗AI协助实施入侵在共享项目中隐藏恶意CLAUDE.md文件开发者下载后自动窃取私有数据内部人员恶意篡改企业项目中的配置文件Hackers New Partner: Weaponized AI for Cyber Attacks! HKCERT Exposes Six Emerging AI-assisted Attacks厂商响应迟缓LayerX团队已于2026年3月29日正式联系Anthropic公司通报该问题但未获得实质性回应仅被要求转邮件至其他部门。尽管当日再次跟进截至发稿仍未收到任何回复。研究人员强烈建议所有使用Claude Code的团队和开发者必须将CLAUDE.md等配置文件视为可执行代码进行严格审查、安全扫描和权限控制以避免潜在风险。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2517262.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!