多个 AI 模型参与社会工程学攻击实验,Anthropic 新模型成“网络安全警钟”
AI 社会工程学攻击有多逼真最近真切见识到人工智能在计算机黑客攻击的“人性化”方面达到可怕程度。笔记本电脑屏幕弹出消息提及去中心化机器学习、机器人技术和 OpenClaw 吸引注意力。发件人解释团队在研究用于机器人技术的开源联邦学习方法部分研究人员曾参与美国国防高级研究计划局DARPA类似项目还提供 Telegram 机器人链接展示项目运作。攻击背后的真相但消息有疑点找不到 DARPA 项目信息也不明白为何要连接 Telegram 机器人。实际上这些消息是社会工程学攻击目的是诱使点击链接交出电脑访问权限攻击由开源模型 DeepSeek - V3 策划执行。实验情况运行一家名为 Charlemagne Labs 的初创公司开发的工具让不同 AI 模型分别扮演攻击者和目标角色进行测试。看到 DeepSeek - V3 代表回复消息交流很逼真。尝试多个不同 AI 模型包括 Anthropic 的 Claude 3 Haiku、OpenAI 的 GPT - 4o、英伟达的 Nemotron、DeepSeek 的 V3 以及阿里巴巴的 Qwen所有模型都想出社会工程学策略诱使点击链接泄露数据。并非所有策略都有说服力模型有时会暴露骗局或拒绝参与诈骗。Anthropic 新模型的影响随着 Anthropic 最新的模型 Mythos 推出情况尤为紧迫。Mythos 能发现代码中的零日漏洞被称为“网络安全的警钟”目前仅提供给少数几家公司和政府机构进行系统扫描和加固。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2546085.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!