OpenAI推出Safety Bug Bounty计划:聚焦AI滥用与安全风险
OpenAI正式启动公共Safety Bug Bounty安全漏洞赏金计划旨在鼓励全球研究人员识别其产品中存在的AI滥用行为和安全风险。该计划托管于Bugcrowd平台是对现有Security Bug Bounty的重要补充专门处理那些虽不符合传统安全漏洞定义、但具有现实危害潜力的报告。此举标志着OpenAI在应对AI特有威胁方面迈出关键一步——传统安全框架已难以覆盖新兴的AI攻击面。计划核心机制Safety Bug Bounty与Security Bug Bounty并行运行所有提交报告将由OpenAI的安全与赏金团队共同评估并根据范围和归属在两个计划间灵活流转。研究人员可通过Bugcrowd上的OpenAI Safety Bug Bounty页面直接提交。该计划重点奖励那些可能导致实质性滥用或安全风险的设计或实现问题而非一般性内容策略绕过。重点关注的AI特有风险类别OpenAI明确列出以下高优先级场景Agentic风险包含MCP第三方提示注入prompt injection和数据外泄场景。攻击者控制的文本需在至少50%复现率下可靠劫持受害者AI Agent包括浏览器代理、ChatGPT Agent等执行有害操作或泄露敏感用户数据。还包括Agentic产品大规模执行禁止或潜在有害行为的情况。OpenAI专有信息泄露模型无意中暴露推理相关专有信息或泄露其他机密数据。账户与平台完整性绕过反自动化控制、操纵信任信号、规避账户限制/暂停/封禁等弱点。不在范围内的内容仅导致粗俗语言或公开可用信息的一般越狱jailbreak没有明显安全或滥用影响的通用内容策略绕过。OpenAI会不定期开展针对特定危害如生物风险内容的私密赏金活动并在开放时邀请研究人员参与。对于可实现未经授权访问功能、数据或超出权限的传统漏洞仍应提交至现有Security Bug Bounty计划。行业意义与参与方式OpenAI Safety Bug Bounty的推出体现了业界对AI全新攻击面的重视Agentic AI、提示注入和数据外泄等风险正成为主流威胁。该计划通过激励安全研究社区建立起针对AI特有威胁的结构化响应框架与传统漏洞披露形成互补。有意参与的研究人员可直接访问Bugcrowd上的OpenAI Safety Bug Bounty页面提交申请。OpenAI鼓励伦理黑客和AI安全研究者积极贡献共同构建更安全的AI生态。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2469563.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!