OpenAI推出了新的安全漏洞赏金计划,以应对人工智能领域的新兴风险。该计划于2026年3月26日宣布,由Cointelegraph报道,重点关注人们可能滥用AI系统的方式。OpenAI不仅仅局限于技术缺陷的修复,而是将注意力转向现实世界的危害。这一举措反映出随着其工具变得更加强大和广泛使用,AI公司面临的责任压力日益增加。
OpenAI与Bugcrowd合作开展该计划。公司邀请道德黑客、研究人员和分析师测试其系统。然而,这个计划超出了普通的安全测试范围。参与者可以报告诸如提示注入和代理滥用等问题,从而使AI的行为变得不可预测。OpenAI希望了解这些行为可能导致的有害后果。通过这样做,公司旨在提前应对潜在威胁。
OpenAI允许提交不涉及明显技术漏洞的报告。这使得该计划不同于普通的漏洞赏金计划。研究人员可以报告AI产生不安全或有害反应的场景,并需提供明确的风险证据。此外,这种方式鼓励对AI行为进行更深入的分析。然而,OpenAI不接受简单的越狱尝试。公司希望获得有意义的发现,而非表面上的利用。同时,它计划通过私密活动处理诸如生物威胁等敏感风险。
这一公告引发了赞扬与批评的声音。一些专家认为OpenAI迈出了迈向透明的重要一步,他们认为该计划是让更广泛的社区参与改善AI安全的途径。也有人质疑公司的动机。此外,批评者认为此类计划可能无法解决更深层次的伦理问题,他们担心OpenAI如何管理数据和责任。这些辩论凸显了AI行业中持续存在的紧张局势。
OpenAI的新举措显示行业正在不断发展。AI安全如今不仅包括技术风险,还涉及社会风险。通过向外部开放系统审查,OpenAI鼓励合作,从而可能带来更好的保障和更强的信任。同时,该计划并未解决所有问题,关于监管和长期影响的疑问仍然存在。然而,OpenAI已表明其认识到事关重大。随着AI的不断发展,积极的安全措施将在塑造未来中发挥关键作用。