OpenAI 推出网络安全专用模型 GPT-5.4-Cyber:已修补 3,000 个高危漏洞,较劲 Claude Mythos

robot
摘要生成中

OpenAI 发布 GPT-5.4-Cyber,这是首款专为网络防御端微调的大型语言模型,同时大幅扩大 TAC 信任存取计划,开放数千名经过验证的个人防御者与数百个团队使用,自 Codex Security 上线以来已协助修复逾 3,000 个高危漏洞。
(前情提要:OpenAI 推出 GPT-5.2!旨在取代专业人士、幻觉更低,API 费用整理)
(背景补充:Anthropic 新模型「Claude Mythos」曝光称史上最强,网络攻击能力令自家人也担忧)

3,000 个高危漏洞,是 OpenAI 的 Codex Security 在近期上线以来协助资安社群修补的数字。OpenAI 今日宣布,正式推出 GPT-5.4-Cyber,这是一款专为网络防御工作场景微调的模型,并同步大幅扩大 TAC(Trusted Access for Cyber,网络信任存取)计划,将存取资格从小规模试点,开放至数千名经过验证的个人防御者,以及数百个负责守护关键软件的组织团队。

从 GPT-5.2 到 GPT-5.4-Cyber:一条刻意铺设的安全演进路线

GPT-5.4-Cyber 并非凭空出现;它是 OpenAI 自 2023 年起逐步构建的资安布局在模型层面的集中体现。

  • 2023 年,OpenAI 启动 1,000 万美元网络安全补助计划(Cybersecurity Grant Program),同年开始对模型进行网络能力评估
  • 2025 年,推出 GPT-5.2 并首次加入网络安全专项训练;随后 GPT-5.3-Codex 强化推理能力;到 GPT-5.4,OpenAI 已在自家的 Preparedness Framework 中将其列为「高度网络能力」等级
  • 今日的 GPT-5.4-Cyber,是在 GPT-5.4 基础上进一步降低对合法资安工作的拒绝边界,并解锁新的进阶防御功能

其中最值得关注的新能力是 Binary reverse engineering。翻译过来就是:不需要拿到原始码,直接分析已编译的执行档,找出其中的恶意程序潜力、漏洞与安全健全度。

为什么「只给防御者」

这次发布最关键的设计,不在模型能力本身,而在于谁能用、怎么用。

GPT-5.4-Cyber 是一款「更宽松」的模型,它降低了对合法资安作业的拒绝率,这意味着它同样可能对攻击者更有用。OpenAI 的解法是:用身份验证筑墙。

TAC 计划的存取分为两个层级。一般个人用户可通过 chatgpt.com/cyber 进行 KYC 身份验证后取得基础存取权;企业与研究机构则需通过 OpenAI 业务代表申请更高层级的信任存取,才能使用 GPT-5.4-Cyber 的完整功能。

OpenAI 将这套逻辑称为「民主化存取」:用明确的客观标准(身份验证、KYC)让工具广泛可用,同时阻止滥用。

与此同时,OpenAI 也持续透过生态布局强化防御端:Codex for Open Source 已覆盖超过 1,000 个开源项目,并向 Linux Foundation 贡献资金(作为 1,250 万美元开源安全资助计划的一部分)。Codex Security 则在近期上线后,已协助修复超过 3,000 个高危与关键漏洞。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论