👀 家人们,每天看行情、刷大佬观点,却从来不开口说两句?你的观点可能比你想的更有价值!
广场新人 & 回归福利正式上线!不管你是第一次发帖还是久违回归,我们都直接送你奖励!🎁
每月 $20,000 奖金等你来领!
📅 活动时间: 长期有效(月底结算)
💎 参与方式:
用户需为首次发帖的新用户或一个月未发帖的回归用户。
发帖时必须带上话题标签: #我在广场发首帖 。
内容不限:币圈新闻、行情分析、晒单吐槽、币种推荐皆可。
💰 奖励机制:
必得奖:发帖体验券
每位有效发帖用户都可获得 $50 仓位体验券。(注:每月奖池上限 $20,000,先到先得!如果大家太热情,我们会继续加码!)
进阶奖:发帖双王争霸
月度发帖王: 当月发帖数量最多的用户,额外奖励 50U。
月度互动王: 当月帖子互动量(点赞+评论+转发+分享)最高的用户,额外奖励 50U。
📝 发帖要求:
帖子字数需 大于30字,拒绝纯表情或无意义字符。
内容需积极健康,符合社区规范,严禁广告引流及违规内容。
💡 你的观点可能会启发无数人,你的第一次分享也许就是成为“广场大V”的起点,现在就开始广场创作之旅吧!
警报!AI代理攻破智能合约盗取超450万美元模拟资产,Anthropic报告揭示DeFi安全危机
AI 明星公司 Anthropic 发布的最新研究报告为整个加密行业敲响了警钟。实验显示,当前先进的 AI 代理(如 Claude Sonnet 4.5)能够自主发现并利用智能合约漏洞,在模拟环境中成功攻击了超过一半的测试合约,甚至挖掘出两个全新的“零日漏洞”。报告警示,随着 AI 使用成本急剧下降而攻击收益飙升,基于区块链的去中心化金融系统正面临一场前所未有的、自动化的安全攻防战。这既是严峻的威胁,也预示着以 AI 对抗 AI 的安全新时代已经到来。
潘多拉魔盒已开:AI 代理展现惊人攻击力
当人们还在讨论 AI 将如何改变未来时,Anthropic 的报告揭示了一个迫在眉睫的现在:AI 代理已经具备了足以威胁区块链资产安全的实战能力。该公司在一项严谨的模拟实验中,让 AI 模型置身于一个仿真的区块链环境,测试目标包括 2025 年 3 月后部署的、历史上曾真实遭受过攻击的 34 份智能合约。结果令人震惊,AI 代理成功攻破了其中的 17 份,窃取了总计 450 万美元的模拟资产。
这一威胁的普遍性更为触目惊心。在扩大范围的基准测试中,Anthropic 选取了 2020 年至 2025 年间部署在 Ethereum 、 BNB Smart Chain 和 Base 等链上的共 405 份合约进行测试。AI 模型成功攻击了其中 207 份,成功率超过 50%,模拟盗取资金高达 5.5 亿美元。报告直言,2025 年发生的大多数由人类高手完成的区块链攻击,理论上均可由当前的 AI 代理自主执行。这意味着攻击的门槛正在从“需要高超技能”迅速滑向“可以自动化批量进行”。
最让安全专家感到不安的,是 AI 展现出的“创新能力”。在针对 2849 个近期部署、无已知漏洞合约的扫描中,Claude Sonnet 4.5 和 GPT-5 依然发现了两个全新的“零日漏洞”,潜在利用价值约 3694 美元。这证明 AI 的威胁并非仅止于复现已知攻击模式,它已开始具备在未知代码中主动挖掘新威胁的能力,智能合约安全的攻防平衡正在被彻底打破。
漏洞挖掘机:AI 如何透视合约风险
AI 代理究竟是如何做到这一点的?报告深入剖析了被成功利用的漏洞类型,为我们理解 AI 的攻击思路提供了窗口。其中最常见的一类是“授权漏洞”,即合约中某些关键函数(如提取用户资金)的访问控制存在缺陷,未能严格验证调用者身份。AI 代理能够通过系统性的调用测试和状态分析,精准定位这些未上锁的“后门”。
另一类高发漏洞涉及“未受保护的只读函数”。这些函数本不应修改链上状态,但如果设计不当,可能被恶意调用以操纵代币供应量或关键状态变量。AI 代理通过遍历所有可调用函数并分析其可能产生的副作用,能够识别出这些潜在的攻击向量。此外,“费用提取逻辑中的验证缺失”也是一个常见问题,攻击者可以利用此漏洞非法提取累积的交易手续费。
从技术层面看,大型语言模型(LLM)之所以能胜任此工作,是因为它们接受了海量代码(包括 Solidity 智能合约)的训练,对代码模式、潜在缺陷模式和攻击模式有着超越人类速度的关联与推理能力。它们可以像不知疲倦的审计员一样,以极高的并行度尝试各种输入组合和函数调用序列,寻找能导致非预期状态的“钥匙”。这种自动化、规模化的代码审查能力,一旦被用于恶意目的,其效率将是传统手动黑客的数千倍。
成本暴跌与收益飙升:危险的经济学模型
驱动这场安全危机到来的,不仅仅是技术的进步,更有一组危险的经济学逻辑。Anthropic 的报告揭示了一个关键趋势:在过去一年中,利用 AI 进行攻击所获取的模拟收益,大约每 1.3 个月就会翻一番。与此同时,调用高级 AI 模型(如 GPT-4o, Claude 3.5 Sonnet)的成本却在持续快速下降。
这种“剪刀差”效应创造了极其诱人的攻击者激励模型。当攻击的预期收益增速远高于成本时,部署大量 AI 代理进行“广撒网”式的漏洞扫描就成了一门有利可图的生意。报告警告:“随着成本持续下降,攻击者将部署更多 AI 代理去探测任何通往有价值资产的路径上的代码,无论其多么冷门:一个被遗忘的认证库、一个不起眼的日志服务,或是一个已弃用的 API 端点。”未来,我们可能面对的不仅是针对头部 DeFi 协议的精确定点攻击,更是对所有联网智能合约的无差别、自动化扫荡。
Anthropic 研究报告核心数据
测试集 1(近期曾被攻击合约):34 份,AI 成功攻击 17 份,盗取模拟资金 450 万美元
测试集 2(2020-2025 年历史合约基准):405 份,AI 成功攻击 207 份,盗取模拟资金 5.5 亿美元
零日漏洞挖掘测试:扫描 2849 份新合约,发现 2 个新漏洞,潜在价值 3694 美元
攻击收益增长周期:模拟攻击收益每 1.3 个月翻倍
涉及的 AI 模型:Claude Opus 4.5, Claude Sonnet 4.5, GPT-5
涉及的区块链:Ethereum, BNB Smart Chain, Base
以 AI 之矛,筑 AI 之盾:防御新时代的开启
面对如此清晰的威胁,行业的反应必须是迅速且有力的。Anthropic 在报告中并未只渲染恐慌,而是明确指出了出路:必须用 AI 来防御 AI。这预示着智能合约审计和安全保障即将进入一个全新的“AI 增强”时代。传统的、依靠有限人力进行代码审查和模糊测试的模式,在自动化攻击面前将显得漏洞百出。
作为推动防御进步的具体举措,Anthropic 宣布将开源其用于本次研究的智能合约利用基准数据集。这一举动旨在为全球的安全开发者和研究人员提供一个高标准、多样化的测试沙盒,用以训练和评估他们自己的防御性 AI 模型。未来,我们有望看到更强大的 AI 辅助审计工具出现,它们能在合约部署前就进行深度扫描,以攻击者的思维提前发现漏洞;也能在合约运行期间进行实时监控,异常交易模式一出现就被识别和阻断。
这场 AI 驱动的安全军备竞赛已经鸣枪起跑。对于项目方而言,提升安全预算、采用更先进的 AI 审计服务将成为生存的必需品。对于开发者,学习并适应与 AI 工具协同编程将成为新的常态。对于整个 Web3 行业,这次预警是一次宝贵的压力测试,它迫使我们在追寻创新与效率的同时,必须将安全性重新置于架构设计的核心。唯有主动拥抱这场变革,才能将威胁转化为推动行业整体安全水位提升的契机。
结语
Anthropic 的报告如同一面镜子,既映照出 AI 技术阴暗面的锋利棱角,也指明了利用其光明面加固盾牌的方向。智能合约的安全叙事,正从“白帽黑客与黑帽黑客的人力对抗”,转向“防御性 AI 与攻击性 AI 的算法竞赛”。这场竞赛没有旁观者,它关乎每一个建立在区块链上的协议、每一笔锁定在 DeFi 中的资产,以及整个去中心化生态的信任基石。现在,是时候更新我们对风险的认识,并立即行动了——因为 AI 代理从不休息,而我们的防御,也必须时刻在线。