Искусственные агенты приближаются к реальному риску эксплуатации DeFi, показывают исследования Сам Винклера и команды Anthropic

Последние результаты программы Anthropic Fellows представляют суровую реальность: модели искусственного интеллекта перешагнули критический порог возможностей и теперь могут автономно выявлять и эксплуатировать уязвимости в смарт-контрактах с измеримой точностью. Исследование, проведённое командами, включая таких участников, как Сэм Винклер, демонстрирует, что передовые модели ИИ — это не только теоретические угрозы, — они уже способны устраивать атаки, сопоставимые по сложности с эксплойтами, управляемыми человеком, в децентрализованных финансах.

Последствия этого сдвига выходят далеко за рамки академических опасений. По мере удешевления развертывания этих систем ИИ и повышения их аналитических способностей экономика кардинально меняет ландшафт угроз для каждого блокчейна и программного обеспечения, основанного на публично видимых, монетизируемых уязвимостях.

Модели передового уровня успешно реализуют полные сценарии атак

Совместное исследование программы ML Alignment & Theory Scholars Program (MATS) и Anthropic Fellows протестировало передовые модели — GPT-5, Claude Opus 4.5 и Sonnet 4.5 — на базе SCONE-bench, комплексного набора данных, содержащего 405 ранее эксплуатируемых смарт-контрактов. Результаты оказались поразительными: эти модели не просто отмечали проблемный код. Они синтезировали полные, исполняемые скрипты эксплойтов, стратегически располагали транзакции и опустошали симулированные пулы ликвидности в паттернах, имитирующих реальные атаки на Ethereum и BNB Chain.

Общий результат был особенно впечатляющим: $4.6 миллиона в симулированных эксплойтах, нацеленных на контракты, существовавшие после cutoff-дат моделей. Эта цифра важна, потому что она указывает на нижнюю границу того, что текущие модели ИИ теоретически могут украсть, если их развернуть против живых систем сегодня.

Обнаружение zero-day уязвимостей доказывает эффективность автономного поиска

Настоящий прорыв произошёл, когда исследователи проверили, могут ли агенты ИИ выявлять ранее неизвестные уязвимости. GPT-5 и Sonnet 4.5 просканировали 2 849 недавно развернутых контрактов BNB Chain без истории предыдущих компрометаций. Модели обнаружили две ранее неизвестные уязвимости, которые принесли симулированную прибыль в размере $3 694.

Первая уязвимость возникла из-за отсутствия модификатора view в публичной функции — тонкая ошибка, которая позволила агенту искусственно увеличить баланс токенов. Вторая уязвимость создала вектор для перенаправления комиссий, приняв произвольный адрес бенефициара. В обоих случаях модели ИИ сгенерировали рабочий код эксплойта, который превращал эти слабости в немедленный денежный доход.

Что делает это открытие особенно важным, так это экономика: запуск автономного агента на всем наборе контрактов обошёлся всего в $3 476, при среднем расходе $1.22 за выполнение. Этот показатель эффективности становится критичным при оценке будущих сценариев угроз.

Экономика автоматизированных атак продолжает совершенствоваться

Настоящая история не о текущих затратах на атаки — она о будущем. По мере снижения стоимости моделей ИИ и развития их возможностей использования инструментов, соотношение затрат и выгод склоняется в пользу полной автоматизации. Исследования показывают, что этот сдвиг сократит окно между развертыванием смарт-контракта и потенциальной эксплуатацией, особенно в DeFi-среде, где капитал открыт на блокчейне, а прибыльные баги можно монетизировать за секунды.

Текущая экономика уже склоняет чашу весов. Когда запуск автономного эксплойта стоит чуть более $1 за контракт, а потенциальная прибыль достигает тысяч долларов, структура стимулов привлекает злоумышленников в масштабах. По мере приближения стоимости моделей к нулю даже эксплойты с умеренной отдачей становятся привлекательными для автоматизации.

Вне DeFi: уязвимости в более широкой инфраструктуре

Хотя исследования сосредоточены на децентрализованных финансах, базовые возможности не ограничены этой областью. Модельные паттерны мышления, позволяющие агенту манипулировать балансами токенов или перенаправлять комиссии, могут напрямую применяться к обычному программному обеспечению, закрытому исходному коду и инфраструктуре, поддерживающей криптовалютные рынки в целом.

По мере снижения стоимости моделей и улучшения интеграции инструментов автоматизированное сканирование уязвимостей неизбежно расширится за пределы публичных блокчейнов. Те же возможности ИИ могут нацеливаться на любой сервис или систему, предоставляющую доступ к ценным активам — от централизованных биржевых инфраструктур до мостовых протоколов и решений по институциональному хранению.

Время для обороны и нападения становится критическим

Исследование представляет эти выводы скорее как предупреждение, чем как прогноз. Модели ИИ уже могут выполнять задачи, ранее требовавшие элитных человеческих атакующих. Автономная эксплуатация в DeFi больше не гипотетична — это реальный пробел в возможностях. Срочный вопрос для разработчиков криптоинфраструктуры — смогут ли защитные технологии развиваться так же быстро, как и наступательные возможности ИИ.

Окно для перехода от реактивной к проактивной безопасности сужается. Разработчикам необходимо приоритезировать автоматизированное сканирование безопасности, формальную верификацию и устойчивые шаблоны проектирования контрактов, прежде чем агенты ИИ сделают экономику эксплуатации непреодолимой на масштабах.

ETH-5%
BNB-1,25%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить