Источник: CryptoNewsNet
Оригинальное название: Модели Frontier AI демонстрируют способности на уровне человека в эксплуатации смарт-контрактов
Оригинальная ссылка: https://cryptonews.net/news/security/32075166/
Согласно новым данным, опубликованным в понедельник компанией Anthropic, агенты ИИ соответствовали производительности опытных человеческих злоумышленников в более чем половине зафиксированных взломов смарт-контрактов на основных блокчейнах за последние пять лет.
Anthropic оценил десять передовых моделей, включая Llama 3, Sonnet 3.7, Opus 4, GPT-5 и DeepSeek V3, на наборе данных из 405 исторических эксплойтов смарт-контрактов. Агенты совершили успешные атаки против 207 из них, общая сумма которых составила $550 миллионов в смоделированных украденных средствах.
Результаты показали, как быстро автоматизированные системы могут использовать уязвимости в своих интересах и выявлять новые, которые разработчики не устранили.
Новое раскрытие — это последнее от разработчика Claude AI. В прошлом месяце Anthropic подробно описала, как хакеры использовали Claude Code для запуска того, что они назвали первой кибератакой, управляемой ИИ.
Эксперты по безопасности заявили, что результаты подтвердили, насколько доступны многие из этих уязвимостей.
“Искусственный интеллект уже используется в инструментах ASPM, таких как Wiz Code и Apiiro, а также в стандартных сканерах SAST и DAST,” сказал Дэвид Швед, COO SovereignAI, в интервью Decrypt. “Это означает, что злоумышленники будут использовать ту же технологию для выявления уязвимостей.”
Швед сказал, что атаки, основанные на моделях, описанные в отчете, будут простыми для масштабирования, поскольку многие уязвимости уже публично раскрыты через Общие уязвимости и экспозиции или аудиторские отчеты, что делает их изучаемыми для ИИ-систем и легкими для попыток против существующих смарт-контрактов.
“Еще проще было бы найти раскрытую уязвимость, найти проекты, которые форкнули этот проект, и просто попытаться использовать эту уязвимость, которая, возможно, не была исправлена,” сказал он. “Все это можно делать сейчас 24/7, против всех проектов. Даже те, у которых сейчас меньшие TVL, являются целями, потому что почему бы и нет? Это агентово.”
Чтобы измерить текущие возможности, Anthropic построил график общего дохода от эксплуатации каждой модели в зависимости от даты ее выпуска, используя только 34 контракта, которые были использованы после марта 2025 года.
“Хотя общая выручка от эксплойтов является несовершенной метрикой — поскольку несколько исключительных эксплойтов доминируют в общей выручке — мы подчеркиваем ее по сравнению с коэффициентом успешности атак, потому что злоумышленников интересует, сколько денег могут извлечь AI-агенты, а не количество или сложность найденных уязвимостей,” написала компания.
Anthropic заявила, что протестировала агентов на нулевом наборе данных из 2,849 контрактов, взятых из более чем 9,4 миллиона на главной блокчейн-сети.
Компания сообщила, что Claude Sonnet 4.5 и GPT-5 каждый выявил по два нераскрытых недостатка, которые принесли $3,694 в смоделированной стоимости, при этом GPT-5 достиг своего результата при API-расходах в $3,476. Anthropic отметила, что все тесты проводились в изолированных средах, которые воспроизводили блокчейны, а не реальные сети.
Его самая мощная модель, Claude Opus 4.5, использовала 17 уязвимостей после марта 2025 года и составила 4,5 миллиона долларов от общей смоделированной стоимости.
Компания связала улучшения в различных моделях с достижениями в использовании инструментов, восстановлении после ошибок и выполнении задач на длительный срок. За четыре поколения моделей Claude стоимость токенов снизилась на 70,2%.
Одним из недавно обнаруженных недостатков был токен-контракт с публичной функцией калькулятора, которой не хватало модификатора view, что позволяло агенту многократно изменять внутренние переменные состояния и продавать завышенные балансы на децентрализованных биржах. Смоделированная атака принесла около 2,500 долларов.
Швед сказал, что проблемы, выделенные в эксперименте, были “на самом деле просто логическими недостатками бизнеса”, добавив, что системы ИИ могут выявлять эти слабости, когда им предоставляют структуру и контекст.
“ИИ также может их обнаружить, понимая, как должен функционировать смарт-контракт и с подробными подсказками о том, как попытаться обойти логические проверки в процессе,” сказал он.
Компания Anthropic заявила, что возможности, которые позволили агентам эксплуатировать смарт-контракты, также применимы к другим типам программного обеспечения, и что снижение затрат сократит временной интервал между развертыванием и эксплуатацией. Компания призвала разработчиков внедрять автоматизированные инструменты в свои рабочие процессы безопасности, чтобы защитные меры развивались так же быстро, как и наступательные.
Несмотря на предупреждение Anthropic, Швед сказал, что прогноз не является исключительно негативным.
“Я всегда отвергаю пессимизм и говорю, что при правильном контроле, строгом внутреннем тестировании, а также мониторинге в реальном времени и автоматических системах отключения, большинство из этих проблем можно избежать,” сказал он. “Хорошие игроки имеют такой же доступ к тем же агентам. Так что если плохие игроки могут это найти, то и хорошие игроки могут. Нам нужно думать и действовать по-другому.”
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Модели Frontier AI демонстрируют способности на уровне человека в эксплуатации смарт-контрактов
Источник: CryptoNewsNet Оригинальное название: Модели Frontier AI демонстрируют способности на уровне человека в эксплуатации смарт-контрактов Оригинальная ссылка: https://cryptonews.net/news/security/32075166/ Согласно новым данным, опубликованным в понедельник компанией Anthropic, агенты ИИ соответствовали производительности опытных человеческих злоумышленников в более чем половине зафиксированных взломов смарт-контрактов на основных блокчейнах за последние пять лет.
Anthropic оценил десять передовых моделей, включая Llama 3, Sonnet 3.7, Opus 4, GPT-5 и DeepSeek V3, на наборе данных из 405 исторических эксплойтов смарт-контрактов. Агенты совершили успешные атаки против 207 из них, общая сумма которых составила $550 миллионов в смоделированных украденных средствах.
Результаты показали, как быстро автоматизированные системы могут использовать уязвимости в своих интересах и выявлять новые, которые разработчики не устранили.
Новое раскрытие — это последнее от разработчика Claude AI. В прошлом месяце Anthropic подробно описала, как хакеры использовали Claude Code для запуска того, что они назвали первой кибератакой, управляемой ИИ.
Эксперты по безопасности заявили, что результаты подтвердили, насколько доступны многие из этих уязвимостей.
“Искусственный интеллект уже используется в инструментах ASPM, таких как Wiz Code и Apiiro, а также в стандартных сканерах SAST и DAST,” сказал Дэвид Швед, COO SovereignAI, в интервью Decrypt. “Это означает, что злоумышленники будут использовать ту же технологию для выявления уязвимостей.”
Швед сказал, что атаки, основанные на моделях, описанные в отчете, будут простыми для масштабирования, поскольку многие уязвимости уже публично раскрыты через Общие уязвимости и экспозиции или аудиторские отчеты, что делает их изучаемыми для ИИ-систем и легкими для попыток против существующих смарт-контрактов.
“Еще проще было бы найти раскрытую уязвимость, найти проекты, которые форкнули этот проект, и просто попытаться использовать эту уязвимость, которая, возможно, не была исправлена,” сказал он. “Все это можно делать сейчас 24/7, против всех проектов. Даже те, у которых сейчас меньшие TVL, являются целями, потому что почему бы и нет? Это агентово.”
Чтобы измерить текущие возможности, Anthropic построил график общего дохода от эксплуатации каждой модели в зависимости от даты ее выпуска, используя только 34 контракта, которые были использованы после марта 2025 года.
“Хотя общая выручка от эксплойтов является несовершенной метрикой — поскольку несколько исключительных эксплойтов доминируют в общей выручке — мы подчеркиваем ее по сравнению с коэффициентом успешности атак, потому что злоумышленников интересует, сколько денег могут извлечь AI-агенты, а не количество или сложность найденных уязвимостей,” написала компания.
Anthropic заявила, что протестировала агентов на нулевом наборе данных из 2,849 контрактов, взятых из более чем 9,4 миллиона на главной блокчейн-сети.
Компания сообщила, что Claude Sonnet 4.5 и GPT-5 каждый выявил по два нераскрытых недостатка, которые принесли $3,694 в смоделированной стоимости, при этом GPT-5 достиг своего результата при API-расходах в $3,476. Anthropic отметила, что все тесты проводились в изолированных средах, которые воспроизводили блокчейны, а не реальные сети.
Его самая мощная модель, Claude Opus 4.5, использовала 17 уязвимостей после марта 2025 года и составила 4,5 миллиона долларов от общей смоделированной стоимости.
Компания связала улучшения в различных моделях с достижениями в использовании инструментов, восстановлении после ошибок и выполнении задач на длительный срок. За четыре поколения моделей Claude стоимость токенов снизилась на 70,2%.
Одним из недавно обнаруженных недостатков был токен-контракт с публичной функцией калькулятора, которой не хватало модификатора view, что позволяло агенту многократно изменять внутренние переменные состояния и продавать завышенные балансы на децентрализованных биржах. Смоделированная атака принесла около 2,500 долларов.
Швед сказал, что проблемы, выделенные в эксперименте, были “на самом деле просто логическими недостатками бизнеса”, добавив, что системы ИИ могут выявлять эти слабости, когда им предоставляют структуру и контекст.
“ИИ также может их обнаружить, понимая, как должен функционировать смарт-контракт и с подробными подсказками о том, как попытаться обойти логические проверки в процессе,” сказал он.
Компания Anthropic заявила, что возможности, которые позволили агентам эксплуатировать смарт-контракты, также применимы к другим типам программного обеспечения, и что снижение затрат сократит временной интервал между развертыванием и эксплуатацией. Компания призвала разработчиков внедрять автоматизированные инструменты в свои рабочие процессы безопасности, чтобы защитные меры развивались так же быстро, как и наступательные.
Несмотря на предупреждение Anthropic, Швед сказал, что прогноз не является исключительно негативным.
“Я всегда отвергаю пессимизм и говорю, что при правильном контроле, строгом внутреннем тестировании, а также мониторинге в реальном времени и автоматических системах отключения, большинство из этих проблем можно избежать,” сказал он. “Хорошие игроки имеют такой же доступ к тем же агентам. Так что если плохие игроки могут это найти, то и хорошие игроки могут. Нам нужно думать и действовать по-другому.”