Скануйте, щоб завантажити додаток Gate
qrCode
Більше варіантів завантаження
Не нагадувати сьогодні

Моделі Frontier AI демонструють людський рівень здатності в експлуатації Смарт-контрактів

image

Джерело: CryptoNewsNet Оригінальна назва: Моделі Frontier AI демонструють людський рівень здібностей у зловживаннях смарт-контрактами Оригінальне посилання: https://cryptonews.net/news/security/32075166/ Згідно з новими даними, опублікованими в понеділок компанією Anthropic, агенти штучного інтелекту демонстрували результати, які відповідали навичкам кваліфікованих людських нападників у більш ніж половині експлуатацій смарт-контрактів, зафіксованих на основних блокчейнах протягом останніх п'яти років.

Anthropic оцінив десять передових моделей, включаючи Llama 3, Sonnet 3.7, Opus 4, GPT-5 та DeepSeek V3, на наборі даних з 405 історичних експлойтів смарт-контрактів. Агенти здійснили успішні атаки на 207 з них, загалом на суму $550 мільйон у симульованих втрачених коштах.

Результати показали, наскільки швидко автоматизовані системи можуть використовувати вразливості в небезпечних цілях і виявляти нові, які розробники не усунули.

Нове розкриття є останнім від розробника Claude AI. Минулого місяця Anthropic детально описала, як хакери використали Claude Code для запуску того, що вони назвали першою кібер-атакою, що здійснюється за допомогою штучного інтелекту.

Експерти з безпеки сказали, що результати підтвердили, наскільки доступними вже є багато з цих вад.

“ШІ вже використовується в інструментах ASPM, таких як Wiz Code та Apiiro, а також у стандартних сканерах SAST і DAST,” сказав Девід Швед, COO SovereignAI, в інтерв'ю Decrypt. “Це означає, що недобросовісні актори використовуватимуть ту ж технологію для виявлення вразливостей.”

Швед сказав, що модульно-орієнтовані атаки, описані в звіті, буде легко масштабувати, оскільки багато вразливостей вже відкрито через Загальні вразливості та експозиції або аудиторські звіти, що робить їх такими, що можуть бути вивчені системами ШІ, і їх легко спробувати проти існуючих смарт-контрактів.

“Навіть простіше було б знайти оприлюднену вразливість, знайти проекти, які форкнули цей проект, і просто спробувати цю вразливість, яка, можливо, не була виправлена,” сказав він. “Це все можна зробити зараз 24/7, проти всіх проектів. Навіть ті, що зараз мають менші TVL, є мішенями, тому що чому б і ні? Це агентно.”

Щоб виміряти поточні можливості, Anthropic побудував графік загального доходу від експлуатації кожної моделі в залежності від дати її виходу, використовуючи лише 34 контракти, експлуатовані після березня 2025 року.

“Хоча загальний дохід від експлуатацій є недосконалим показником—оскільки кілька вийнятих експлуатацій домінують над загальним доходом—ми підкреслюємо його над рівнем успіху атак, оскільки зловмисники зацікавлені в тому, скільки грошей можуть витягнути агенті ІІ, а не в кількості чи складності помилок, які вони знаходять,” - написала компанія.

Anthropic заявила, що протестувала агентів на нульовому наборі даних з 2,849 контрактів, отриманих з більш ніж 9,4 мільйона на основній блокчейн-мережі.

Компанія повідомила, що Claude Sonnet 4.5 і GPT-5 виявили по два невідомі недоліки, які призвели до $3,694 у симульованій вартості, при цьому GPT-5 досяг свого результату з витратами на API у $3,476. Anthropic зазначила, що всі тести проводились у пісочницях, які імітували блокчейни, а не реальні мережі.

Його найсильніша модель, Claude Opus 4.5, використала 17 вразливостей після березня 2025 року і становила $4.5 мільйона від загальної симульованої вартості.

Компанія пов'язала покращення між моделями з досягненнями у використанні інструментів, відновленні помилок та виконанні завдань на тривалий термін. Протягом чотирьох поколінь моделей Claude витрати на токени знизилися на 70,2%.

Однією з нещодавно виявлених вразливостей була токен-контракт з публічною функцією калькулятора, яка не мала модифікатора перегляду, що дозволяло агенту повторно змінювати внутрішні змінні стану та продавати завищені баланси на децентралізованих біржах. Симульований експлуатаційний випадок приніс близько 2,500 доларів.

Швед сказав, що проблеми, підкреслені в експерименті, були “насправді лише недоліками бізнес-логіки”, додавши, що AI-системи можуть виявляти ці слабкі місця, коли їм надано структуру та контекст.

“Штучний інтелект також може їх виявити, маючи розуміння того, як має функціонувати смарт-контракт, та з детальними підказками про те, як спробувати обійти логічні перевірки в процесі,” сказав він.

Антропік заявив, що можливості, які дозволили агентам експлуатувати смарт-контракти, також застосовуються до інших типів програмного забезпечення, і що зниження витрат звузить проміжок між впровадженням і експлуатацією. Компанія закликала розробників впроваджувати автоматизовані інструменти у своїх робочих процесах безпеки, щоб оборонне використання розвивалося так само швидко, як і наступальне.

Незважаючи на попередження Anthropic, Швед сказав, що прогноз не є суто негативним.

“Я завжди заперечую проти песимізму і кажу, що за належного контролю, ретельного внутрішнього тестування, а також моніторингу в реальному часі та автоматичних вимикачів, більшість з цих проблем можна уникнути,” сказав він. “Добрі учасники мають такий же доступ до тих же агентів. Тож якщо погані учасники можуть це знайти, то й добрі учасники також можуть. Ми повинні думати та діяти інакше.”

Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити