Sumber: CryptoNewsNet
Judul Asli: Model AI Frontier Menunjukkan Kemampuan Setara Manusia dalam Eksploitasi Kontrak Pintar
Link Asli: https://cryptonews.net/news/security/32075166/
Agen AI menyamai kinerja penyerang manusia terampil dalam lebih dari setengah eksploitasi kontrak pintar yang tercatat di blockchain utama selama lima tahun terakhir, menurut data baru yang dirilis pada hari Senin oleh Anthropic.
Anthropic mengevaluasi sepuluh model perbatasan, termasuk Llama 3, Sonnet 3.7, Opus 4, GPT-5, dan DeepSeek V3, pada dataset 405 eksploitasi kontrak pintar yang bersejarah. Para agen menghasilkan serangan yang berhasil terhadap 207 di antaranya, dengan total $550 juta dalam dana yang dicuri secara simulasi.
Temuan menunjukkan seberapa cepat sistem otomatis dapat memanfaatkan kerentanan dan mengidentifikasi yang baru yang belum ditangani oleh pengembang.
Pengungkapan baru ini adalah yang terbaru dari pengembang Claude AI. Bulan lalu, Anthropic menjelaskan bagaimana peretas menggunakan Claude Code untuk meluncurkan apa yang mereka sebut sebagai serangan siber yang digerakkan oleh AI pertama.
Para ahli keamanan mengatakan bahwa hasilnya mengonfirmasi seberapa mudah diaksesnya banyak dari kelemahan ini.
“AI sudah digunakan dalam alat ASPM seperti Wiz Code dan Apiiro, serta dalam pemindai SAST dan DAST standar,” kata David Schwed, COO SovereignAI, kepada Decrypt. “Itu berarti pelaku jahat akan menggunakan teknologi yang sama untuk mengidentifikasi kerentanan.”
Schwed mengatakan bahwa serangan yang dipandu model yang dijelaskan dalam laporan akan mudah untuk diskalakan karena banyak kerentanan yang sudah diungkapkan secara publik melalui Common Vulnerabilities and Exposures atau laporan audit, sehingga dapat dipelajari oleh sistem AI dan mudah untuk dicoba terhadap kontrak pintar yang ada.
“Bahkan lebih mudah untuk menemukan kerentanan yang terungkap, menemukan proyek yang melakukan fork dari proyek itu, dan hanya mencoba kerentanan itu, yang mungkin belum diperbaiki,” katanya. “Semua ini dapat dilakukan sekarang 24/7, terhadap semua proyek. Bahkan mereka yang sekarang dengan TVL yang lebih kecil adalah target karena mengapa tidak? Ini bersifat agensi.”
Untuk mengukur kemampuan saat ini, Anthropic memplot total pendapatan eksploitasi setiap model terhadap tanggal rilisnya dengan hanya menggunakan 34 kontrak yang dieksploitasi setelah Maret 2025.
“Meskipun total pendapatan eksploitasi adalah metrik yang tidak sempurna—karena beberapa eksploitasi yang menyimpang mendominasi total pendapatan—kami menyoroti ini dibandingkan dengan tingkat keberhasilan serangan karena penyerang peduli tentang berapa banyak uang yang dapat diekstrak oleh agen AI, bukan jumlah atau kesulitan bug yang mereka temukan,” tulis perusahaan tersebut.
Anthropic mengatakan telah menguji agen-agen tersebut pada dataset zero-day sebanyak 2.849 kontrak yang diambil dari lebih dari 9,4 juta di jaringan blockchain utama.
Perusahaan mengatakan bahwa Claude Sonnet 4.5 dan GPT-5 masing-masing menemukan dua kelemahan yang tidak terungkap yang menghasilkan $3,694 dalam nilai simulasi, dengan GPT-5 mencapai hasilnya dengan biaya API sebesar $3,476. Anthropic mencatat bahwa semua pengujian berjalan di lingkungan terisolasi yang mereplikasi blockchain dan bukan jaringan nyata.
Model terkuatnya, Claude Opus 4.5, mengeksploitasi 17 dari kerentanan pasca-Maret 2025 dan menyumbang $4.5 juta dari total nilai yang disimulasikan.
Perusahaan mengaitkan perbaikan di berbagai model dengan kemajuan dalam penggunaan alat, pemulihan kesalahan, dan pelaksanaan tugas jangka panjang. Selama empat generasi model Claude, biaya token turun sebesar 70,2%.
Salah satu cacat yang baru ditemukan melibatkan kontrak token dengan fungsi kalkulator publik yang tidak memiliki modifier view, yang memungkinkan agen untuk secara berulang mengubah variabel status internal dan menjual saldo yang terinflasi di bursa terdesentralisasi. Eksploitasi yang disimulasikan menghasilkan sekitar $2.500.
Schwed mengatakan bahwa masalah yang disorot dalam eksperimen tersebut “sebenarnya hanyalah kesalahan logika bisnis,” menambahkan bahwa sistem AI dapat mengidentifikasi kelemahan ini ketika diberikan struktur dan konteks.
“AI juga dapat menemukannya dengan pemahaman tentang bagaimana kontrak pintar seharusnya berfungsi dan dengan petunjuk rinci tentang bagaimana mencoba untuk menghindari pemeriksaan logika dalam proses tersebut,” katanya.
Anthropic mengatakan bahwa kemampuan yang memungkinkan agen mengeksploitasi kontrak pintar juga berlaku untuk jenis perangkat lunak lainnya, dan bahwa biaya yang menurun akan memperpendek jendela antara penerapan dan eksploitasi. Perusahaan mendesak para pengembang untuk mengadopsi alat otomatis dalam alur kerja keamanan mereka agar penggunaan defensif berkembang secepat penggunaan ofensif.
Meskipun peringatan dari Anthropic, Schwed mengatakan bahwa prospeknya tidak sepenuhnya negatif.
“Saya selalu menolak pandangan pesimis dan mengatakan bahwa dengan pengendalian yang tepat, pengujian internal yang ketat, bersama dengan pemantauan waktu nyata dan pemutus sirkuit, sebagian besar dari ini dapat dihindari,” katanya. “Para pelaku baik memiliki akses yang sama ke agen yang sama. Jadi jika para pelaku buruk dapat menemukannya, begitu juga para pelaku baik. Kita harus berpikir dan bertindak dengan cara yang berbeda.”
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Model AI Frontier Menunjukkan Kemampuan Setara Manusia dalam Eksploitasi Smart Contract
Sumber: CryptoNewsNet Judul Asli: Model AI Frontier Menunjukkan Kemampuan Setara Manusia dalam Eksploitasi Kontrak Pintar Link Asli: https://cryptonews.net/news/security/32075166/ Agen AI menyamai kinerja penyerang manusia terampil dalam lebih dari setengah eksploitasi kontrak pintar yang tercatat di blockchain utama selama lima tahun terakhir, menurut data baru yang dirilis pada hari Senin oleh Anthropic.
Anthropic mengevaluasi sepuluh model perbatasan, termasuk Llama 3, Sonnet 3.7, Opus 4, GPT-5, dan DeepSeek V3, pada dataset 405 eksploitasi kontrak pintar yang bersejarah. Para agen menghasilkan serangan yang berhasil terhadap 207 di antaranya, dengan total $550 juta dalam dana yang dicuri secara simulasi.
Temuan menunjukkan seberapa cepat sistem otomatis dapat memanfaatkan kerentanan dan mengidentifikasi yang baru yang belum ditangani oleh pengembang.
Pengungkapan baru ini adalah yang terbaru dari pengembang Claude AI. Bulan lalu, Anthropic menjelaskan bagaimana peretas menggunakan Claude Code untuk meluncurkan apa yang mereka sebut sebagai serangan siber yang digerakkan oleh AI pertama.
Para ahli keamanan mengatakan bahwa hasilnya mengonfirmasi seberapa mudah diaksesnya banyak dari kelemahan ini.
“AI sudah digunakan dalam alat ASPM seperti Wiz Code dan Apiiro, serta dalam pemindai SAST dan DAST standar,” kata David Schwed, COO SovereignAI, kepada Decrypt. “Itu berarti pelaku jahat akan menggunakan teknologi yang sama untuk mengidentifikasi kerentanan.”
Schwed mengatakan bahwa serangan yang dipandu model yang dijelaskan dalam laporan akan mudah untuk diskalakan karena banyak kerentanan yang sudah diungkapkan secara publik melalui Common Vulnerabilities and Exposures atau laporan audit, sehingga dapat dipelajari oleh sistem AI dan mudah untuk dicoba terhadap kontrak pintar yang ada.
“Bahkan lebih mudah untuk menemukan kerentanan yang terungkap, menemukan proyek yang melakukan fork dari proyek itu, dan hanya mencoba kerentanan itu, yang mungkin belum diperbaiki,” katanya. “Semua ini dapat dilakukan sekarang 24/7, terhadap semua proyek. Bahkan mereka yang sekarang dengan TVL yang lebih kecil adalah target karena mengapa tidak? Ini bersifat agensi.”
Untuk mengukur kemampuan saat ini, Anthropic memplot total pendapatan eksploitasi setiap model terhadap tanggal rilisnya dengan hanya menggunakan 34 kontrak yang dieksploitasi setelah Maret 2025.
“Meskipun total pendapatan eksploitasi adalah metrik yang tidak sempurna—karena beberapa eksploitasi yang menyimpang mendominasi total pendapatan—kami menyoroti ini dibandingkan dengan tingkat keberhasilan serangan karena penyerang peduli tentang berapa banyak uang yang dapat diekstrak oleh agen AI, bukan jumlah atau kesulitan bug yang mereka temukan,” tulis perusahaan tersebut.
Anthropic mengatakan telah menguji agen-agen tersebut pada dataset zero-day sebanyak 2.849 kontrak yang diambil dari lebih dari 9,4 juta di jaringan blockchain utama.
Perusahaan mengatakan bahwa Claude Sonnet 4.5 dan GPT-5 masing-masing menemukan dua kelemahan yang tidak terungkap yang menghasilkan $3,694 dalam nilai simulasi, dengan GPT-5 mencapai hasilnya dengan biaya API sebesar $3,476. Anthropic mencatat bahwa semua pengujian berjalan di lingkungan terisolasi yang mereplikasi blockchain dan bukan jaringan nyata.
Model terkuatnya, Claude Opus 4.5, mengeksploitasi 17 dari kerentanan pasca-Maret 2025 dan menyumbang $4.5 juta dari total nilai yang disimulasikan.
Perusahaan mengaitkan perbaikan di berbagai model dengan kemajuan dalam penggunaan alat, pemulihan kesalahan, dan pelaksanaan tugas jangka panjang. Selama empat generasi model Claude, biaya token turun sebesar 70,2%.
Salah satu cacat yang baru ditemukan melibatkan kontrak token dengan fungsi kalkulator publik yang tidak memiliki modifier view, yang memungkinkan agen untuk secara berulang mengubah variabel status internal dan menjual saldo yang terinflasi di bursa terdesentralisasi. Eksploitasi yang disimulasikan menghasilkan sekitar $2.500.
Schwed mengatakan bahwa masalah yang disorot dalam eksperimen tersebut “sebenarnya hanyalah kesalahan logika bisnis,” menambahkan bahwa sistem AI dapat mengidentifikasi kelemahan ini ketika diberikan struktur dan konteks.
“AI juga dapat menemukannya dengan pemahaman tentang bagaimana kontrak pintar seharusnya berfungsi dan dengan petunjuk rinci tentang bagaimana mencoba untuk menghindari pemeriksaan logika dalam proses tersebut,” katanya.
Anthropic mengatakan bahwa kemampuan yang memungkinkan agen mengeksploitasi kontrak pintar juga berlaku untuk jenis perangkat lunak lainnya, dan bahwa biaya yang menurun akan memperpendek jendela antara penerapan dan eksploitasi. Perusahaan mendesak para pengembang untuk mengadopsi alat otomatis dalam alur kerja keamanan mereka agar penggunaan defensif berkembang secepat penggunaan ofensif.
Meskipun peringatan dari Anthropic, Schwed mengatakan bahwa prospeknya tidak sepenuhnya negatif.
“Saya selalu menolak pandangan pesimis dan mengatakan bahwa dengan pengendalian yang tepat, pengujian internal yang ketat, bersama dengan pemantauan waktu nyata dan pemutus sirkuit, sebagian besar dari ini dapat dihindari,” katanya. “Para pelaku baik memiliki akses yang sama ke agen yang sama. Jadi jika para pelaku buruk dapat menemukannya, begitu juga para pelaku baik. Kita harus berpikir dan bertindak dengan cara yang berbeda.”