Perusahaan AI papan atas dan pengembang model Claude LLM, Anthropic, hari ini mengumumkan sebuah uji coba yang menggunakan AI untuk secara mandiri menyerang smart contract (catatan: Anthropic pernah menerima investasi dari FTX, secara teori nilai ekuitasnya kini cukup untuk menutupi kekurangan aset FTX, namun telah dijual murah oleh tim manajemen kebangkrutan).
Hasil akhir dari pengujian ini adalah: serangan AI otonom yang menguntungkan dan dapat digunakan kembali di dunia nyata secara teknis sudah memungkinkan. Perlu diperhatikan, eksperimen Anthropic hanya dilakukan di lingkungan blockchain simulasi, belum diuji di jaringan nyata, sehingga tidak berdampak pada aset nyata apa pun.
Berikut ini penjelasan singkat tentang skema pengujian Anthropic.
Anthropic terlebih dahulu membangun tolok ukur exploitasi smart contract (SCONE-bench), yang merupakan tolok ukur pertama dalam sejarah yang mengukur kemampuan AI Agent dalam mengeksploitasi kerentanan berdasarkan total nilai dana yang berhasil dicuri secara simulasi—yaitu, tolok ukur ini tidak bergantung pada bounty bug atau model prediksi, melainkan secara langsung mengkuantifikasi kerugian dan menilai kemampuan berdasarkan perubahan aset on-chain.
SCONE-bench mencakup 405 smart contract yang benar-benar pernah diserang pada tahun 2020–2025 sebagai kumpulan uji. Smart contract terkait berada di tiga chain EVM: Ethereum, BSC, dan Base. Untuk setiap target smart contract, AI Agent yang berjalan di lingkungan sandbox harus mencoba menyerang kontrak yang ditentukan dalam waktu terbatas (60 menit) menggunakan alat yang tersedia melalui Model Context Protocol (MCP). Untuk memastikan hasil dapat direplikasi, Anthropic membangun kerangka evaluasi yang menggunakan kontainer Docker untuk sandboxing dan eksekusi yang dapat diskalakan, di mana setiap kontainer menjalankan blockchain lokal yang difork pada ketinggian blok tertentu.
Berikut adalah hasil uji Anthropic untuk berbagai skenario.
Pertama, Anthropic mengevaluasi kinerja 10 model, yaitu Llama 3, GPT-4o, DeepSeek V3, Sonnet 3.7, o3, Opus 4, Opus 4.1, GPT-5, Sonnet 4.5, dan Opus 4.5, pada semua 405 smart contract benchmark dengan kerentanan. Secara keseluruhan, model-model ini berhasil menghasilkan skrip exploitasi yang dapat langsung digunakan pada 207 kontrak (51,11%), mensimulasikan pencurian dana sebesar 550,1 juta dolar AS.
Kedua, untuk mengendalikan potensi data contamination, Anthropic menggunakan 10 model yang sama untuk menguji 34 kontrak yang diserang setelah 1 Maret 2025—tanggal ini dipilih karena merupakan batas pengetahuan terbaru dari model-model tersebut. Secara keseluruhan, Opus 4.5, Sonnet 4.5, dan GPT-5 berhasil mengeksploitasi 19 dari kontrak tersebut (55,8%), dengan jumlah maksimal pencurian simulasi sebesar 4,6 juta dolar AS; model dengan performa terbaik, Opus 4.5, berhasil mengeksploitasi 17 kontrak (50%), dengan total simulasi pencurian 4,5 juta dolar AS.
Terakhir, untuk menilai kemampuan AI Agent dalam menemukan zero-day vulnerability baru, pada 3 Oktober 2025, Anthropic meminta Sonnet 4.5 dan GPT-5 mengevaluasi 2.849 kontrak yang baru dideploy dan belum diketahui memiliki kerentanan. Kedua AI Agent masing-masing menemukan dua zero-day vulnerability baru, dan menghasilkan skenario serangan senilai 3.694 dolar AS, dengan biaya API GPT-5 sebesar 3.476 dolar AS. Ini membuktikan—serangan AI otonom yang menguntungkan dan dapat digunakan kembali di dunia nyata secara teknis sudah memungkinkan.
Setelah Anthropic mengumumkan hasil pengujian, banyak tokoh terkemuka di industri, termasuk Managing Partner Dragonfly, Haseeb, mengungkapkan kekaguman atas kecepatan perkembangan AI dari teori ke aplikasi nyata.
Namun, seberapa cepat perkembangan tersebut? Anthropic juga memberikan jawabannya.
Pada penutup pengujian, Anthropic menyatakan bahwa hanya dalam waktu satu tahun, proporsi kerentanan yang dapat dieksploitasi oleh AI dalam tolok ukur ini melonjak dari 2% menjadi 55,88%, dan dana yang dapat dicuri meningkat dari 5.000 dolar AS menjadi 4,6 juta dolar AS. Anthropic juga menemukan bahwa nilai kerentanan potensial yang dapat dieksploitasi berlipat ganda setiap 1,3 bulan, sementara biaya token turun sekitar 23% setiap 2 bulan—dalam eksperimen, rata-rata biaya untuk melakukan pemindaian kerentanan menyeluruh pada satu smart contract oleh satu AI Agent saat ini hanya 1,22 dolar AS.
Anthropic menyatakan bahwa pada serangan nyata di blockchain tahun 2025, lebih dari setengah—yang diduga dilakukan oleh penyerang manusia yang terampil—sebenarnya dapat sepenuhnya dilakukan secara otonom oleh AI Agent yang ada. Seiring dengan penurunan biaya dan pertumbuhan eksponensial kemampuan, jendela waktu antara smart contract rentan dideploy ke blockchain dan berhasil dieksploitasi akan semakin pendek, sehingga waktu yang dimiliki pengembang untuk mendeteksi dan memperbaiki kerentanan akan semakin sedikit… AI dapat digunakan untuk mengeksploitasi maupun memperbaiki kerentanan, sehingga para pekerja keamanan perlu memperbarui pemahaman mereka—sekarang saatnya memanfaatkan AI untuk pertahanan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Berhasil mensimulasikan pencurian sebesar 4,6 juta dolar AS, AI kini sudah mampu menyerang smart contract secara mandiri
Original: Odaily 星球日报 Azuma
Perusahaan AI papan atas dan pengembang model Claude LLM, Anthropic, hari ini mengumumkan sebuah uji coba yang menggunakan AI untuk secara mandiri menyerang smart contract (catatan: Anthropic pernah menerima investasi dari FTX, secara teori nilai ekuitasnya kini cukup untuk menutupi kekurangan aset FTX, namun telah dijual murah oleh tim manajemen kebangkrutan).
Hasil akhir dari pengujian ini adalah: serangan AI otonom yang menguntungkan dan dapat digunakan kembali di dunia nyata secara teknis sudah memungkinkan. Perlu diperhatikan, eksperimen Anthropic hanya dilakukan di lingkungan blockchain simulasi, belum diuji di jaringan nyata, sehingga tidak berdampak pada aset nyata apa pun.
Berikut ini penjelasan singkat tentang skema pengujian Anthropic.
Anthropic terlebih dahulu membangun tolok ukur exploitasi smart contract (SCONE-bench), yang merupakan tolok ukur pertama dalam sejarah yang mengukur kemampuan AI Agent dalam mengeksploitasi kerentanan berdasarkan total nilai dana yang berhasil dicuri secara simulasi—yaitu, tolok ukur ini tidak bergantung pada bounty bug atau model prediksi, melainkan secara langsung mengkuantifikasi kerugian dan menilai kemampuan berdasarkan perubahan aset on-chain.
SCONE-bench mencakup 405 smart contract yang benar-benar pernah diserang pada tahun 2020–2025 sebagai kumpulan uji. Smart contract terkait berada di tiga chain EVM: Ethereum, BSC, dan Base. Untuk setiap target smart contract, AI Agent yang berjalan di lingkungan sandbox harus mencoba menyerang kontrak yang ditentukan dalam waktu terbatas (60 menit) menggunakan alat yang tersedia melalui Model Context Protocol (MCP). Untuk memastikan hasil dapat direplikasi, Anthropic membangun kerangka evaluasi yang menggunakan kontainer Docker untuk sandboxing dan eksekusi yang dapat diskalakan, di mana setiap kontainer menjalankan blockchain lokal yang difork pada ketinggian blok tertentu.
Berikut adalah hasil uji Anthropic untuk berbagai skenario.
Setelah Anthropic mengumumkan hasil pengujian, banyak tokoh terkemuka di industri, termasuk Managing Partner Dragonfly, Haseeb, mengungkapkan kekaguman atas kecepatan perkembangan AI dari teori ke aplikasi nyata.
Namun, seberapa cepat perkembangan tersebut? Anthropic juga memberikan jawabannya.
Pada penutup pengujian, Anthropic menyatakan bahwa hanya dalam waktu satu tahun, proporsi kerentanan yang dapat dieksploitasi oleh AI dalam tolok ukur ini melonjak dari 2% menjadi 55,88%, dan dana yang dapat dicuri meningkat dari 5.000 dolar AS menjadi 4,6 juta dolar AS. Anthropic juga menemukan bahwa nilai kerentanan potensial yang dapat dieksploitasi berlipat ganda setiap 1,3 bulan, sementara biaya token turun sekitar 23% setiap 2 bulan—dalam eksperimen, rata-rata biaya untuk melakukan pemindaian kerentanan menyeluruh pada satu smart contract oleh satu AI Agent saat ini hanya 1,22 dolar AS.
Anthropic menyatakan bahwa pada serangan nyata di blockchain tahun 2025, lebih dari setengah—yang diduga dilakukan oleh penyerang manusia yang terampil—sebenarnya dapat sepenuhnya dilakukan secara otonom oleh AI Agent yang ada. Seiring dengan penurunan biaya dan pertumbuhan eksponensial kemampuan, jendela waktu antara smart contract rentan dideploy ke blockchain dan berhasil dieksploitasi akan semakin pendek, sehingga waktu yang dimiliki pengembang untuk mendeteksi dan memperbaiki kerentanan akan semakin sedikit… AI dapat digunakan untuk mengeksploitasi maupun memperbaiki kerentanan, sehingga para pekerja keamanan perlu memperbarui pemahaman mereka—sekarang saatnya memanfaatkan AI untuk pertahanan.