Les agents IA approchent du risque d'exploitation réelle de la DeFi, selon une recherche de Sam Winkler et de l'équipe d'Anthropic

Les dernières découvertes du programme Anthropic Fellows présentent une réalité sobering : les modèles d’intelligence artificielle ont franchi un seuil critique de capacité et peuvent désormais identifier et exploiter de manière autonome des vulnérabilités dans les contrats intelligents avec une précision mesurable. Des recherches menées par des équipes comprenant des contributeurs comme Sam Winkler démontrent que les modèles d’IA de pointe ne sont pas de simples menaces théoriques — ils sont déjà capables de lancer des attaques rivalisant avec la sophistication des exploits dirigés par des humains dans la finance décentralisée.

Les implications de ce changement dépassent largement le cadre académique. À mesure que ces systèmes d’IA deviennent moins coûteux à déployer et plus avancés dans leur raisonnement, l’économie reconfigure fondamentalement le paysage des menaces pour chaque blockchain et système logiciel reposant sur des vulnérabilités visibles publiquement et monétisables.

Les modèles de pointe exécutent avec succès des scénarios d’attaque complets

Une étude collaborative menée par le ML Alignment & Theory Scholars Program (MATS) et les Anthropic Fellows a testé des modèles de pointe — GPT-5, Claude Opus 4.5 et Sonnet 4.5 — contre SCONE-bench, un ensemble de données complet contenant 405 contrats intelligents précédemment exploités. Les résultats ont été saisissants : ces modèles ne se contentaient pas de repérer un code problématique. Ils synthétisaient des scripts d’exploitation complets et exécutables, séquençaient stratégiquement des transactions, et vidangeaient des pools de liquidités simulés selon des schémas qui reflètent de véritables attaques sur Ethereum et BNB Chain.

La production collective était particulièrement remarquable : 4,6 millions de dollars en exploits simulés ciblant des contrats existant après la date de coupure des connaissances des modèles. Ce chiffre est important car il suggère une limite inférieure à ce que l’IA de génération actuelle pourrait théoriquement voler si elle était déployée contre des systèmes en direct aujourd’hui.

La découverte de vulnérabilités zero-day prouve que la détection autonome fonctionne

La véritable avancée est survenue lorsque les chercheurs ont testé si des agents d’IA pouvaient identifier des vulnérabilités auparavant inconnues. GPT-5 et Sonnet 4.5 ont analysé 2 849 contrats récemment déployés sur BNB Chain sans antécédents de compromission. Les modèles ont découvert deux failles auparavant inconnues qui ont généré un profit simulé de 3 694 dollars.

La première vulnérabilité provenait d’un oubli d’un modificateur de vue dans une fonction publique — une erreur subtile qui permettait à l’agent d’augmenter artificiellement son solde de tokens. La seconde faille créait un vecteur de redirection des frais en acceptant une adresse de bénéficiaire arbitraire. Dans les deux cas, les modèles d’IA ont généré un code d’exploitation fonctionnel qui a transformé ces faiblesses de conception en gains monétaires immédiats.

Ce qui rend cette découverte particulièrement significative, c’est l’économie : exécuter l’agent autonome sur l’ensemble du contrat n’a coûté que 3 476 dollars, avec un coût moyen de 1,22 dollar par exécution. Ce seuil d’efficacité devient critique pour évaluer les scénarios de menace futurs.

L’économie des attaques automatisées continue de s’améliorer

La véritable histoire ne concerne pas les coûts d’attaque d’aujourd’hui — elle concerne la trajectoire de demain. À mesure que les dépenses liées aux modèles d’IA diminuent et que leurs capacités d’utilisation d’outils s’affinent, le calcul coût-bénéfice penche résolument en faveur de l’automatisation complète. La recherche suggère que ce changement réduira le délai entre le déploiement d’un contrat intelligent et son exploitation potentielle, en particulier dans les environnements DeFi où le capital est ouvertement disponible sur la chaîne et où les bugs profitables peuvent être monétisés en quelques secondes.

L’économie actuelle penche déjà en faveur de cette évolution. Lorsqu’un agent d’exploitation autonome coûte un peu plus de 1 dollar par contrat, et que les gains potentiels peuvent atteindre des milliers de dollars, la structure d’incitation attire à grande échelle des acteurs malveillants. À mesure que le coût des modèles approche de zéro, même des exploits à faibles rendements deviennent des cibles attrayantes pour l’automatisation.

Au-delà de la DeFi : vulnérabilités dans l’infrastructure plus large

Bien que la recherche se concentre spécifiquement sur la finance décentralisée, les capacités sous-jacentes ne sont pas spécifiques à un domaine. Les schémas de raisonnement qui permettent à un agent de manipuler des soldes de tokens ou de rediriger des frais peuvent se transposer directement à des logiciels conventionnels, des bases de code propriétaires, et à l’infrastructure supportant les marchés crypto de manière plus large.

À mesure que les coûts des modèles continuent de baisser et que l’intégration des outils s’améliore, la détection automatisée de vulnérabilités s’étendra inévitablement au-delà des blockchains publiques. Les mêmes capacités d’IA pourraient cibler tout service ou système offrant un accès à des actifs de valeur — qu’il s’agisse d’infrastructures d’échange centralisées, de protocoles de ponts ou de solutions de garde institutionnelle.

La chronologie de la défense et de l’attaque devient critique

Ces recherches présentent ces découvertes comme un avertissement plutôt que comme une prévision. Les modèles d’IA peuvent désormais effectuer des tâches qui nécessitaient auparavant des attaquants humains d’élite. L’exploitation autonome dans la DeFi n’est plus hypothétique — c’est une capacité présente. La question urgente pour les développeurs crypto et les équipes d’infrastructure est de savoir si les technologies de défense peuvent évoluer au même rythme que les capacités offensives de l’IA.

Le délai pour passer d’une sécurité réactive à une sécurité proactive se réduit. Les développeurs doivent prioriser la détection automatisée des vulnérabilités, la vérification formelle et la conception de contrats résilients avant que les agents d’IA ne rendent l’économie de l’exploitation irrésistible à grande échelle.

ETH-0,73%
BNB1,28%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)