Source : CryptoNewsNet
Titre original : Les modèles d'IA de Frontier démontrent des capacités au niveau humain dans les exploits de contrats intelligents
Lien original : https://cryptonews.net/news/security/32075166/
Selon de nouvelles données publiées lundi par Anthropic, les agents d'IA ont égalé la performance des attaquants humains qualifiés dans plus de la moitié des exploits de contrats intelligents enregistrés sur les principales blockchains au cours des cinq dernières années.
Anthropic a évalué dix modèles de pointe, y compris Llama 3, Sonnet 3.7, Opus 4, GPT-5 et DeepSeek V3, sur un ensemble de données de 405 exploits de contrats intelligents historiques. Les agents ont produit des attaques fonctionnelles contre 207 d'entre eux, totalisant $550 millions de fonds volés simulés.
Les résultats ont montré à quelle vitesse les systèmes automatisés peuvent transformer les vulnérabilités en armes et identifier de nouvelles vulnérabilités que les développeurs n'ont pas traitées.
La nouvelle divulgation est la dernière de la part du développeur de Claude AI. Le mois dernier, Anthropic a détaillé comment des hackers ont utilisé Claude Code pour lancer ce qu'ils ont appelé la première cyberattaque alimentée par l'IA.
Les experts en sécurité ont déclaré que les résultats confirmaient à quel point beaucoup de ces failles sont déjà accessibles.
“L'IA est déjà utilisée dans des outils d'ASPM comme Wiz Code et Apiiro, ainsi que dans des scanners SAST et DAST standard,” a déclaré David Schwed, COO de SovereignAI, à Decrypt. “Cela signifie que les acteurs malveillants utiliseront la même technologie pour identifier les vulnérabilités.”
Schwed a déclaré que les attaques pilotées par modèle décrites dans le rapport seraient simples à mettre à l'échelle car de nombreuses vulnérabilités sont déjà publiquement divulguées par le biais des Vulnérabilités et Expositions Communes ou des rapports d'audit, ce qui les rend apprenables par les systèmes d'IA et faciles à tenter contre les contrats intelligents existants.
“Il serait même plus facile de trouver une vulnérabilité divulguée, de trouver des projets qui ont forké ce projet et d'essayer simplement cette vulnérabilité, qui n'a peut-être pas été corrigée,” a-t-il déclaré. “Tout cela peut maintenant être fait 24h/24 et 7j/7, contre tous les projets. Même ceux qui ont maintenant des TVL plus petits sont des cibles, car pourquoi pas ? C'est agentique.”
Pour mesurer les capacités actuelles, Anthropic a tracé le revenu total d'exploitation de chaque modèle par rapport à sa date de sortie en utilisant uniquement les 34 contrats exploités après mars 2025.
“Bien que le revenu total des exploits soit une mesure imparfaite—puisque quelques exploits extrêmes dominent le revenu total—nous le mettons en avant par rapport au taux de réussite des attaques, car les attaquants se soucient de combien d'argent les agents d'IA peuvent extraire, et non du nombre ou de la difficulté des bugs qu'ils trouvent,” a écrit la société.
Anthropic a déclaré avoir testé les agents sur un ensemble de données zero-day de 2 849 contrats tirés de plus de 9,4 millions sur un réseau blockchain majeur.
La société a déclaré que Claude Sonnet 4.5 et GPT-5 avaient chacun découvert deux défauts non divulgués qui ont généré 3 694 $ de valeur simulée, GPT-5 atteignant son résultat à un coût d'API de 3 476 $. Anthropic a noté que tous les tests ont été réalisés dans des environnements isolés qui ont reproduit des blockchains et non des réseaux réels.
Son modèle le plus puissant, Claude Opus 4.5, a exploité 17 des vulnérabilités post-mars 2025 et a représenté 4,5 millions de dollars de la valeur simulée totale.
L'entreprise a lié les améliorations entre les modèles aux avancées dans l'utilisation des outils, la récupération d'erreurs et l'exécution de tâches à long terme. Au cours de quatre générations de modèles Claude, les coûts des jetons ont chuté de 70,2 %.
L'un des défauts nouvellement découverts concernait un contrat de jeton avec une fonction de calculatrice publique qui manquait d'un modificateur de vue, ce qui permettait à l'agent de modifier à plusieurs reprises les variables d'état internes et de vendre des soldes gonflés sur des échanges décentralisés. L'exploitation simulée a généré environ 2 500 $.
Schwed a déclaré que les problèmes mis en évidence dans l'expérience étaient “vraiment juste des défauts de logique commerciale”, ajoutant que les systèmes d'IA peuvent identifier ces faiblesses lorsqu'ils sont dotés de structure et de contexte.
“L'IA peut également les découvrir en comprenant comment un contrat intelligent doit fonctionner et avec des instructions détaillées sur la manière d'essayer de contourner les vérifications logiques dans le processus,” a-t-il déclaré.
Anthropic a déclaré que les capacités qui ont permis aux agents d'exploiter les contrats intelligents s'appliquent également à d'autres types de logiciels, et que la baisse des coûts réduira la fenêtre entre le déploiement et l'exploitation. L'entreprise a exhorté les développeurs à adopter des outils automatisés dans leurs flux de travail de sécurité afin que l'utilisation défensive progresse aussi rapidement que l'utilisation offensive.
Malgré l'avertissement d'Anthropic, Schwed a déclaré que les perspectives ne sont pas uniquement négatives.
“Je repousse toujours le catastrophisme et dis qu'avec des contrôles appropriés, des tests internes rigoureux, ainsi qu'une surveillance en temps réel et des coupe-circuits, la plupart de ces problèmes sont évitables,” a-t-il déclaré. “Les bons acteurs ont le même accès aux mêmes agents. Donc, si les mauvais acteurs peuvent le trouver, les bons acteurs le peuvent aussi. Nous devons penser et agir différemment.”
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les modèles d'IA Frontier démontrent une capacité de niveau humain dans les exploits de Smart Contract
Source : CryptoNewsNet Titre original : Les modèles d'IA de Frontier démontrent des capacités au niveau humain dans les exploits de contrats intelligents Lien original : https://cryptonews.net/news/security/32075166/ Selon de nouvelles données publiées lundi par Anthropic, les agents d'IA ont égalé la performance des attaquants humains qualifiés dans plus de la moitié des exploits de contrats intelligents enregistrés sur les principales blockchains au cours des cinq dernières années.
Anthropic a évalué dix modèles de pointe, y compris Llama 3, Sonnet 3.7, Opus 4, GPT-5 et DeepSeek V3, sur un ensemble de données de 405 exploits de contrats intelligents historiques. Les agents ont produit des attaques fonctionnelles contre 207 d'entre eux, totalisant $550 millions de fonds volés simulés.
Les résultats ont montré à quelle vitesse les systèmes automatisés peuvent transformer les vulnérabilités en armes et identifier de nouvelles vulnérabilités que les développeurs n'ont pas traitées.
La nouvelle divulgation est la dernière de la part du développeur de Claude AI. Le mois dernier, Anthropic a détaillé comment des hackers ont utilisé Claude Code pour lancer ce qu'ils ont appelé la première cyberattaque alimentée par l'IA.
Les experts en sécurité ont déclaré que les résultats confirmaient à quel point beaucoup de ces failles sont déjà accessibles.
“L'IA est déjà utilisée dans des outils d'ASPM comme Wiz Code et Apiiro, ainsi que dans des scanners SAST et DAST standard,” a déclaré David Schwed, COO de SovereignAI, à Decrypt. “Cela signifie que les acteurs malveillants utiliseront la même technologie pour identifier les vulnérabilités.”
Schwed a déclaré que les attaques pilotées par modèle décrites dans le rapport seraient simples à mettre à l'échelle car de nombreuses vulnérabilités sont déjà publiquement divulguées par le biais des Vulnérabilités et Expositions Communes ou des rapports d'audit, ce qui les rend apprenables par les systèmes d'IA et faciles à tenter contre les contrats intelligents existants.
“Il serait même plus facile de trouver une vulnérabilité divulguée, de trouver des projets qui ont forké ce projet et d'essayer simplement cette vulnérabilité, qui n'a peut-être pas été corrigée,” a-t-il déclaré. “Tout cela peut maintenant être fait 24h/24 et 7j/7, contre tous les projets. Même ceux qui ont maintenant des TVL plus petits sont des cibles, car pourquoi pas ? C'est agentique.”
Pour mesurer les capacités actuelles, Anthropic a tracé le revenu total d'exploitation de chaque modèle par rapport à sa date de sortie en utilisant uniquement les 34 contrats exploités après mars 2025.
“Bien que le revenu total des exploits soit une mesure imparfaite—puisque quelques exploits extrêmes dominent le revenu total—nous le mettons en avant par rapport au taux de réussite des attaques, car les attaquants se soucient de combien d'argent les agents d'IA peuvent extraire, et non du nombre ou de la difficulté des bugs qu'ils trouvent,” a écrit la société.
Anthropic a déclaré avoir testé les agents sur un ensemble de données zero-day de 2 849 contrats tirés de plus de 9,4 millions sur un réseau blockchain majeur.
La société a déclaré que Claude Sonnet 4.5 et GPT-5 avaient chacun découvert deux défauts non divulgués qui ont généré 3 694 $ de valeur simulée, GPT-5 atteignant son résultat à un coût d'API de 3 476 $. Anthropic a noté que tous les tests ont été réalisés dans des environnements isolés qui ont reproduit des blockchains et non des réseaux réels.
Son modèle le plus puissant, Claude Opus 4.5, a exploité 17 des vulnérabilités post-mars 2025 et a représenté 4,5 millions de dollars de la valeur simulée totale.
L'entreprise a lié les améliorations entre les modèles aux avancées dans l'utilisation des outils, la récupération d'erreurs et l'exécution de tâches à long terme. Au cours de quatre générations de modèles Claude, les coûts des jetons ont chuté de 70,2 %.
L'un des défauts nouvellement découverts concernait un contrat de jeton avec une fonction de calculatrice publique qui manquait d'un modificateur de vue, ce qui permettait à l'agent de modifier à plusieurs reprises les variables d'état internes et de vendre des soldes gonflés sur des échanges décentralisés. L'exploitation simulée a généré environ 2 500 $.
Schwed a déclaré que les problèmes mis en évidence dans l'expérience étaient “vraiment juste des défauts de logique commerciale”, ajoutant que les systèmes d'IA peuvent identifier ces faiblesses lorsqu'ils sont dotés de structure et de contexte.
“L'IA peut également les découvrir en comprenant comment un contrat intelligent doit fonctionner et avec des instructions détaillées sur la manière d'essayer de contourner les vérifications logiques dans le processus,” a-t-il déclaré.
Anthropic a déclaré que les capacités qui ont permis aux agents d'exploiter les contrats intelligents s'appliquent également à d'autres types de logiciels, et que la baisse des coûts réduira la fenêtre entre le déploiement et l'exploitation. L'entreprise a exhorté les développeurs à adopter des outils automatisés dans leurs flux de travail de sécurité afin que l'utilisation défensive progresse aussi rapidement que l'utilisation offensive.
Malgré l'avertissement d'Anthropic, Schwed a déclaré que les perspectives ne sont pas uniquement négatives.
“Je repousse toujours le catastrophisme et dis qu'avec des contrôles appropriés, des tests internes rigoureux, ainsi qu'une surveillance en temps réel et des coupe-circuits, la plupart de ces problèmes sont évitables,” a-t-il déclaré. “Les bons acteurs ont le même accès aux mêmes agents. Donc, si les mauvais acteurs peuvent le trouver, les bons acteurs le peuvent aussi. Nous devons penser et agir différemment.”