Selon des informations de BiJie, Anthropic a publié un rapport indiquant que ses chercheurs ont testé les modèles Claude Opus 4.5, Claude Sonnet 4.5 et GPT-5 sur la benchmark SCONE-bench qu'ils ont construite eux-mêmes (comprenant 405 contrats réels attaqués entre 2020 et 2025). Après la mise à jour des connaissances (mars 2025), ils ont découvert des vulnérabilités exploitables d'une valeur d'environ 4,6 millions de dollars dans les contrats attaqués. De plus, lors de tests simulés sur 2849 contrats récemment déployés et sans vulnérabilités connues, Sonnet 4.5 et GPT-5 ont chacun découvert 2 nouvelles vulnérabilités zero-day, entraînant une perte totale de 3694 dollars, dont le coût de l'API de GPT-5 s'élevait à 3476 dollars.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Anthropic : des agents IA découvrent une faille de 4,6 millions de dollars dans un contrat réel
Selon des informations de BiJie, Anthropic a publié un rapport indiquant que ses chercheurs ont testé les modèles Claude Opus 4.5, Claude Sonnet 4.5 et GPT-5 sur la benchmark SCONE-bench qu'ils ont construite eux-mêmes (comprenant 405 contrats réels attaqués entre 2020 et 2025). Après la mise à jour des connaissances (mars 2025), ils ont découvert des vulnérabilités exploitables d'une valeur d'environ 4,6 millions de dollars dans les contrats attaqués. De plus, lors de tests simulés sur 2849 contrats récemment déployés et sans vulnérabilités connues, Sonnet 4.5 et GPT-5 ont chacun découvert 2 nouvelles vulnérabilités zero-day, entraînant une perte totale de 3694 dollars, dont le coût de l'API de GPT-5 s'élevait à 3476 dollars.