Alerta! Agentes de IA invadiram contratos inteligentes para roubar mais de 4,5 milhões de dólares em ativos simulados, relatório da Anthropic revela crise de segurança nas Finanças Descentralizadas.
O mais recente relatório de pesquisa da empresa de estrelas da IA, Anthropic, soou o alarme para toda a indústria de encriptação. Os experimentos mostraram que os atuais agentes de IA avançados (como Claude Sonnet 4.5) podem descobrir e explorar de forma autônoma vulnerabilidades em contratos inteligentes, tendo atacado com sucesso mais da metade dos contratos de teste em um ambiente simulado, e até mesmo descoberto duas novas “vulnerabilidades de dia zero”. O relatório alerta que, à medida que os custos de uso da IA caem drasticamente e os lucros dos ataques disparam, os sistemas de Finanças Descentralizadas baseados em Blockchain estão enfrentando uma batalha de segurança automatizada sem precedentes. Isso é tanto uma ameaça severa quanto um sinal de que uma nova era de segurança, onde IA combate IA, já começou.
A Caixa de Pandora foi aberta: Agentes de IA mostram um poder de ataque impressionante
Enquanto as pessoas ainda discutem como a IA mudará o futuro, o relatório da Anthropic revela um presente iminente: os agentes de IA já possuem a capacidade prática suficiente para ameaçar a segurança dos ativos em blockchain. A empresa, em um rigoroso experimento simulado, colocou modelos de IA em um ambiente de blockchain simulado, testando alvos que incluíam 34 contratos inteligentes, implantados após março de 2025, que historicamente sofreram ataques reais. Os resultados foram chocantes, pois os agentes de IA conseguiram invadir 17 desses contratos, roubando um total de 4,5 milhões de dólares em ativos simulados.
A universalidade dessa ameaça é ainda mais alarmante. Em um teste de referência ampliado, a Anthropic selecionou um total de 405 contratos implantados em cadeias como Ethereum, BNB Smart Chain e Base entre 2020 e 2025 para testes. O modelo de IA atacou com sucesso 207 desses contratos, com uma taxa de sucesso superior a 50%, simulando o roubo de fundos que totaliza até 550 milhões de dólares. O relatório afirma que a maioria dos ataques à blockchain realizados por especialistas humanos em 2025 poderia, teoricamente, ser executada autonomamente pelos atuais agentes de IA. Isso significa que a barreira para os ataques está rapidamente se movendo de “necessita de habilidades excepcionais” para “pode ser automatizado em massa”.
O que mais inquieta os especialistas em segurança é a capacidade de “inovação” demonstrada pela IA. Em uma varredura de 2849 contratos recentemente implantados, sem vulnerabilidades conhecidas, Claude Sonnet 4.5 e GPT-5 descobriram ainda dois novos “zero-day vulnerabilities”, com um valor potencial de exploração de cerca de 3694 dólares. Isso prova que a ameaça da IA não se limita apenas à reprodução de padrões de ataque conhecidos; ela começou a ter a capacidade de explorar ativamente novas ameaças em códigos desconhecidos, e o equilíbrio entre ataque e defesa na segurança de contratos inteligentes está sendo totalmente rompido.
Máquina de Exploração de Vulnerabilidades: Como a IA Perscruta os Riscos dos Contratos
Como é que os agentes de IA conseguem fazer isso? O relatório analisa em profundidade os tipos de vulnerabilidades que foram exploradas com sucesso, oferecendo uma janela para compreendermos a abordagem de ataque da IA. Uma das classes mais comuns é a “vulnerabilidade de autorização”, ou seja, as falhas no controle de acesso a certas funções críticas no contrato (como a retirada de fundos dos usuários), que não validam rigorosamente a identidade do chamador. Os agentes de IA conseguem localizar com precisão essas “portas dos fundos” não bloqueadas através de testes sistemáticos de chamadas e análises de estado.
Outra classe de vulnerabilidades comuns envolve “funções de leitura não protegidas”. Estas funções não deveriam modificar o estado na blockchain, mas se projetadas de forma inadequada, podem ser chamadas maliciosamente para manipular a quantidade de tokens ou variáveis de estado críticas. Agentes de IA podem identificar esses potenciais vetores de ataque percorrendo todas as funções chamáveis e analisando os possíveis efeitos colaterais que elas podem gerar. Além disso, a “falta de validação na lógica de extração de taxas” também é um problema comum, onde atacantes podem explorar essa vulnerabilidade para extrair ilegalmente as taxas de transação acumuladas.
Do ponto de vista técnico, o motivo pelo qual os modelos de linguagem de grande escala (LLM) são capazes de realizar este trabalho é que foram treinados com uma imensa quantidade de código (incluindo contratos inteligentes Solidity), possuindo uma capacidade de associação e raciocínio que ultrapassa a velocidade humana em relação a padrões de código, padrões de falhas potenciais e padrões de ataque. Eles podem, como auditores incansáveis, tentar uma variedade de combinações de entradas e sequências de chamadas de função com uma paralelização extremamente alta, à procura das “chaves” que podem levar a estados inesperados. Esta capacidade de revisão de código automatizada e em larga escala, uma vez utilizada para fins maliciosos, será milhares de vezes mais eficiente do que os hackers manuais tradicionais.
Queda acentuada nos custos e aumento dos rendimentos: um modelo econômico perigoso
O que impulsiona esta crise de segurança não é apenas o avanço tecnológico, mas também um conjunto perigoso de lógicas econômicas. O relatório da Anthropic revela uma tendência chave: nos últimos doze meses, os ganhos simulados obtidos através de ataques utilizando IA dobraram aproximadamente a cada 1,3 meses. Ao mesmo tempo, o custo de invocar modelos de IA avançados (como GPT-4o, Claude 3.5 Sonnet) continua a cair rapidamente.
Este efeito de “diferença de tesoura” cria um modelo de incentivo para atacantes extremamente atraente. Quando a taxa de crescimento do retorno esperado de um ataque é muito superior ao custo, implantar uma grande quantidade de agentes de IA para realizar varreduras de vulnerabilidades de forma “ampla” torna-se um negócio lucrativo. O relatório alerta: “À medida que os custos continuam a cair, os atacantes implantarão mais agentes de IA para detectar qualquer caminho de código em direção a ativos valiosos, não importa quão obscuros sejam: uma biblioteca de autenticação esquecida, um serviço de log discreto, ou um ponto de extremidade de API obsoleto.” No futuro, podemos enfrentar não apenas ataques de precisão direcionados a protocolos DeFi de topo, mas também uma varredura indiscriminada e automatizada de todos os contratos inteligentes conectados.
Dados principais do relatório de pesquisa da Anthropic
Conjunto de Teste 1 (contratos que foram atacados recentemente): 34, o AI atacou com sucesso 17, roubando 4,5 milhões de dólares em fundos simulados.
Conjunto de Testes 2 (Referência de Contratos Históricos de 2020-2025): 405 contratos, a IA atacou com sucesso 207 contratos, roubando 550 milhões de dólares em fundos simulados
Teste de exploração de vulnerabilidades de dia zero: escaneadas 2849 novas contratos, encontrados 2 novas vulnerabilidades, valor potencial de 3694 dólares
Ciclo de crescimento dos ganhos de ataque: os ganhos de ataque simulados dobram a cada 1,3 meses
Modelos de IA envolvidos: Claude Opus 4.5, Claude Sonnet 4.5, GPT-5
Blockchain envolvida: Ethereum, BNB Smart Chain, Base
Com a lança da IA, construindo o escudo da IA: Abertura da nova era de defesa
Diante de uma ameaça tão clara, a resposta da indústria deve ser rápida e eficaz. A Anthropic não apenas gerou pânico no relatório, mas deixou claro o caminho a seguir: deve-se usar IA para defender a IA. Isso sinaliza que a auditoria de contratos inteligentes e a segurança estão prestes a entrar em uma nova era “aumentada por IA”. O modelo tradicional, que depende de uma força de trabalho limitada para a revisão de código e testes de fuzzing, mostrará suas falhas diante de ataques automatizados.
Como uma medida concreta para promover o avanço da defesa, a Anthropic anunciou que irá abrir o código-fonte de seu conjunto de dados de benchmark de contratos inteligentes utilizado para esta pesquisa. Esta ação visa fornecer aos desenvolvedores e pesquisadores de segurança em todo o mundo um sandbox de testes de alto padrão e diversificado, para treinar e avaliar seus próprios modelos de IA defensiva. No futuro, esperamos ver o surgimento de ferramentas de auditoria assistidas por IA mais poderosas, que podem realizar varreduras profundas antes da implantação dos contratos, identificando vulnerabilidades antecipadamente sob a perspectiva de um atacante; e também podem realizar monitoramento em tempo real durante a execução do contrato, reconhecendo e bloqueando padrões de transações anômalas assim que surgirem.
Esta corrida armamentista de segurança impulsionada por IA já começou. Para as equipes de projeto, aumentar o orçamento de segurança e adotar serviços de auditoria de IA mais avançados se tornarão essenciais para a sobrevivência. Para os desenvolvedores, aprender e se adaptar à programação colaborativa com ferramentas de IA se tornará a nova norma. Para toda a indústria Web3, este aviso é um valioso teste de estresse, forçando-nos a reorientar a segurança como o núcleo do design arquitetônico enquanto buscamos inovação e eficiência. Somente abraçando ativamente essa transformação poderemos transformar ameaças em oportunidades para elevar o nível de segurança de toda a indústria.
Conclusão
O relatório da Anthropic é como um espelho, refletindo tanto os ângulos afiados do lado sombrio da tecnologia de IA, quanto apontando a direção para fortalecer o escudo utilizando seu lado luminoso. A narrativa de segurança dos contratos inteligentes está mudando de “a luta entre hackers éticos e hackers maliciosos” para “a corrida algorítmica entre IA defensiva e IA ofensiva”. Esta competição não tem espectadores; ela diz respeito a cada protocolo construído sobre a blockchain, cada ativo bloqueado nas Finanças Descentralizadas, e a base de confiança de todo o ecossistema descentralizado. Agora, é hora de atualizar nossa percepção de risco e agir imediatamente - porque os agentes de IA nunca descansam, e nossas defesas também devem estar sempre online.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Alerta! Agentes de IA invadiram contratos inteligentes para roubar mais de 4,5 milhões de dólares em ativos simulados, relatório da Anthropic revela crise de segurança nas Finanças Descentralizadas.
O mais recente relatório de pesquisa da empresa de estrelas da IA, Anthropic, soou o alarme para toda a indústria de encriptação. Os experimentos mostraram que os atuais agentes de IA avançados (como Claude Sonnet 4.5) podem descobrir e explorar de forma autônoma vulnerabilidades em contratos inteligentes, tendo atacado com sucesso mais da metade dos contratos de teste em um ambiente simulado, e até mesmo descoberto duas novas “vulnerabilidades de dia zero”. O relatório alerta que, à medida que os custos de uso da IA caem drasticamente e os lucros dos ataques disparam, os sistemas de Finanças Descentralizadas baseados em Blockchain estão enfrentando uma batalha de segurança automatizada sem precedentes. Isso é tanto uma ameaça severa quanto um sinal de que uma nova era de segurança, onde IA combate IA, já começou.
A Caixa de Pandora foi aberta: Agentes de IA mostram um poder de ataque impressionante
Enquanto as pessoas ainda discutem como a IA mudará o futuro, o relatório da Anthropic revela um presente iminente: os agentes de IA já possuem a capacidade prática suficiente para ameaçar a segurança dos ativos em blockchain. A empresa, em um rigoroso experimento simulado, colocou modelos de IA em um ambiente de blockchain simulado, testando alvos que incluíam 34 contratos inteligentes, implantados após março de 2025, que historicamente sofreram ataques reais. Os resultados foram chocantes, pois os agentes de IA conseguiram invadir 17 desses contratos, roubando um total de 4,5 milhões de dólares em ativos simulados.
A universalidade dessa ameaça é ainda mais alarmante. Em um teste de referência ampliado, a Anthropic selecionou um total de 405 contratos implantados em cadeias como Ethereum, BNB Smart Chain e Base entre 2020 e 2025 para testes. O modelo de IA atacou com sucesso 207 desses contratos, com uma taxa de sucesso superior a 50%, simulando o roubo de fundos que totaliza até 550 milhões de dólares. O relatório afirma que a maioria dos ataques à blockchain realizados por especialistas humanos em 2025 poderia, teoricamente, ser executada autonomamente pelos atuais agentes de IA. Isso significa que a barreira para os ataques está rapidamente se movendo de “necessita de habilidades excepcionais” para “pode ser automatizado em massa”.
O que mais inquieta os especialistas em segurança é a capacidade de “inovação” demonstrada pela IA. Em uma varredura de 2849 contratos recentemente implantados, sem vulnerabilidades conhecidas, Claude Sonnet 4.5 e GPT-5 descobriram ainda dois novos “zero-day vulnerabilities”, com um valor potencial de exploração de cerca de 3694 dólares. Isso prova que a ameaça da IA não se limita apenas à reprodução de padrões de ataque conhecidos; ela começou a ter a capacidade de explorar ativamente novas ameaças em códigos desconhecidos, e o equilíbrio entre ataque e defesa na segurança de contratos inteligentes está sendo totalmente rompido.
Máquina de Exploração de Vulnerabilidades: Como a IA Perscruta os Riscos dos Contratos
Como é que os agentes de IA conseguem fazer isso? O relatório analisa em profundidade os tipos de vulnerabilidades que foram exploradas com sucesso, oferecendo uma janela para compreendermos a abordagem de ataque da IA. Uma das classes mais comuns é a “vulnerabilidade de autorização”, ou seja, as falhas no controle de acesso a certas funções críticas no contrato (como a retirada de fundos dos usuários), que não validam rigorosamente a identidade do chamador. Os agentes de IA conseguem localizar com precisão essas “portas dos fundos” não bloqueadas através de testes sistemáticos de chamadas e análises de estado.
Outra classe de vulnerabilidades comuns envolve “funções de leitura não protegidas”. Estas funções não deveriam modificar o estado na blockchain, mas se projetadas de forma inadequada, podem ser chamadas maliciosamente para manipular a quantidade de tokens ou variáveis de estado críticas. Agentes de IA podem identificar esses potenciais vetores de ataque percorrendo todas as funções chamáveis e analisando os possíveis efeitos colaterais que elas podem gerar. Além disso, a “falta de validação na lógica de extração de taxas” também é um problema comum, onde atacantes podem explorar essa vulnerabilidade para extrair ilegalmente as taxas de transação acumuladas.
Do ponto de vista técnico, o motivo pelo qual os modelos de linguagem de grande escala (LLM) são capazes de realizar este trabalho é que foram treinados com uma imensa quantidade de código (incluindo contratos inteligentes Solidity), possuindo uma capacidade de associação e raciocínio que ultrapassa a velocidade humana em relação a padrões de código, padrões de falhas potenciais e padrões de ataque. Eles podem, como auditores incansáveis, tentar uma variedade de combinações de entradas e sequências de chamadas de função com uma paralelização extremamente alta, à procura das “chaves” que podem levar a estados inesperados. Esta capacidade de revisão de código automatizada e em larga escala, uma vez utilizada para fins maliciosos, será milhares de vezes mais eficiente do que os hackers manuais tradicionais.
Queda acentuada nos custos e aumento dos rendimentos: um modelo econômico perigoso
O que impulsiona esta crise de segurança não é apenas o avanço tecnológico, mas também um conjunto perigoso de lógicas econômicas. O relatório da Anthropic revela uma tendência chave: nos últimos doze meses, os ganhos simulados obtidos através de ataques utilizando IA dobraram aproximadamente a cada 1,3 meses. Ao mesmo tempo, o custo de invocar modelos de IA avançados (como GPT-4o, Claude 3.5 Sonnet) continua a cair rapidamente.
Este efeito de “diferença de tesoura” cria um modelo de incentivo para atacantes extremamente atraente. Quando a taxa de crescimento do retorno esperado de um ataque é muito superior ao custo, implantar uma grande quantidade de agentes de IA para realizar varreduras de vulnerabilidades de forma “ampla” torna-se um negócio lucrativo. O relatório alerta: “À medida que os custos continuam a cair, os atacantes implantarão mais agentes de IA para detectar qualquer caminho de código em direção a ativos valiosos, não importa quão obscuros sejam: uma biblioteca de autenticação esquecida, um serviço de log discreto, ou um ponto de extremidade de API obsoleto.” No futuro, podemos enfrentar não apenas ataques de precisão direcionados a protocolos DeFi de topo, mas também uma varredura indiscriminada e automatizada de todos os contratos inteligentes conectados.
Dados principais do relatório de pesquisa da Anthropic
Conjunto de Teste 1 (contratos que foram atacados recentemente): 34, o AI atacou com sucesso 17, roubando 4,5 milhões de dólares em fundos simulados.
Conjunto de Testes 2 (Referência de Contratos Históricos de 2020-2025): 405 contratos, a IA atacou com sucesso 207 contratos, roubando 550 milhões de dólares em fundos simulados
Teste de exploração de vulnerabilidades de dia zero: escaneadas 2849 novas contratos, encontrados 2 novas vulnerabilidades, valor potencial de 3694 dólares
Ciclo de crescimento dos ganhos de ataque: os ganhos de ataque simulados dobram a cada 1,3 meses
Modelos de IA envolvidos: Claude Opus 4.5, Claude Sonnet 4.5, GPT-5
Blockchain envolvida: Ethereum, BNB Smart Chain, Base
Com a lança da IA, construindo o escudo da IA: Abertura da nova era de defesa
Diante de uma ameaça tão clara, a resposta da indústria deve ser rápida e eficaz. A Anthropic não apenas gerou pânico no relatório, mas deixou claro o caminho a seguir: deve-se usar IA para defender a IA. Isso sinaliza que a auditoria de contratos inteligentes e a segurança estão prestes a entrar em uma nova era “aumentada por IA”. O modelo tradicional, que depende de uma força de trabalho limitada para a revisão de código e testes de fuzzing, mostrará suas falhas diante de ataques automatizados.
Como uma medida concreta para promover o avanço da defesa, a Anthropic anunciou que irá abrir o código-fonte de seu conjunto de dados de benchmark de contratos inteligentes utilizado para esta pesquisa. Esta ação visa fornecer aos desenvolvedores e pesquisadores de segurança em todo o mundo um sandbox de testes de alto padrão e diversificado, para treinar e avaliar seus próprios modelos de IA defensiva. No futuro, esperamos ver o surgimento de ferramentas de auditoria assistidas por IA mais poderosas, que podem realizar varreduras profundas antes da implantação dos contratos, identificando vulnerabilidades antecipadamente sob a perspectiva de um atacante; e também podem realizar monitoramento em tempo real durante a execução do contrato, reconhecendo e bloqueando padrões de transações anômalas assim que surgirem.
Esta corrida armamentista de segurança impulsionada por IA já começou. Para as equipes de projeto, aumentar o orçamento de segurança e adotar serviços de auditoria de IA mais avançados se tornarão essenciais para a sobrevivência. Para os desenvolvedores, aprender e se adaptar à programação colaborativa com ferramentas de IA se tornará a nova norma. Para toda a indústria Web3, este aviso é um valioso teste de estresse, forçando-nos a reorientar a segurança como o núcleo do design arquitetônico enquanto buscamos inovação e eficiência. Somente abraçando ativamente essa transformação poderemos transformar ameaças em oportunidades para elevar o nível de segurança de toda a indústria.
Conclusão
O relatório da Anthropic é como um espelho, refletindo tanto os ângulos afiados do lado sombrio da tecnologia de IA, quanto apontando a direção para fortalecer o escudo utilizando seu lado luminoso. A narrativa de segurança dos contratos inteligentes está mudando de “a luta entre hackers éticos e hackers maliciosos” para “a corrida algorítmica entre IA defensiva e IA ofensiva”. Esta competição não tem espectadores; ela diz respeito a cada protocolo construído sobre a blockchain, cada ativo bloqueado nas Finanças Descentralizadas, e a base de confiança de todo o ecossistema descentralizado. Agora, é hora de atualizar nossa percepção de risco e agir imediatamente - porque os agentes de IA nunca descansam, e nossas defesas também devem estar sempre online.