#GateSquareDaily #Deepseek #AIPriceWar #AIAgents


A Guerra de Preços em IA se Aquece
DeepSeek’s V4 reduz custos no mercado, e os efeitos já estão aparecendo
Uma nova frente se abriu na corrida de IA, e não é sobre benchmarks. É sobre preço.
Em 24 de abril de 2026, a DeepSeek, com sede em Hangzhou, lançou versões de pré-visualização de sua família de modelos V4: V4-Pro e V4-Flash. Ambos são de peso aberto, licenciados pelo MIT, e suportam uma janela de contexto de 1 milhão de tokens. A manchete, porém, é o custo.
1. Quão agressivo é o corte?
A precificação da API da DeepSeek redefine o piso para modelos de classe frontier:
• V4-Flash: $0,14 por milhão de tokens de entrada, $0,28 por milhão de tokens de saída • V4-Pro: $1,74 por milhão de tokens de entrada, $3,48 por milhão de tokens de saída
Compare isso com os líderes atuais nos EUA: GPT-5.5 é precificado em $5 de entrada / $30 de saída por milhão de tokens, enquanto Claude Opus 4.6 roda $25 por milhão de tokens de saída. Gemini 3.1 Pro fica em $2 de entrada / $12 de saída.
Em termos simples: V4-Pro é aproximadamente um sétimo do custo do Claude Opus 4.6 e quase um nono do GPT-5.5 em tokens de saída. V4-Flash é 12,4 vezes mais barato que o Pro, enquanto fica apenas 1,6 pontos atrás dele no SWE-bench Verified. Para desenvolvedores, essa é a diferença entre um orçamento de IA de 4 meses que dura 7 anos na mesma utilização.
A empresa afirmou que o V4-Pro “igualou modelos líderes em várias áreas” e melhora as capacidades de agentes para tarefas de múltiplas etapas. Testes independentes colocam o V4-Pro em 80,6% no SWE-bench Verified, a 0,2 pontos do Claude Opus 4.6. Ele lidera no LiveCodeBench com 93,5%.
2. Por que isso importa: Três pontos de pressão
Adoção Pode Acelerar
A $0,28 por milhão de tokens de saída, o V4-Flash torna casos de uso de alto volume viáveis: processamento de documentos, análise de bases de código, ciclos de agentes. Startups que estavam fora do alcance do raciocínio de classe GPT-5 agora podem executar cargas de trabalho de produção por 1/10 do custo. O contexto de 1 milhão de tokens significa repositórios de código inteiros ou processos legais cabem em uma única solicitação.
Rivais Enfrentam Compressão de Margem
Laboratórios ocidentais já estão aumentando preços e limitando uso para gerenciar a demanda. A movimentação da DeepSeek força uma escolha: reduzir preços e comprimir margens, ou ceder espaço na mente dos desenvolvedores. A diferença de preço não é de 10% ou 20% — é de 7 a 9 vezes na saída. Para empresas que constroem fluxos de trabalho agenticos, o custo por token agora é uma linha de item, não um erro de arredondamento.
Narrativas de IA Ganham Combustível, Incluindo Crypto IA
Inferência barata muda a economia dos agentes de IA. Se você pode rodar um modelo de 1,6T de parâmetros por $3,48 por milhão de tokens de saída, agentes on-chain, redes de inferência descentralizadas e projetos de tokens de IA de repente têm um caminho para custos unitários sustentáveis. O V4 é licenciado pelo MIT e de peso aberto, o que significa que qualquer pessoa com GPUs pode hospedar por conta própria. Isso elimina o lock-in de fornecedores e alinha-se com a tese de composabilidade do crypto.
Hardware também faz parte da história. A Huawei anunciou suporte completo ao V4 em seus chips Ascend 950 no mesmo dia. A DeepSeek validou o modelo tanto em GPUs Nvidia quanto em NPUs Huawei Ascend. A empresa afirmou que os preços do Pro podem cair drasticamente assim que os supernós Ascend 950 forem implantados em escala na segunda metade de 2026. Uma pilha de IA doméstica chinesa — modelos mais chips — reduz ainda mais os custos e diminui a dependência de hardware dos EUA.
3. Os trade-offs
V4-Pro não é o melhor em tudo. No SWE-bench Pro, que mede engenharia de software no mundo real, Opus 4.7 lidera com 64,3% contra 55,4% do V4-Pro. Em tarefas de raciocínio profundo, o GPT-5.5 ainda mantém uma vantagem. A DeepSeek reconhece que “restrições na capacidade de computação de alto nível” estão limitando a vazão do Pro no lançamento.
E há o contexto regulatório: o Departamento de Estado dos EUA alertou globalmente sobre a suposta destilação chinesa de modelos de IA dos EUA um dia antes do lançamento do V4. OpenAI e Anthropic acusaram a DeepSeek de destilar seus modelos. A DeepSeek não respondeu a essas alegações.
4. O que acontece a seguir
1. Pilotos empresariais: Espere que CFOs reexecutem modelos de ROI. Se o V4-Pro entregar 95% da capacidade por 10% do custo, “bom o suficiente” vence para muitas tarefas. 2. Momentum de código aberto: Com 1,6T de parâmetros, licença MIT e pesos do Hugging Face, o V4 se torna o maior modelo aberto disponível. Ajustes finos e implantações privadas ficam mais fáceis. 3. Diversificação de hardware: Suporte completo ao Ascend sinaliza que a pilha de IA da China está amadurecendo. Se a Huawei vender em volume, desenvolvedores chineses poderão construir sem Nvidia. 4. Resposta de preços: Fique de olho na OpenAI, Anthropic e Google. Manter o preço enquanto um modelo aberto atinge 80,6% no SWE-bench por 1/9 do custo não é um equilíbrio estável.
Esta é uma guerra de preços, mas também uma mudança de estratégia. O V4 da DeepSeek não afirma superar o GPT-5.5 ou o Claude Opus 4.7 em todos os benchmarks. Ele afirma estar próximo o suficiente, ser aberto e radicalmente mais barato. Nos últimos dois anos, a suposição era de que modelos de fronteira requerem orçamentos de fronteira. O V4 quebra essa ligação.
Se a adoção seguir o preço, então a demanda por inferência, uso de agentes e aplicativos integrados de IA — incluindo tokens de IA de crypto — todos se expandem. Os concorrentes terão que responder em custo, não apenas em capacidade. E a narrativa de que IA avançada deve rodar em chips dos EUA acaba de ganhar um contraexemplo.
A guerra de IA não é mais apenas sobre quem tem o modelo mais inteligente. É sobre quem torna a inteligência acessível.
DEEPSEEK-3,19%
Ver original
discovery
#GateSquareDaily #Deepseek #AIPriceWar #AIAgents
A Guerra de Preços de IA se Aquece
DeepSeek’s V4 reduz os preços do mercado, e os efeitos já estão aparecendo

Uma nova frente acabou de se abrir na corrida de IA, e não é sobre benchmarks. É sobre preço.

Em 24 de abril de 2026, a DeepSeek, com sede em Hangzhou, lançou versões de pré-visualização de sua família de modelos V4: V4-Pro e V4-Flash. Ambos são de peso aberto, licenciados pelo MIT, e suportam uma janela de contexto de 1 milhão de tokens. A manchete, porém, é o custo.

1. Quão agressivo é o corte?

A precificação da API da DeepSeek redefine o piso para modelos de classe fronteira:
• V4-Flash: $0,14 por milhão de tokens de entrada, $0,28 por milhão de tokens de saída • V4-Pro: $1,74 por milhão de tokens de entrada, $3,48 por milhão de tokens de saída
Compare isso com os líderes atuais nos EUA: GPT-5.5 é precificado em $5 entrada / $30 saída por milhão de tokens, enquanto Claude Opus 4.6 roda em $25 por milhão de tokens de saída. Gemini 3.1 Pro fica em $2 entrada / $12 saída.

Em termos simples: V4-Pro é aproximadamente um sétimo do custo do Claude Opus 4.6 e quase um nono do custo do GPT-5.5 em tokens de saída. V4-Flash é 12,4x mais barato que o Pro, enquanto fica apenas 1,6 pontos atrás dele no SWE-bench Verified. Para desenvolvedores, essa é a diferença entre um orçamento de IA de 4 meses que dura 7 anos na mesma utilização.

A empresa afirmou que o V4-Pro “igualou modelos líderes em várias áreas” e melhora as capacidades de agentes para tarefas de múltiplas etapas. Testes independentes colocam o V4-Pro em 80,6% no SWE-bench Verified, a 0,2 pontos do Claude Opus 4.6. Ele lidera no LiveCodeBench com 93,5%.

2. Por que isso importa: Três pontos de pressão

Adoção Pode Acelerar
A $0,28 por milhão de tokens de saída, o V4-Flash torna casos de uso de alto volume viáveis: processamento de documentos, análise de bases de código, ciclos de agentes. Startups que estavam fora do alcance do raciocínio de classe GPT-5 agora podem executar cargas de trabalho de produção por 1/10 do custo. O contexto de 1 milhão de tokens significa repositórios de código inteiros ou processos legais cabem em uma única solicitação.

Rivais Enfrentam Compressão de Margens
Laboratórios ocidentais já estão aumentando preços e limitando uso para gerenciar a demanda. A movimentação da DeepSeek força uma escolha: reduzir preços e comprimir margens, ou ceder espaço na mente dos desenvolvedores. A diferença de preço não é de 10% ou 20% — é de 7x a 9x na saída. Para empresas que constroem fluxos de trabalho agenticos, o custo por token agora é uma linha de item, não um erro de arredondamento.

Narrativas de IA Ganham Combustível, Incluindo Crypto IA
Inferência barata muda a economia dos agentes de IA. Se você pode rodar um modelo de 1,6T de parâmetros por $3,48 por milhão de tokens de saída, agentes on-chain, redes de inferência descentralizadas e projetos de tokens de IA de repente têm um caminho para custos unitários sustentáveis. O V4 é licenciado pelo MIT e de peso aberto, o que significa que qualquer pessoa com GPUs pode hospedar por conta própria. Isso elimina o lock-in de fornecedores e se alinha com a tese de composabilidade do crypto.

Hardware também faz parte da história. A Huawei anunciou suporte completo ao V4 em seus chips Ascend 950 no mesmo dia. A DeepSeek validou o modelo tanto em GPUs Nvidia quanto em NPUs Huawei Ascend. A empresa afirmou que os preços do Pro podem cair drasticamente uma vez que os supernós Ascend 950 sejam implantados em escala na segunda metade de 2026. Uma pilha de IA doméstica chinesa — modelos mais chips — reduz ainda mais os custos e diminui a dependência de hardware dos EUA.

3. Os Compromissos
V4-Pro não é o melhor em tudo. No SWE-bench Pro, que mede engenharia de software no mundo real, Opus 4.7 lidera com 64,3% contra 55,4% do V4-Pro. Em tarefas de raciocínio profundo, o GPT-5.5 ainda mantém uma vantagem. A DeepSeek reconhece que “restrições na capacidade de computação de ponta” estão limitando a taxa de processamento do Pro no lançamento.

E há o contexto regulatório: o Departamento de Estado dos EUA alertou globalmente sobre a suposta destilação de modelos de IA dos EUA por parte da China um dia antes do lançamento do V4. OpenAI e Anthropic acusaram a DeepSeek de destilar seus modelos. A DeepSeek não respondeu a essas alegações.

4. O que acontece a seguir
1. Pilotos empresariais: Espere que CFOs reexecutem modelos de ROI. Se o V4-Pro entregar 95% da capacidade por 10% do custo, “bom o suficiente” vence para muitas tarefas. 2. Momentum de código aberto: Com 1,6T de parâmetros, licença MIT e pesos do Hugging Face, o V4 se torna o maior modelo aberto disponível. Ajustes finos e implantações privadas ficam mais fáceis. 3. Diversificação de hardware: Suporte completo ao Ascend sinaliza que a pilha de IA da China está amadurecendo. Se a Huawei vender em volume, desenvolvedores chineses poderão construir sem Nvidia. 4. Resposta de preços: Fique de olho na OpenAI, Anthropic e Google. Manter o preço enquanto um modelo aberto atinge 80,6% no SWE-bench por 1/9 do custo não é um equilíbrio estável.

Esta é uma guerra de preços, mas também uma mudança de estratégia. O V4 da DeepSeek não afirma superar o GPT-5.5 ou o Claude Opus 4.7 em todos os benchmarks. Ele afirma estar próximo o suficiente, ser aberto e radicalmente mais barato. Nos últimos dois anos, a suposição era de que modelos de fronteira exigiam orçamentos de fronteira. O V4 rompe esse vínculo.

Se a adoção seguir o preço, então a demanda por inferência, uso de agentes e aplicativos integrados de IA — incluindo tokens de IA de crypto — se expandirão. Os concorrentes terão que responder em custo, não apenas em capacidade. E a narrativa de que IA avançada deve rodar em chips dos EUA acaba de ganhar um contraexemplo.

A guerra de IA não é mais apenas sobre quem tem o modelo mais inteligente. É sobre quem torna a inteligência acessível.
repost-content-media
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 3
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
discovery
· 3h atrás
2026 GOGOGO 👊
Responder0
discovery
· 3h atrás
Para a Lua 🌕
Ver originalResponder0
discovery
· 3h atrás
Feliz aniversário ❤️❤️🥰
Ver originalResponder0
  • Marcar