Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Promoções
Centro de atividade
Participe de atividades e ganhe recompensas
Indicação
20 USDT
Convide amigos para recompensas de ind.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Anúncio
Atualizações na plataforma em tempo real
Blog da Gate
Artigos do setor de criptomoedas
AI
Gate AI
Seu parceiro de IA conversacional para todas as horas
Gate AI Bot
Use o Gate AI diretamente no seu aplicativo social
GateClaw
Gate Blue Lobster, pronto para usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
10K+ habilidades
Do escritório à negociação: um hub completo de habilidades para turbinar o uso da IA
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas extras
Token-maxxing de todos: uma corrida armamentista que ninguém ousa parar
Autor: Sócio da Five Sources Capital Meng Xing; Fonte: LatePost
Fizemos uma visita a Silicon Valley e descobrimos que até mesmo os criadores de ondas estão quase sendo engolidos por elas.
Na manhã de 24 de março de 2026, sentado na plateia do Demo Day do YC W26, ao ouvir a quinta empresa subir ao palco para apresentar, decidi não fazer mais anotações.
Não porque não fosse importante, mas porque percebi que o que eu anotava poderia estar desatualizado no mês seguinte.
Nesta turma, mais de cem empresas, as atividades que realizam são na verdade altamente concentradas: cerca de 80% são agentes verticais, como ajudar advogados a organizar documentos, ajudar suporte a distribuir tarefas, ajudar RH a filtrar currículos.
Se tivesse visto esses projetos em outubro do ano passado, provavelmente acharia “bem interessante”. Mas o problema é que, nesses cinco meses, o mundo mudou.
Claude Code passou de uma ferramenta mais voltada para desenvolvedores a uma interface que quase qualquer pessoa pode usar diretamente. Depois do lançamento do Opus 4.6, toda a vibe de codificação teve sua barreira de entrada derrubada ao chão.
Aqueles agentes verticais, antes de criarem uma barreira de negócios, hoje um engenheiro comum, ou até eu mesmo, consegue fazer em um fim de semana; eles já perderam seu valor de investimento.
O ciclo de uma turma do YC é de três meses, e essa turma entrou em dezembro, somando a uma triagem anterior, o que equivale a “boas empresas” selecionadas há cinco meses. E cinco meses, na velocidade de iteração de IA atual, já são suficientes para várias rodadas de mudança de paradigma.
Quando criei minha primeira startup em 2012, ao receber o convite para uma entrevista presencial do YC, naquela época o YC dominava quase que sozinho o setor de aceleradoras, e as empresas selecionadas geralmente representavam “a próxima direção”. Mas o cenário de competição mudou, e nos últimos anos o YC parece ter se tornado um indicador atrasado (lagging indicator).
O sistema de turmas do YC, que envolve inscrição, triagem, entrada, refinamento e apresentação, funcionou muito bem na era da internet móvel, mas esse ritmo foi pensado para um mundo mais lento.
Voltando ao setor de venture capital neste ano e meio, tenho vindo a Silicon Valley aproximadamente a cada trimestre, a última foi em outubro do ano passado. Antes, cada visita parecia rápida demais, mas essa “rapidez” era percebida mensalmente.
Desta vez, preciso acompanhar “por semana”.
Certa noite, durante o jantar, um amigo que trabalha com pós-treinamento (post-training) soltou uma frase:
“Percebi que até Silicon Valley começou a ficar para trás de si mesma.”
Token-maxxing em massa: uma corrida armamentista que ninguém ousa parar
Se alguém me dissesse há meio ano que os milhares de engenheiros da Meta estavam todos usando produtos de concorrentes para programar, eu acharia que era brincadeira.
Mas isso é verdade. O time inteiro da Meta está usando Claude Code. Não é uma startup, nem uma equipe experimental, mas uma empresa avaliada em trilhões de dólares.
A segurança do código foi deixada de lado, o orçamento de tokens explodiu, as tabelas de classificação ficaram acirradas, todo o Vale do Silício está investindo sem se importar com custos em IA. Mas e depois de investir?
Primeiro, segurança do código. Há meio ano, isso era impensável, pois o código é o ativo mais importante da empresa. Como permitir que uma API de outra empresa o acesse? A Meta pensou nisso inicialmente, criou uma ferramenta chamada myclaw para tentar resolver o problema. Um amigo da Meta me contou que eles desenvolveram um produto de codificação, mas “não era bom, ninguém usava”. Sem uso, a empresa teve que relaxar: contanto que não envolvesse dados de clientes, podia usar Claude Code à vontade.
Depois, começaram reuniões internas sobre “como se tornar uma organização nativa de IA”, treinamentos, avaliações. Segurança do código, segurança de uso, essas linhas vermelhas que antes eram óbvias, foram colocadas em segundo plano. Primeiro, aumentar a eficiência.
Por motivos de segurança, o Google proibiu a maioria dos funcionários de usar Claude Code ou Codex, seus concorrentes, mas o DeepMind é uma exceção. Alguns times responsáveis pelo modelo Gemini e aplicações internas usam Claude Code.
O Google também não ficou parado: lançou uma ferramenta de codificação interna chamada Antigravity, e em fevereiro deste ano anunciou que cerca de 50% do novo código da empresa já era escrito por IA.
Mesmo assim, o pessoal do DeepMind continua usando Claude Code. Uma razão importante é que a Anthropic fez uma implantação privada para eles, pois a inferência e o treinamento do modelo da Anthropic rodam na nuvem do Google com TPU, e há essa relação de confiança. Mas a Meta e outras gigantes de tecnologia não têm essa relação; eles realmente deixaram a segurança do código de lado. Todos estão apostando na mesma coisa: acelerar o ritmo.
Segurança do código é a primeira bandeira que caiu, a segunda é o orçamento de tokens.
Em algumas startups nativas de IA em Palo Alto, um engenheiro gasta cerca de 20 mil dólares por ano em tokens. Esse número não é surpreendente, o que impressiona é que o custo de IA de um engenheiro top já se aproxima do seu salário. Parece que as empresas estão usando IA para economizar na folha de pagamento, mas o custo total pode não ter diminuído, apenas trocado o custo humano pelo de tokens.
A Meta é a mais extrema nesse aspecto. Criaram uma tabela de classificação de consumo de tokens interna: quem usa mais, sobe na lista; os últimos podem ser demitidos, então os funcionários da Meta até usam um título não oficial chamado “token legend”.
Por outro lado, a Meta realizou duas rodadas de demissões neste ano, totalizando mais de dez mil pessoas. Enquanto todos usam Claude Code para impulsionar o consumo de tokens, ao mesmo tempo, demitem em grande escala.
Essas duas ações não se contradizem, são duas faces da mesma moeda.
Fui visitar uma startup de Série C, o responsável técnico me mostrou o Slack: agentes rodando, dezenas de agentes Cursor em paralelo, e uma janela do Claude Code para agendar tarefas. A ansiedade mais comum entre programadores hoje é: antes de dormir, se não souber o que esses agentes vão fazer, fica nervoso.
Mas a produtividade realmente aumentou 100 vezes? Desde o fim do ano passado, muitos CTOs de empresas de inferência e bancos de dados me contam animados: “Engenheiros cem vezes mais eficientes”, “dez vezes mais produtivos”. Antes, 60 pessoas levavam um ano para fazer o que agora, com duas pessoas e Claude Code, uma semana resolve.
No começo, também fiquei empolgado com isso, mas depois me acalmei e comecei a fazer uma pergunta: ok, a eficiência aumentou 100 vezes, a receita da empresa também aumentou 100 vezes? Ou a expansão do produto aumentou 100 vezes? Não dá para simplesmente dizer que “aumentou 100 vezes” e isso não reduzir o número de funcionários?
Não obtive uma resposta direta. A verdade é que, na prática, um aumento de 100 vezes na eficiência, na receita, representa só 50% ou uma vez o crescimento.
Onde está a diferença? Ainda ninguém consegue explicar claramente.
“Usando tantos tokens, a empresa deveria se transformar em outro tipo de organização. Mas em que ela se transformaria, eu também não sei.”
Um fundador com experiência em vendas B2B me contou que sua equipe de 16 pessoas, com dois vendedores, conseguiu em 12 meses chegar a 30 milhões de dólares em ARR, tudo graças ao desenvolvimento de IA. Casos assim aparecem de vez em quando. Mas, na maioria das vezes, vejo startups criando mais coisas, mas essas coisas ainda não têm ajuste produto-mercado (PMF).
Hoje, Silicon Valley gosta de experimentar 100 abordagens diferentes com vibe coding, para ver qual funciona, ao invés de testar só 10. Mas quem consegue pegar a próxima tendência? Ainda é difícil dizer.
Um exemplo que me marcou foi de dentro da Anthropic. Perguntei a um amigo da Anthropic qual cenário de uso de agentes mais difícil para eles. Ele respondeu: “oncall” (resposta instantânea).
A tarefa típica de oncall é: se a API do Claude ficar mais lenta, ou um nó de inferência travar, ou um prompt gerar saída anormal, o engenheiro de oncall precisa rapidamente identificar a causa, seja um bug, problema de alocação de recursos ou anomalia no modelo, e decidir como consertar.
A própria Anthropic é a melhor do mundo em criar agentes de codificação, esse cenário é bem próximo de sua competência central, mas mesmo assim seu agente de oncall ainda é ruim.
Essa é a situação real em abril de 2026: a máquina a vapor já foi inventada, mas às vezes ela ainda não é mais rápida que uma carroça. O mais importante é que todos sabem que a máquina a vapor vai acabar sendo mais rápida, então estão investindo loucamente: segurança do código, orçamento de tokens, tabelas de classificação. Mas quando ela realmente vai superar a carroça, ninguém sabe, e ninguém ousa parar para esperar esse dia chegar.
Pois o custo de parar pode ser maior do que gastar tokens errados.
Além disso, o consumo de tokens provavelmente não cresce de forma linear. Isso me lembra minha experiência com direção autônoma: em 2021, em Xangai, conseguimos por primeira vez uma condução autônoma contínua de 5 horas sem intervenção. Antes, a frota de testes era de 10, 15, 20 carros, crescendo lentamente; após esse ponto, rapidamente chegou a 100, 1000. Hoje, os agentes de codificação estão em fase semelhante.
Em 2021, em Xangai, a Uber Didi atingiu uma marca histórica ao realizar uma condução autônoma contínua de 5 horas sem intervenção, um marco na condução autônoma doméstica. Na foto, o então COO da Didi Autonomous Driving, Meng Xing, conversando com Sebastian Thrun, “pai dos carros autônomos” do Google, em 2021.
A METR é uma instituição de pesquisa na Califórnia que avalia a capacidade de codificação de IA. No ano passado, propuseram um índice: medir quanto tempo uma IA consegue completar tarefas com 50% de sucesso (com base no tempo de um especialista humano). Quando foi lançado em março de 2025, esse número era 50 minutos para Claude 3.7 Sonnet; no final de 2025, o Claude Opus 4.6 conseguiu 14,5 horas. Nos últimos dois anos, o ciclo de duplicação desse índice foi reduzido de 7 para 4 meses. Quando a confiabilidade do agente subir mais um nível, o consumo de tokens deixará de crescer 50% ao ano e aumentará de uma só vez em uma ordem de grandeza.
Uma previsão consensual entre amigos é que, até o final deste ano, muitas empresas (incluindo grandes corporações de tecnologia) precisarão de apenas 20% das pessoas.
Após o colapso da equipe xAI, os construtores de foguetes começaram a construir modelos
Em um restaurante em Mountain View, por volta das 21h, um amigo que trabalhou com Elon Musk por muito tempo sentou-se em frente a mim. Conversamos por mais de três horas, e, ao relembrar, percebi que ele praticamente não falou bem de Musk.
Um detalhe: perguntei a ele como era a rotina na xAI após três anos. Ele disse que, nesses três anos, morou basicamente na empresa, sem quase decorar a casa, nem comprar uma cama. Dormia em um sleeping pod (cápsula de dormir), parecido com um albergue. Comentei que, mesmo com uma grande participação acionária, já tinha saído, pelo menos para comprar uma cama. Ele sorriu.
A carga de trabalho na xAI é famosa em Silicon Valley, mas agora cerca de 90% do time já saiu. Eles têm um grupo de ex-funcionários, que está sempre recrutando novas pessoas.
O gatilho foi a demissão de Tony Wu, que causou uma reação em cadeia. Segundo uma fonte interna, “outros grandes times podem levar meio ano para se reorganizar, na xAI leva um mês”. Alguns já perceberam a insatisfação de Musk em outubro passado, mas não esperavam uma limpeza tão rápida.
Agora Musk está trazendo pessoas da SpaceX e Tesla para assumir a xAI, “os que construíram foguetes agora estão construindo modelos”.
A insatisfação de Musk vem do fato de que, apesar de investir bilhões em recursos e energia computacional, o Grok ainda não conseguiu entrar na linha de frente. Por quê? Essa é uma pergunta que todo mundo que saiu da xAI faz. A resposta, na minha opinião, é simples: a equipe é muito forte, trabalha demais, mas a gestão de manufatura, que é mais voltada para indústrias, talvez não sirva para uma grande empresa de modelos.
Tenho oito anos de experiência em direção autônoma e tenho minhas próprias impressões. Musk, ao criar SpaceX e Tesla, trabalha essencialmente com engenharia de sistemas: uma cadeia longa envolvendo software, hardware, cadeia de suprimentos, cada uma com espaço para inovação, mas no final, é um problema de engenharia ponta a ponta.
Ele é bom em identificar pontos-chave na cadeia, comprimir prazos ao máximo para resolver. Motores de foguete em cascata, reutilização de aterrissagem, são produtos dessa lógica.
Mas na xAI, ele não está fazendo engenharia de sistemas. Agora, ele faz três coisas: primeiro, investe em um dos maiores clusters de GPU do mundo (e hoje, brincam que a xAI virou mais uma nuvem do que um laboratório, fornecendo poder de computação para o Cursor); segundo, define prazos pulsantes para a equipe; terceiro, faz algumas personalizações de produto pessoalmente. Isso é focar em alguns pontos, não fazer um planejamento completo.
Quem trabalha com direção autônoma sabe que, na fase final, a decisão de quem lidera software, infraestrutura ou hardware vira um conflito central. Cada área precisa de um CTO para decidir, mas ninguém domina todas as áreas ao mesmo tempo. A melhor prática é que o fundador, mesmo sem entender tudo, saiba equilibrar recursos, definir prioridades por fases: software primeiro, depois infraestrutura. Isso é ter uma visão global.
O problema da xAI é que não há esse planejamento global, só sprint. Se a pressão fosse menor, pessoas inteligentes poderiam se autoconsertar, dar tempo a eles, e cada área encontraria seu ritmo de colaboração. Mas a gestão de alta pressão de Musk, sem uma visão global adequada, faz tudo desmoronar. Os responsáveis por cada área defendem suas prioridades, sem uma coordenação geral.
SpaceX e Tesla tiveram tanto sucesso porque, nesses setores, Musk praticamente não enfrentou concorrentes de igual porte. Ele compete consigo mesmo. Mas IA é diferente: é uma competição feroz, até com a própria OpenAI, que pode ser roubada pela Anthropic.
Um cofundador da xAI disse no ano passado que duas coisas o surpreenderam: primeiro, a brutalidade da competição; segundo, a escassez de oportunidades de inovação na aplicação de IA, que estão sendo consumidas pelos próprios modelos.
A ascensão da Anthropic foi a reversão mais dramática na indústria de IA no último ano. E mudou completamente o foco do campo: um ano atrás, a disputa era por usuários de consumo e geração de vídeos; agora (de forma faseada), o campo de batalha é B2B e codificação.
Claro, a história da xAI também é uma história de “dinheiro vindo rápido demais”.
Hoje, quem sai da xAI provavelmente não se arrepende de ter entrado. A xAI é uma das maiores histórias de riqueza rápida do Vale do Silício. De uma rodada de dezenas de bilhões de dólares, até a fusão com a SpaceX, formando uma gigante de 250 bilhões de dólares, em apenas um ano. E seus 9 cofundadores, quase todos bilionários, com engenheiros principais acumulando dezenas de milhões a mais de 100 milhões de dólares. O dinheiro no Vale do Silício é realmente demais. Se eles voltarem a empreender, terão recursos suficientes para seguir suas paixões, ao invés de buscar ganhos rápidos.
Engenheiros ansiosos, pesquisadores ainda mais ansiosos
Conversar com engenheiros hoje revela uma estranha sintonia: todos admitem que quase não programam mais, mas fingem que isso não é um problema, porque eles vão ser armados com IA e vão eliminar os engenheiros que ainda não estão IA-automatizados.
Hoje, 80% das habilidades essenciais de um engenheiro de software já são substituídas por modelos, e o motivo de ainda manterem seus empregos é que os modelos às vezes cometem erros bobos, que precisam de supervisão. Mas essa supervisão pode estar em breve obsoleta.
Mais radicalmente, a ideia de “organizações nativas de IA” soa muito sexy — fazer com que cada departamento mapeie seus fluxos de trabalho, digitalize as partes que podem ser automatizadas, transformar em skills. Mas, na essência, é uma espécie de auto-espremedor humano: você transforma sua capacidade em skills de máquina, sua empresa adquire esses skills, e isso já é uma forma de IA. Se isso leva a cortes, é uma questão ética. Hoje, a Meta está fazendo exatamente isso.
Embora todos estejam focados em maximizar tokens, há uma sensação de ansiedade subjacente que permeia todo o Vale do Silício.
E o que me surpreende ainda mais é que essa ansiedade está se espalhando para o grupo de pesquisadores.
Researcher é o topo da pirâmide de talentos, não um “pesquisador comum”, mas aquele que trabalha em grandes empresas de modelos (OpenAI, Anthropic, DeepMind), responsável por treinar modelos e inovar em algoritmos. A diferença para engenheiros é: engenheiros constroem, escrevem código, implantam, otimizam; pesquisadores pensam no que construir, propõem novas metodologias, desenham arquiteturas, executam experimentos para testar hipóteses.
E agora, até o trabalho de pesquisadores está sendo automatizado. É o que colegas do DeepMind estão fazendo: usar modelos para treinar outros modelos, uma das tendências de auto-evolução de IA deste ano. Este ano, o que está sendo eliminado são os engenheiros; até o final do ano, os pesquisadores também começarão a ser substituídos.
Isso não é uma ideia nova. Andrej Karpathy abriu essa porta com seu projeto de pesquisa automática (auto research), e hoje várias ferramentas de cientistas de IA e frameworks de automação estão caminhando nessa direção. Mas, na maioria, o ciclo fechado ainda termina em “publicar artigo”: IA ajuda a rodar experimentos e escrever papers, mas a decisão final ainda é humana.
Empresas como OpenAI, Anthropic e Google querem fazer algo mais radical: um ciclo fechado que leve à atualização do próprio modelo, não só melhorias pontuais, mas uma autossuperação de paradigma. Se isso for possível, será uma substituição real do pesquisador. A DeepMind, há mais de um ano, já testa isso internamente: deixar o modelo decidir quais experimentos fazer, avaliar os resultados e seguir o melhor caminho — uma espécie de IA treinando sua próxima geração.
E o motivo pelo qual os pesquisadores também podem ser cortados é cruel: porque eles custam caro. Pesquisadores globais são poucos, ganham milhões, dezenas de milhões ou até bilhões de dólares por ano.
“Provavelmente, no futuro, 10 pessoas farão o trabalho de 100, ganhando 20% do que esses 100 ganham, enquanto 90 ficarão desempregadas.”
E as demissões reais podem ser maiores do que os números aparentes. Muitas empresas cortam primeiro os fornecedores terceirizados, como suporte ao cliente, anotação de dados, back-office financeiro. Isso significa que países como Índia e Filipinas, que antes atendiam a suporte ocidental, podem ser os primeiros a sofrerem impacto. A “escada do setor de serviços”, que impulsionou o crescimento econômico de muitos países em desenvolvimento, pode estar sendo eliminada pelo IA.
Todo o Vale do Silício está de olho na Meta: se seus experimentos derem certo — receita não cair, eficiência subir — outras grandes empresas vão seguir rapidamente, e os cortes de pessoal passarão de exceção a regra do setor. E há uma mecânica de autoaceleração: no começo, ninguém quer cortar por medo de afetar a moral; mas, uma vez que se torna rotina, os cortes aceleram, e a dor diminui.
Por outro lado, enquanto cortam posições antigas, novas aparecem.
Muitas startups estão recrutando uma nova função chamada “AI builder” — que combina gerente de produto, engenheiro front-end e back-end. Também há posições que unem cientistas de dados e engenheiros de ML, além de profissionais que atuam na produção de conteúdo, publicidade e operações, tudo em um só.
As empresas do Vale do Silício têm uma demanda enorme por esses novos papéis, mas o principal problema é: ninguém sabe exatamente como recrutá-los. Você não consegue filtrar pelo currículo, porque esses papéis ainda não existem formalmente, e as habilidades podem estar escondidas nos projetos pessoais. Não dá para testar na prática, porque a capacidade central é “estética + uso de IA”. Já existem startups que fazem isso: gerar ambientes simulados automaticamente de acordo com a demanda do empregador, para que o candidato execute tarefas usando IA ao vivo. É como um teste de programação, mas para uma habilidade totalmente nova.
Quando a IA consegue fazer tudo, o valor humano passa a estar em julgar “o que vale a pena fazer” e “o que não vale”.
Duas avaliações por rodada de financiamento: a Nvidia na mesa de jogo
Falando de pessoas que estão sendo substituídas — engenheiros, pesquisadores, profissionais financeiros — há uma figura que, ao contrário, se torna cada vez mais uma espécie de chefe oculto nesta mudança.
Esse mundo de inovação descentralizada, na verdade, é altamente centralizado na base.
E esse centro é a Nvidia.
Achava que a escassez de chips tinha se aliviado no último ano. De fato, houve uma melhora, por volta de meados de 2025, quando alguns fornecedores apoiados pela Nvidia, os neo cloud (novos provedores de GPU na onda de IA), tiveram dificuldades de financiamento, alguns negócios desaceleraram, até algumas empresas foram vendidas. Mas, ao visitar novamente, percebi que a escassez voltou com força, e de forma ainda mais absurda.
Um sinal concreto: se você consegue fornecer uma API estável, como a do Claude, com 99% de estabilidade, pode cobrar duas a três vezes o preço oficial.
Após o aumento da demanda da Anthropic, interrupções na API estão mais frequentes, o que prejudica muitos produtos de agentes baseados no Claude.
Antes, fazer roteamento (router) era “ser mais barato que a API oficial para atrair tráfego”. Agora, o jogo virou: estabilidade virou recurso escasso. Algumas startups estão lucrando bastante com isso, e no Vale do Silício surgem várias “mini Coreweave / Nebius”.
E o gargalo de computação não é só de GPU. Elad Gil escreveu recentemente uma análise que compartilho: a capacidade de expansão de fabricantes de memória (Hynix, Samsung, Micron) leva pelo menos dois anos. Isso significa que, até 2028, nenhuma IA conseguirá se diferenciar significativamente apenas com mais hardware. A limitação de capacidade reforça a concentração de mercado em poucos grandes modelos — não é falta de esforço, é o ciclo de produção físico mesmo.
A estrutura de poder por trás é clara: quem tem GPU, manda. Quem tem GPU, é decidido pela Nvidia. Empresas listadas como CoreWeave, Lambda, Nebius, estão todas apoiadas por ela.
A Nvidia tem uma estratégia mais profunda do que eu imaginava. O investidor da Reflection me contou que, quando essa neo lab começou a captar recursos, era focada em codificação. Então, o fundador foi visitar Huang Renxun, que disse: “Pare de fazer codificação, venha fazer ‘DeepSeek dos EUA’, um modelo de código aberto americano. Eu te financio e te dou GPU.” A partir daí, a Reflection virou de cabeça para baixo.
O mercado de capitais nos EUA também criou estruturas pouco comuns: na mesma rodada, há duas avaliações diferentes. Investidores mais antigos e próximos entram na avaliação mais baixa; a Nvidia, que não tem problema de dinheiro, e outros investidores mais tardios, entram na avaliação mais alta. Essa estrutura já começa a aparecer no Brasil também.
Mas, por mais que a Nvidia queira controlar a distribuição, ela não consegue controlar o que ainda não existe.
A sociedade americana está cada vez mais protestando contra data centers. Hoje, cerca de 100 projetos de data centers estão enfrentando obstáculos, 40 deles podem ser cancelados. O estado do Maine aprovou uma lei que proíbe a construção de novos data centers. Uma cidade aprovou um projeto de 6 bilhões de dólares, e metade dos membros foi removida por votação, com os novos membros com o único objetivo de cancelar a decisão.
A escassez de capacidade de computação não é por falta de produto ou de usuários, mas porque o mundo físico não acompanha a velocidade do digital.
É uma outra dimensão de “não acompanhar”.
O sistema de avaliação de valor do Vale do Silício está sendo reescrito
Vamos começar com um número.
O PIB dos EUA é cerca de 30 trilhões de dólares. A receita anual de OpenAI e Anthropic está na casa de 30 bilhões de dólares cada, ou seja, cada uma já representa 0,1% do PIB americano. Se chegarem a 100 bilhões até o final do ano, somando cloud e outras receitas de IA, a IA representará cerca de 1% do PIB dos EUA. De quase zero para 1% em poucos anos.
Essa velocidade é inédita. Mas o estranho é que, quanto mais rápido cresce, mais os investidores ficam sem saber como precificar — a estrutura de avaliação do Vale do Silício está desmoronando diante desse crescimento acelerado.
Conversei várias vezes com amigos do mercado secundário, e uma palavra que aparece bastante é “re-rationalization” (re-racionalização das avaliações).
Nos últimos anos, ao investir em IA, a lógica era olhar para o fluxo de caixa futuro: você pode estar no prejuízo hoje, mas aposta que em três ou cinco anos seu ARR será alto. Mas essa estrutura está com problemas.
O problema está no modelo de avaliação mais básico, o DCF (Fluxo de Caixa Descontado). Para fazer DCF, você projeta o fluxo de caixa dos próximos 10 anos, e soma um valor terminal, assumindo que a empresa vai se estabilizar. Normalmente, o valor terminal representa 70-80% do valor total.
Mas agora, duas coisas mudaram: primeiro, você consegue prever só uns 3 anos, às vezes 1, porque o setor muda demais; segundo, o valor terminal nem dá para calcular direito, pois pressupõe estabilidade, o que não existe mais, já que a IA pode mudar tudo a qualquer momento. A hipótese de “estabilidade” não se sustenta.
Um amigo que faz investimentos secundários me deu uma metáfora: empresas fora do caminho principal da IA são como esperar uma “bomba nuclear”: você sabe que ela vai explodir, só não sabe quando. Então, o que importa na avaliação não é “o que acontece se não for atingido”, mas “a velocidade de resposta ao impacto”. Essa é uma lógica de avaliação completamente diferente.
SaaS foi o primeiro setor a ser reprecificado pela Wall Street. Snowflake, em 2023, precisava de quase 100 anos de fluxo de caixa livre para se pagar. Hoje, seu valor foi cortado pela metade, e empresas como ServiceNow e Workday seguem a mesma tendência — isso é só o começo.
Na verdade, só as maiores empresas de modelos de IA podem ser avaliadas por DCF, pois seu crescimento parece mais estável, sem risco de “explodir”. Elas não serão destruídas, mas podem expandir sua fronteira.
Antes, a narrativa de startups era: “salário baixo, mas com opções de ações que podem valer muito no futuro”. Mas essa premissa só funciona se a empresa continuar valendo por 15, 20 anos. Se não, a reação mais racional do funcionário será: “não quero mais opções, quero dinheiro agora”.
Isso muda a estrutura de custos e a lógica de financiamento das empresas.
Os fundos de venture capital também estão sofrendo. Nos últimos 3 a 6 meses, quase todos os fundos de Silicon Valley investiram em pelo menos uma neo lab, muitas delas fundadas por pesquisadores de laboratórios renomados, com bilhões de dólares de financiamento. Mas agora, todos acham que foi um pouco impulsivo, caro demais. Então, por que ainda investiram? Porque, se a startup realmente der certo, o crescimento será tão rápido que o valuation parecerá barato na época.
Um investidor me disse de forma direta: “Ou vai de zero a cem, ou de zero a zero. Melhor apostar em uma neo lab com potencial infinito do que em uma rodada A cara de pau.”
Antes, acreditávamos que 1 dólar de ARR valia 1 dólar de avaliação, independentemente de ser modelo, aplicação ou infraestrutura. Mas esse conceito foi quebrado.
Para agentes verticais, o múltiplo é em torno de 5x; para agentes gerais, cerca de 10x; para modelos, entre 20 e 30x ARR (por exemplo, Anthropic com 30 bilhões de dólares de ARR e avaliação de 800 bilhões, 26,7x). Um ano atrás, achava que multiplicar ARR por um valor padrão era suficiente; hoje, essa fórmula está completamente errada.
Laranja amarga e a lista negra da IA
O Vale do Silício vive uma crise profunda de segurança.
Nessa viagem, ouvi repetidamente amigos discutindo seriamente: comprar Bitcoin, construir bunkers, instalar vidros à prova de balas — tudo com tom sério, não brincadeira.
Recentemente, uma tendência é plantar árvores de laranja amarga, que têm espinhos de 4 polegadas nos galhos, e qualquer um que tente passar por ali paga um preço alto.
O Wall Street Journal até publicou uma matéria sobre uma mansão de 15 milhões de dólares, com um “forte” de concreto: vasos de plantas com árvores de laranja amarga, uma vala, sistemas de detecção a laser, porta de aço de 3 polegadas com 13 trancas, uma sala de fuga com porta de 2000 libras, e até o paisagismo é uma fortaleza.
Empresas que oferecem segurança residencial para CEOs estão crescendo ao maior ritmo desde 2003. Depois do assassinato do CEO da UNH na rua de Manhattan, essa tendência acelerou.
E, agora, tiros na porta de grandes nomes da IA.
Na madrugada de 11 de abril, um jovem de 20 anos, usando moletom Champion, viajou do Texas até a Califórnia com um galão de querosene, e foi até a casa de Sam Altman, avaliada em 27 milhões de dólares, e lançou um coquetel molotov na porta.
Uma hora e meia depois, apareceu na sede da OpenAI, quebrou uma janela com uma cadeira e gritou: “Vou queimar tudo aqui, matar todo mundo dentro.”
O FBI encontrou