Um juiz federal da Califórnia, Rita Lin, emitiu uma ordem preliminar no dia 26 de março, bloqueando indefinidamente o rótulo de risco de cadeia de suprimentos do Pentágono contra a Anthropic. O parecer, com 43 páginas, aponta que essa ação viola a Primeira Emenda e os direitos ao devido processo, criticando severamente que se trata de uma típica retaliação ilegal da Primeira Emenda.
(Resumo: A Anthropic pode estrear no Q4! Avaliada em 380 bilhões de dólares, competindo com a OpenAI pelo timing do IPO)
(Suplemento de contexto: Um relatório extenso sobre o índice econômico da Anthropic AI: a frequência dos fluxos de trabalho de negociação automatizada dobrou, Claude está se transformando de uma ferramenta para um assistente de vida)
Índice do artigo
Toggle
Um parecer de 43 páginas fez com que a retaliação do Pentágono batesse em um grande obstáculo. A juíza federal da Califórnia, Rita Lin, emitiu no dia 26 uma ordem preliminar, bloqueando indefinidamente o rótulo de “risco de cadeia de suprimentos” do Departamento de Defesa contra a empresa de IA, Anthropic, bem como a exigência de que agências federais cortassem relações comerciais relacionadas.
A juíza Lin foi contundente em seu parecer, afirmando que a conduta do Pentágono é inconstitucional: “Não há nenhuma disposição nas regulamentações relevantes que apoie essa noção orwelliana (referindo-se ao excesso de poder do governo, manipulação da linguagem ou apagamento da história), onde uma empresa americana é rotulada como um potencial inimigo e destruidor apenas por expressar opiniões divergentes do governo.”
Lin também anunciou que a decisão teria um atraso de uma semana para entrar em vigor, dando ao governo uma janela para apelar.
A faísca deste confronto foi a imposição de duas linhas vermelhas nos termos do contrato do modelo Claude AI da Anthropic: não permitir que o Claude seja utilizado em sistemas de armas autônomas e não permitir seu uso em vigilância em larga escala no país.
O que o Pentágono queria era acesso irrestrito a “todos os usos legais” do Claude, especialmente em cenários de guerra. O CTO do Departamento de Defesa, Emil Michael, enfatizou em uma entrevista à CNBC no início deste mês: “Não podemos permitir que uma empresa com preferências políticas diferentes, que incorpora essas preferências no modelo, contamine a cadeia de suprimentos, fazendo com que nossos soldados usem armas, coletes à prova de balas e equipamentos de proteção ineficazes.”
No entanto, a Anthropic não se deixou abalar, insistindo que suas barreiras contratuais são uma forma de discurso protegido. Após o impasse nas negociações, o secretário de Defesa, Pete Hegseth, em fevereiro deste ano, implementou uma medida sem precedentes: rotular a Anthropic como risco de cadeia de suprimentos e emitir uma ordem conjunta com Trump, exigindo que as agências federais cortassem laços comerciais com empresas que tivessem negócios com a Anthropic.
O rótulo de risco de cadeia de suprimentos, anteriormente aplicado apenas a empresas suspeitas de terem vínculos com adversários estrangeiros, como a China, agora é usado contra uma empresa de IA nacional, o que é um primeiro histórico.
A Anthropic sustentou que esse rótulo destruiu a reputação da empresa e ameaçou contratos governamentais de centenas de milhões de dólares, e imediatamente processou no tribunal federal de São Francisco no dia 9 de março.
Lin revelou diretamente no parecer o verdadeiro motivo do Pentágono: “O objetivo dessas medidas amplas não parece ser o interesse de segurança nacional que o governo alega. Os registros do Departamento de Defesa mostram que a razão para rotular a Anthropic como risco de cadeia de suprimentos é sua postura hostil através da mídia.” Ela escreveu ainda:
“Punir a Anthropic por expor a posição do governo em compras públicas é uma típica retaliação ilegal da Primeira Emenda.”
Isso significa que: uma decisão administrativa do governo, embora possa ter outras justificativas superficiais, tem como motivo real punir a Anthropic por suas declarações ou posições anteriores.
A Anthropic acolheu a decisão, e um porta-voz respondeu: “Agradecemos ao tribunal pela ação rápida e estamos satisfeitos que o tribunal reconheceu que a Anthropic provavelmente vencerá substancialmente. O objetivo deste processo é proteger a Anthropic, nossos clientes e parceiros, mas nosso foco continua a ser a colaboração construtiva com o governo, garantindo que todos os americanos possam se beneficiar de IA segura e confiável.”
Esta não é a primeira vez que o secretário de Defesa dos EUA, Hegseth, encontra obstáculos no tribunal. No início deste mês, um juiz federal em Washington, D.C., decidiu que as restrições que ele impôs a vários jornalistas violavam a Primeira Emenda; em fevereiro deste ano, outro juiz considerou que ele também atuou inconstitucionalmente ao silenciar um senador democrata.
O significado deste caso vai muito além da vitória ou derrota de uma única empresa, estabelecendo uma linha para as empresas de IA: o governo pode exigir acesso, mas não pode forçar as empresas a abandonarem as barreiras éticas incorporadas; ao mesmo tempo, a expressão pública da posição das empresas está protegida pela constituição e não pode ser utilizada como moeda de troca pelo rótulo de “risco de cadeia de suprimentos”.