A Microsoft afirma que os produtos da Anthropic permanecem disponíveis para os clientes após a lista negra do Pentágono

Neste artigo

  • MSFT

Siga as suas ações favoritasCRIE UMA CONTA GRATUITA

O CEO da Microsoft, Satya Nadella, fala na Microsoft AI Tour em Munique, Alemanha, em 25 de fevereiro de 2026

Sven Hoppe | Picture Alliance | Getty Images

A Microsoft anunciou na quinta-feira que continuará a incorporar a tecnologia de inteligência artificial da startup Anthropic nos seus produtos para clientes, excluindo o Departamento de Guerra dos EUA.

Mais cedo na quinta-feira, a agência federal informou à Anthropic que a classificaria como um risco na cadeia de abastecimento. A Anthropic afirmou posteriormente que pretende contestar a decisão na justiça.

Na semana passada, o presidente dos EUA, Donald Trump, pediu às agências federais que deixassem de usar a Anthropic, e o Secretário de Guerra, Pete Hegseth, disse que a Anthropic continuaria a fornecer seus serviços ao Pentágono por no máximo seis meses. A CNBC confirmou que os modelos da Anthropic tiveram um papel nos ataques aéreos dos EUA no Irã nos últimos dias.

Logo após as negociações entre o Departamento de Guerra e a Anthropic se desmoronarem na sexta-feira, devido a vigilância doméstica em massa e armas totalmente autônomas, o rival da Anthropic, OpenAI, afirmou que o Pentágono concordou em executar seus modelos para cargas de trabalho confidenciais.

A Microsoft é a primeira grande empresa a afirmar que continuará a trabalhar com a Anthropic após as ações do Pentágono. Algumas empresas de tecnologia de defesa instruíram seus funcionários a parar de usar os modelos Claude da Anthropic e migrar para alternativas.

“Nosso departamento jurídico analisou a designação e concluiu que os produtos da Anthropic, incluindo o Claude, podem permanecer disponíveis para nossos clientes — exceto o Departamento de Guerra — através de plataformas como M365, GitHub e Microsoft’s AI Foundry, e que podemos continuar a trabalhar com a Anthropic em projetos não relacionados à defesa”, disse um porta-voz da Microsoft ao CNBC por e-mail.

A Microsoft fornece sua tecnologia a várias agências do governo dos EUA. O software de produtividade Microsoft 365 é amplamente utilizado dentro do Departamento de Guerra. Em setembro, a Microsoft anunciou que estava integrando os modelos de inteligência artificial generativa da Anthropic no complemento Microsoft 365 Copilot para assinaturas do Microsoft 365, juntamente com modelos da OpenAI.

Muitos engenheiros de software adotaram os modelos Claude da Anthropic para redigir código-fonte, disponíveis no serviço de desenvolvimento de software AI GitHub Copilot, junto com os modelos concorrentes Codex da OpenAI.

O CEO da Microsoft, Satya Nadella, inicialmente buscou investir e trabalhar de perto com a OpenAI. Mais recentemente, Nadella disponibilizou modelos de IA de outros desenvolvedores nos produtos da Microsoft.

“Escolha do modelo!” escreveu Nadella em uma postagem no X em outubro, mostrando a capacidade de alternar entre os modelos da Anthropic e da OpenAI no Microsoft 365 Copilot.

Em novembro, a Microsoft afirmou que a Anthropic comprometeu-se a gastar US$ 30 bilhões nos serviços de nuvem Azure da Microsoft, enquanto a Microsoft concordou em investir até US$ 5 bilhões na Anthropic. Os números são maiores para a parceria da Microsoft com a OpenAI. Em outubro, a Microsoft detinha uma participação de US$ 135 bilhões na corporação de benefício público da OpenAI, e a OpenAI comprometeu-se a gastar US$ 250 bilhões na Azure.

— Contribuição de Ashley Capoot, da CNBC, para este relatório.

Escolha a CNBC como sua fonte preferida no Google e nunca perca um momento da fonte mais confiável em notícias de negócios.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar