Segundo o monitorização do 1M AI News, a empresa de modelos de IA dos EUA Arcee lançou a Trinity-Large-Thinking, um modelo de raciocínio open source direcionado a tarefas de agentes por longos períodos. O modelo utiliza uma arquitetura de especialistas mistos esparsos (MoE), com 400B de parâmetros no total, e apenas 13B de parâmetros ativados; os pesos abertos estão disponíveis para transferência no Hugging Face sob a licença Apache 2.0.
Ao contrário do seu antecessor, a Trinity-Large-Preview (afinação apenas com instruções), a Trinity-Large-Thinking executa “pensamento de raciocínio” antes de responder; melhorias em chamadas de ferramentas em múltiplas rondas, coerência de contexto de longa duração e capacidade de seguir instruções também foram registadas. O objetivo central do design é manter uma saída estável em ciclos longos do agente.
No benchmark de capacidades de agentes PinchBench, desenvolvido pela Kilo, a classificação foi de 91,9, ficando em segundo lugar apenas atrás da 93,3 do Opus 4.6; no benchmark de tarefas de agentes Tau2-Airline, obteve 88,0, sendo a mais alta entre todos os modelos comparados. No entanto, o desempenho em benchmarks gerais de raciocínio é mediano: GPQA-D com 76,3, abaixo dos 86,9 do Kimi-K2.5 e dos 89,2 do Opus 4.6; MMLU-Pro com 83,4, igualmente no fim. Segundo a descrição oficial da Arcee, este modelo é “o modelo open source mais forte fora da China em muitos aspetos”.
O preço da Arcee API é de $0,90 por milhão de tokens de saída; de acordo com a Arcee, é cerca de 96% mais barato do que o Opus 4.6. O modelo foi disponibilizado em simultâneo na plataforma de routing de modelos de IA OpenRouter, com uso gratuito no OpenClaw durante os primeiros 5 dias. O Preview, desde a sua publicação no final de janeiro, já atendeu mais de 3,37 biliões de tokens no OpenRouter; é o modelo open source com maior utilização dos EUA e o 4.º a nível global entre os incluídos no OpenClaw. O Preview continuará a ser disponibilizado gratuitamente no OpenRouter.