Ler para transferir a aplicação Gate
qrCode
Mais opções de transferência
Não me lembre disso novamente hoje.

DeepSeek lança V3.2 e Speciale, com inferência e desempenho quase iguais ao GPT-5 e Gemini 3

DeepSeek lançou dois novos modelos em 12/2, que são o DeepSeek-V3.2 e o DeepSeek-V3.2-Speciale, que se especializa em raciocínio matemático. A empresa afirmou que esses dois modelos continuam na direção experimental inicial, com o objetivo de atualizar completamente suas capacidades de raciocínio, uso de ferramentas e habilidades de pensamento prolongado. A DeepSeek também enfatizou que a versão oficial V3.2 já pode ser comparada ao GPT-5 e Gemini-3 Pro em vários testes de raciocínio, enquanto a versão Speciale alcançou um nível de medalha de ouro internacional em competições de matemática e informática.

Versão experimental a liderar, versão oficial V3.2 a assumir o comando.

A DeepSeek, ao lançar a versão V3.2-Exp em setembro, posicionou-a como uma plataforma experimental rumo à próxima geração de IA. A versão oficial lançada agora, DeepSeek-V3.2, não possui mais a designação “Exp”, simbolizando funcionalidades mais maduras.

A explicação oficial indica que o novo V3.2 apresenta um desempenho semelhante ao GPT-5 e Gemini-3 Pro em vários testes de raciocínio, enfatizando que esta é a primeira vez que eles integram de forma estreita o “modo de pensamento” com a “aplicação de ferramentas” em um modelo, e que suporta simultaneamente modos de pensamento e não pensamento. A partir da imagem abaixo, pode-se concluir:

“DeepSeek-V3.2 provou, através de testes de referência, que a sua capacidade de utilização de ferramentas é comparável a modelos de topo como o GPT-5 e o Gemini-3 Pro.”

Capacidade de raciocínio aprimorada, ferramentas integradas como o maior destaque

A DeepSeek afirma que o grande destaque da V3.2 é a capacidade de combinar o processo de raciocínio com o uso de ferramentas. Em outras palavras, o modelo pode chamar motores de busca, calculadoras, executores de código e outras ferramentas externas enquanto pensa sobre algo, tornando o processo de tratamento da tarefa mais completo, mais autônomo e mais próximo da maneira como os humanos lidam com problemas.

Speciale foca em raciocínio de longo prazo, desempenho matemático alcançando nível de medalha de ouro.

Além da versão padrão V3.2, a DeepSeek lançou simultaneamente outra versão, DeepSeek-V3.2-Speciale. Esta versão foi projetada especificamente para raciocínio matemático de alta dificuldade e para longos períodos de reflexão.

A posição oficial é a de explorar os limites da capacidade de raciocínio de modelos de código aberto, e até mesmo ver até onde o próprio modelo pode chegar. Em termos de desempenho, o Speciale alcançou o nível de medalha de ouro em competições como a Olimpíada Internacional de Matemática (IMO) e a Olimpíada Internacional de Informática (IOI), e seu desempenho de raciocínio é comparável ao mais recente Gemini-3 Pro do Google. A partir da imagem abaixo, podemos concluir:

“A capacidade de raciocínio do DeepSeek-V3.2-Speciale atingiu o nível de medalha de ouro em competições internacionais de matemática e informação, superando ou igualando o desempenho do GPT-5, Gemini-3 Pro e Kimi-K2 em vários testes de benchmark de raciocínio e programação.”

Novo método de treinamento revelado, capacidade de agente de IA reforçada

Para além do modelo, a DeepSeek também divulgou uma nova pesquisa, na qual desenvolveram um novo método para treinar agentes de IA. Esses agentes conseguem interagir com o ambiente externo, analisar dados e tomar decisões sem a necessidade de instruções humanas contínuas.

A DeepSeek enfatiza que esta é a tecnologia básica que eles projetaram para permitir que a IA opere com maior eficiência e reaja mais rapidamente.

Continua um mês de volume de voz, o ritmo de desenvolvimento continua a acelerar

A DeepSeek chamou a atenção global em janeiro deste ano devido a um modelo revolucionário. A série V3.2, que é o mais recente resultado da continuidade de sua pesquisa após aquele sucesso. Antes do lançamento da V3.2, a DeepSeek lançou na semana passada o DeepSeekMath-V2, um modelo de código aberto focado na prova de teoremas matemáticos, mostrando que eles estão continuamente fortalecendo suas capacidades nas áreas de raciocínio e matemática.

Relatório técnico publicado, V3.2 com capacidade de inferência próxima do GPT-5 e Kimi

A DeepSeek também lançou o relatório técnico “DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models”, apontando que a V3.2 apresenta desempenho semelhante ao GPT-5 e Kimi-k2-thinking em vários testes de referência de raciocínio.

Este relatório também enfatiza que a competitividade dos modelos de código aberto locais da China na área de inferência continua a estar no mesmo nível que os modelos de topo internacionais.

Este artigo DeepSeek lançou V3.2 e Speciale, com raciocínio e desempenho que se aproximam do GPT-5 e Gemini 3, apareceu pela primeira vez na Chain News ABMedia.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)