Отсканируйте, чтобы загрузить приложение Gate
qrCode
Больше вариантов загрузки
Не напоминай мне больше сегодня.

DeepSeek новый V3.2 и Speciale, их вывод и производительность почти сравнимы с GPT-5, Gemini 3

DeepSeek 2 декабря представил две новые модели: DeepSeek-V3.2 и специализированную DeepSeek-V3.2-Speciale, ориентированную на математическое мышление. Официальные представители заявили, что эти две модели продолжают изначальный экспериментальный подход, нацеленный на полное улучшение навыков рассуждения, использования инструментов и способности к длительному мышлению. DeepSeek также подчеркивает, что финальная версия V3.2 уже демонстрирует результаты в нескольких тестах на рассуждение, сопоставимые с GPT-5 и Gemini-3 Pro, а версия Speciale достигла международного уровня золотой медали в математических и информационных конкурсах.

Экспериментальная версия ведёт, официальная версия V3.2 вступает в игру

DeepSeek в сентябре запустил V3.2-Exp, позиционируя его как экспериментальную платформу для следующего поколения ИИ. Официальная версия DeepSeek-V3.2, которая была выпущена на этот раз, больше не имеет в названии «Exp», символизируя более зрелые функции.

Официальное заявление: новая версия V3.2 показывает результаты, близкие к GPT-5 и Gemini-3 Pro в нескольких тестах на рассуждение, и особенно подчеркивается, что это первый раз, когда они тесно интегрировали «модель мышления» и «применение инструментов» в модель, которая одновременно поддерживает как модель мышления, так и не-модель мышления. Из нижеприведенного изображения можно увидеть:

«DeepSeek-V3.2 доказал свою способность к использованию инструментов через бенчмаркинг, сопоставимый с ведущими моделями, такими как GPT-5 и Gemini-3 Pro.»

Способности к анализу улучшены, инструменты объединены в главный акцент.

DeepSeek сообщает, что основная особенность V3.2 заключается в возможности объединять процесс рассуждения с использованием инструментов. Иными словами, модель может одновременно обдумывать что-то и вызывать внешние инструменты, такие как поисковые системы, калькуляторы, исполняемые программы и т.д., что делает общий процесс выполнения задач более полным, более автономным и более близким к способу, которым люди решают проблемы.

Speciale сосредоточен на длинных рассуждениях, математические показатели достигают уровня золотой медали

Помимо стандартной версии V3.2, DeepSeek также выпустил другую версию DeepSeek-V3.2-Speciale. Эта версия предназначена для сложных математических рассуждений и длительного мышления.

Официальная цель заключается в том, чтобы исследовать пределы возможностей вывода открытых моделей и даже посмотреть, какие границы может достичь сама модель. Судя по результатам, Speciale достиг уровня золотой медали на международной математической олимпиаде (IMO), международной олимпиаде по информатике (IOI) и других конкурсах, а его способности вывода сопоставимы с последней версией Gemini-3 Pro от Google. Из нижеприведенной диаграммы видно:

«DeepSeek-V3.2-Speciale достигла уровня золотой медали на международных математических и информационных конкурсах, демонстрируя производительность, превосходящую или сопоставимую с GPT-5, Gemini-3 Pro и Kimi-K2 в нескольких тестах на вывод и программирование.»

Новый метод тренировки раскрыт, возможности AI-агента снова усилены

Вне модели DeepSeek также обнародовал новое исследование, а именно они разработали новый метод обучения AI-агентов. Эти агенты могут самостоятельно взаимодействовать с внешней средой, анализировать данные и принимать решения, не требуя постоянных указаний от человека.

DeepSeek подчеркивает, что это базовая технология, разработанная для повышения эффективности работы ИИ и более быстрого реагирования.

Продолжая месяцовой объем, темп разработки продолжает ускоряться

DeepSeek привлек внимание всего мира в январе этого года благодаря своей прорывной модели. Серия V3.2 — это их最新ий результат, продолжение исследовательской динамики после того успеха. Накануне запуска V3.2, DeepSeek на прошлой неделе выпустил DeepSeekMath-V2, открытую модель, нацеленную на доказательство математических теорем, что демонстрирует их продолжающееся усиление в области логики и математики.

Технический отчет готов, мощность V3.2 близка к GPT-5 и Kimi

DeepSeek также опубликовала технический отчет “DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models”, в котором отмечается, что V3.2 показывает схожие результаты в нескольких тестах на вывод с GPT-5 и Kimi-k2-thinking.

Этот отчет также подчеркивает, что конкурентоспособность китайских локальных открытых моделей в области вывода по-прежнему находится на том же уровне, что и у международных ведущих моделей.

Эта статья о DeepSeek, который недавно выпустил V3.2 и Speciale, с производительностью и эффективностью, приближающейся к GPT-5 и Gemini 3, впервые появилась в Chain News ABMedia.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Горячее на Gate FunПодробнее
  • РК:$3.63KДержатели:2
    0.00%
  • РК:$3.71KДержатели:2
    0.39%
  • РК:$3.6KДержатели:1
    0.00%
  • РК:$3.6KДержатели:1
    0.00%
  • РК:$3.96KДержатели:5
    1.79%
  • Закрепить