iLenta Меню

DeepSeek представила передовые ИИ-модели V3.2 и V3.2-Speciale

04 декабря 2025, 15:06 | Roter [79]
Всего год спустя после того, как DeepSeek удивила индустрию моделью, нарушившей расстановку сил на мировом рынке, китайская компания возвращается с двумя новыми разработками — и весьма смелыми сравнениями.
DeepSeek представила передовые ИИ-модели V3.2 и V3.2-Speciale

По данным DeepSeek, новые открытые модели V3.2 и V3.2-Speciale способны конкурировать, а местами и превосходить самые мощные современные ИИ-системы, включая GPT-5 от OpenAI и Gemini 3 Pro от Google.

Вместо того чтобы гнаться за масштабом любой ценой, DeepSeek продолжает придерживаться стратегии, основанной на эффективности. Пока американские лаборатории полагаются на огромные кластеры новейших чипов, DeepSeek утверждает, что ее отточенный подход к обучению позволяет добиться сопоставимого уровня интеллекта на более доступном оборудовании. По словам компании, даже стандартная модель изначально поддерживает инструментальное и структурированное рассуждение — пользователю не нужно переходить в отдельный «режим reasoning».

Главное же внимание привлекает версия V3.2-Speciale. DeepSeek заявляет, что эта модель превзошла GPT-5 во внутренних тестах и показывает результаты уровня Gemini 3 Pro в задачах, требующих глубоких рассуждений. В подтверждение компания приводит свои выступления на Международной математической олимпиаде и Международной олимпиаде по информатике 2025 года, подчеркнув, что окончательные решения доступны для ознакомления.

По словам DeepSeek, такой скачок в качестве стал возможен благодаря двум ключевым инновациям: собственному механизму разреженного внимания, оптимизированному для работы с длинным контекстом, и расширенному конвейеру обучения с подкреплением, включающему более 85 000 сложных многошаговых задач, созданных при помощи внутренней системы «agentic task synthesis».

Тем, кто хочет опробовать новинки, модель V3.2 уже доступна на сайте DeepSeek, в мобильных приложениях и через API. Более экспериментальная V3.2-Speciale работает только через временную API-точку, которая будет отключена после 15 декабря 2025 года. Сейчас она функционирует как движок, рассчитанный исключительно на рассуждение, без поддержки вызова инструментов.

Источник: gizmochina

© 2012-2025 iLenta. Все права защищены.
Полная версия

AI

DeepSeek представила передовые ИИ-модели V3.2 и V3.2-Speciale
DeepSeek представила передовые ИИ-модели V3.2 и V3.2-Speciale
04 декабря 2025, 15:06 | Roter
Всего год спустя после того, как DeepSeek удивила индустрию моделью, нарушившей расстановку сил на мировом рынке, китайская компания возвращается с двумя новыми разработками — и весьма смелыми сравнениями.
Подробнее...
 
OpenAI имеет обязательства на вычислительные мощности на $1.4 трлн
OpenAI имеет обязательства на вычислительные мощности на $1.4 трлн
02 декабря 2025, 21:09 | Roter
OpenAI накопила обязательства на вычислительные мощности на сумму около $1.4 трлн, тогда как ее текущие годовые доходы едва достигают $20 млрд.
Подробнее...
 
Huawei выпустила милого эмоционального ИИ-питомца Smart Hanhan
Huawei выпустила милого эмоционального ИИ-питомца Smart Hanhan
02 декабря 2025, 12:08 | Bazelas
Huawei представила своего первого эмоционального ИИ-питомца Smart Hanhan на недавней презентации серии Mate 80.
Подробнее...
 
С помощью ИИ создано видео, в котором глава Apple хвалит Samsung Galaxy S25 Ultra
С помощью ИИ создано видео, в котором глава Apple хвалит Samsung Galaxy S25 Ultra
30 ноября 2025, 12:07 | Bazelas
В соцсети X набирает популярность ролик, в котором будто бы Тим Кук держит в руках Samsung Galaxy S25 Ultra и утверждает, что устройство работает лучше, чем «BugOS 26» — так некоторые шутливо называют iOS.
Подробнее...
 
ИИ-ассистент Copilot перестанет работать в WhatsApp через полтора месяца
ИИ-ассистент Copilot перестанет работать в WhatsApp через полтора месяца
26 ноября 2025, 18:08 | Roter
Microsoft сообщила, что ее ИИ-ассистент Copilot перестанет работать в WhatsApp после 15 января 2026 года.
Подробнее...
 
Страницы: 1 2 3 4 5 6
Полная версия
 
© 2012-2025 iLenta. All rights reserved.