Лаборатория DeepSeek обновила свою открытую LLM.
Базовая версия DeepSeek v3.2 по качеству сравнима с GPT-5, а версия с расширенными рассуждениями — с Gemini 3 Pro. Модель также стала быстрее благодаря архитектурным улучшениям.
По заявлениям лаборатории, DeepSeek v3.2 получила «золото» на Международной олимпиаде по математике и Международной олимпиаде по программированию 2025 года. Ранее о подобных достижениях своих LLM заявляли OpenAI и Google.
DeepSeek v3.2 и технический отчет находятся в открытом доступе. Опробовать модель можно на официальном сайте.
Почему это важно?
Разработка и обучение больших языковых моделей требуют значительных финансовых вложений. Лидирующие модели создаются корпорациями и доступны только по API, что дает пользователю лишь минимальный контроль над ними.
Традиционно открытые модели (которые можно запустить на собственном сервере или компьютере) существенно отстают от закрытых. Модели DeepSeek уже неоднократно сокращали этот разрыв.
Выход DeepSeek v3.2 означает, что теперь любой желающий может без ограничений использовать и модифицировать LLM, сопоставимую по производительности с лучшими решениями.