DeepSeek 3.1 – что нового в новой модели нейросети?
Компания DeepSeek анонсировала выход DeepSeek 3.1, обновления своей флагманской LLM (большой языковой модели), предлагая юзерам и разработчикам впечатляющие возможности при сохранении открытой лицензии open-source LLM. Ниже — полный разбор ключевых нововведений и преимуществ новой модели нейросети.
Содержание
Ключевые нововведения в DeepSeek 3.1
1. Увеличенный контекст — до 128 000 токенов
Одной из самых впечатляющих новинок является расширение окна контекста до 128 000 токенов, что эквивалентно объёму целой книги из 300–400 страниц. Это позволяет DeepSeek 3.1 выполнять анализ длинных документов, поддерживать продолжительные диалоги и работать с крупными текстовыми массивами без потери информации.
2. 685 миллиардов параметров с MoE-архитектурой
Модель стала ещё более мощной — теперь это ~685 млрд параметров. Используется архитектура Mixture-of-Experts (MoE): при обработке каждого токена активируются около 37 млрд параметров, что обеспечивает эффективность и масштабируемость.
3. Гибридная архитектура и улучшенные возможности reasoning
DeepSeek 3.1 построена на гибридной архитектуре, объединяющей диалоговые, программные и логические функции в одной модели. В неё встроены улучшенные навыки reasoning, математического мышления и программирования, что делает её более универсальной и интеллектуальной по сравнению с предыдущими версиями.
4. Поддержка форматов BF16, FP8 и FP32
Модель добавила поддержку форматов чисел BF16, FP8 и FP32, что обеспечивает гибкость при развёртывании — можно выбрать оптимальный баланс между скоростью, точностью и ресурсами.
5. Open-source и доступность через API и Hugging Face
DeepSeek 3.1 остаётся free open-source LLM, распространяемой под MIT-лицензией. Модель доступна через API и на платформе Hugging Face, позволяя легко интегрировать её в приложения и веб-сервисы.
6. Сравнительное преимущество и производительность
В тестах DeepSeek 3.1 показала 71.6 % на Aider coding test, превзойдя модели вроде Claude Opus 4, и отметилась ростом навыков в математике и логике, хотя прирост reasoning не слишком заметен по сравнению с DeepSeek R1-0528.
Кроме того, модель поддерживает высокую стилистическую унифицированность ответов и остаётся бесплатной альтернативой коммерческим нейросетям высокого качества.
7. Экономика API и влияние на рынок полупроводников
DeepSeek объявила, что с 6 сентября 2025 года изменит ценообразование API для разработчиков. Анонс вызвал рост акций китайских полупроводниковых компаний, поскольку новая модель поддерживает домашние чипы, что добавляет стимул локальному рынку.
Преимущество | Почему это важно |
---|---|
128K контекста | Работа с очень длинными текстами, контекстно богатая генерация, многотуровые диалоги. |
685B параметров + MoE | Максимальная эффективная мощность при обработке каждого токена — интеллектуальная масштабируемость. |
Гибридная архитектура | Объединяет диалог, рассуждение и кодинг в одной модели — универсальность. |
Open-source + API | Бесплатный доступ и легкая интеграция для разработчиков и исследователей. |
Тесты и качество | Высокие результаты в программировании и логике, превосходство над моделями-конкурентами. |
Поддержка локальных чипов | Снижение зависимости от иностранных технологий, поддержка национальной оборонной базы. |
Смена API-цен | Возможное улучшение доступности и коммерческой привлекательности. |
Заключение
Модель DeepSeek 3.1 — это сильное и гибкое обновление флагманской модели DeepSeek. С сочетанием гигантского контекста, продвинутой гибридной архитектуры, поддержки форматов чисел, open-source лицензии и впечатляющей производительности, она является одной из самых перспективных новых моделей нейросети на рынке.