Борис Наумкин
13 августа 2025 14:40:47
Фото: © RusPhotoBank
DeepSeek готовит релиз модели R2 между 15 и 30 августа, обученной на чипах Huawei и работающей в архитектуре MoE.
DeepSeek готовит релиз своей новой языковой модели DeepSeek-R2 в промежутке между 15 и 30 августа 2025 года — всего через несколько дней после выхода ChatGPT-5.
Модель получит улучшенную архитектуру Mixture of Experts с более «умной» системой маршрутизации, что позволит эффективнее справляться с ресурсозатратными задачами. Ожидается масштабирование до 1,2 трлн параметров — почти вдвое больше, чем у DeepSeek-R1, но меньше, чем у ChatGPT-4/5 (1,8 трлн+).
Ключевой особенностью станет полная независимость от американского «железа»: обучение проходило на чипах Huawei Ascend 910B. Кластер Huawei с производительностью 512 PFLOPS при 82% загрузке показал 91% эффективности относительно Nvidia A100. Это не только стратегический шаг к технологической автономии Китая, но и резкое снижение стоимости разработки — на 97% меньше, чем у GPT-4.
Ожидается, что API DeepSeek-R2 будет заметно дешевле предложений OpenAI и Anthropic. Параллельно Huawei представила фреймворк Unified Cache Manager (UCM) для ускорения работы, который уже показал 90% снижение задержек и 22-кратный рост пропускной способности в тестах China UnionPay. Обе технологии вместе могут серьёзно изменить баланс сил в глобальной ИИ-индустрии.
Ранее издание Пепелац Ньюс сообщало, что vivo представила среднебюджетный смартфон vivo V60.