Одним из главных нововведений стало внедрение поддержки FLUX.1, модели генерации изображений, которая теперь может эффективно работать как на CPU, так и на GPU Intel через GenAI Pipeline. Это позволяет разработчикам использовать Optimum-Intel для экспорта FLUX-моделей и интеграции с Text2ImagePipeline. Также добавлена функциональность Image2Image, позволяющая изменять изображения на основе текстовых и визуальных данных, и Inpainting, заменяющая отдельные области изображений по заданной маске.
В области обработки текстов OpenVINO 2025.0 получил предварительную поддержку декодирования поиска подсказок в LLMPipeline API, что значительно снижает задержку при генерации ответов в многократных запросах. Это особенно полезно для работы с длинными текстами и интерактивными приложениями. Также расширена поддержка Mistral-7B-Instruct-v0.2, Qwen2.5 и новых дистилляционных моделей DeepSeek на базе LLaMA и Qwen.
Важное обновление касается аппаратного ускорения. Впервые OpenVINO 2025.0 поддерживает работу на NPU и интеграцию с PyTorch через torch.compile, обеспечивая высокую производительность для моделей машинного обучения. Теперь OpenVINO эффективно использует ресурсы CPU, GPU и NPU, расширяя возможности разработчиков и снижая вычислительные затраты.
Intel продолжает совершенствовать OpenVINO, делая его более мощным инструментом для ускорения генеративного ИИ, обработки изображений и работы с нейросетями.