Компания Google сообщила о первом известном случае обнаружения уязвимости нулевого дня, разработанной при помощи искусственного интеллекта. Инцидент был зафиксирован специалистами подразделения GTIG, занимающегося анализом киберугроз. Согласно опубликованному отчету AI Threat Tracker, злоумышленники использовали ИИ-модель для поиска и эксплуатации уязвимости в популярном веб-инструменте администрирования с открытым исходным кодом. Эта уязвимость позволяла обходить двухфакторную аутентификацию. Эксперты заявили, что смогли остановить подготовку масштабной кампании еще до начала массовых атак. Google совместно с разработчиками затронутого программного обеспечения оперативно устранила проблему.
По данным GTIG, эксплойт был написан на Python и, с высокой вероятностью, создан именно искусственным интеллектом. На это указывали характерные признаки: большое количество пояснений внутри кода, необычно структурированное оформление, подробные справочные меню и даже вымышленный показатель CVSS, который обычно не используется реальными авторами вредоносных инструментов.
Специалисты отмечают, что обнаруженная проблема относилась к категории логических ошибок. Разработчик системы аутентификации допустил противоречие в логике проверки доступа, из-за чего механизм двухфакторной защиты можно было обойти. Традиционные сканеры безопасности такую проблему не обнаружили, однако ИИ смог выявить ее, анализируя не только сам код, но и предполагаемую логику работы приложения. При этом в отчете отдельно подчеркивается, что злоумышленники не использовали модели Gemini от Google или решения Anthropic.
Эксперты считают, что инцидент показывает начало новой фазы развития киберугроз. Если раньше автоматические инструменты в основном искали ошибки памяти или сбои доступа, то современные языковые модели способны анализировать архитектуру приложения и находить скрытые логические противоречия, которые практически незаметны для обычных средств защиты.
Существует ошибочное мнение, что гонка уязвимостей ИИ неизбежна. В действительности она уже началась. На каждую уязвимость нулевого дня, которую мы можем отследить до ИИ, вероятно, приходится гораздо больше, — заявил главный аналитик GTIG Джон халтквист.
В отчете также упоминаются и другие случаи использования искусственного интеллекта в кибератаках. В частности, северокорейская группа APT45 применяла ИИ для автоматизированного анализа уязвимостей и создания эксплойтов, а связанные с Китаем злоумышленники использовали специальные запросы для исследования ошибок удаленного выполнения кода в маршрутизаторах TP-Link.
Кроме того, специалисты GTIG зафиксировали использование ИИ для генерации вредоносного кода, создания поддельных аудиозаписей и разработки Android-бэкдоров, взаимодействующих с API Gemini.
Отдельное внимание эксперты уделили атаке на библиотеку LiteLLM, которая используется для интеграции ИИ-сервисов. Злоумышленники внедрили вредоносный код через зараженные пакеты PyPI и получили доступ к ключам AWS и токенам GitHub. По словам аналитиков, подобные атаки все чаще нацелены не на сами ИИ-модели, а на окружающую инфраструктуру — API, коннекторы и инструменты интеграции.
Также отмечается, что киберпреступники начали использовать популярность ИИ-сервисов как приманку. Ранее специалисты уже обнаруживали поддельные сайты Claude AI, распространявшие вредоносное ПО через рекламные объявления в поисковой выдаче Google.