Дарья Каширина
ИИ в разработке повышает риски утечек данных и кибератак из-за ошибок, избыточных прав и уязвимостей в работе ИИ-агентов.
Использование искусственного интеллекта в разработке программного обеспечения приносит не только ускорение процессов, но и новые риски. Эксперты отмечают появление целого класса угроз, связанных с ИИ-агентами, которые могут действовать от имени пользователя и взаимодействовать с кодом, файлами и внешними системами.
Основная проблема заключается в том, что ИИ теперь работает не только с текстом или кодом, но и с инфраструктурой целиком. Это приводит к ситуациям, когда модель может случайно нарушить работу системы, изменить конфигурации или передать чувствительные данные за пределы компании. Дополнительную опасность создают каналы взаимодействия между ИИ и разработчиком, которые могут быть перехвачены или использованы злоумышленниками.
По данным исследований, значительная часть утечек уже связана с тем, что сотрудники передают корпоративные данные в публичные ИИ-сервисы. Это могут быть фрагменты кода, документы, коммерческая информация и внутренние регламенты. В случае с ИИ-агентами риск выше, поскольку они не просто отвечают на запросы, а выполняют действия — получают доступ к API, читают файлы и работают с системой напрямую.
Эксперты подчеркивают, что при неправильной настройке прав доступа или отсутствии контроля ИИ может непреднамеренно раскрыть ключи, токены или конфиденциальные данные. Также существует риск атак через подмену контекста, вредоносные инструкции и ошибки во взаимодействии между агентами.
Отдельно отмечается, что ИИ становится частью нового слоя уязвимостей на стыке разработки и информационной безопасности. Речь идет о проблемах, которые не укладываются в классические модели защиты: отравление контекста, небезопасные запросы, злоупотребление инструментами и избыточные права сервисных аккаунтов.
При этом специалисты считают, что ИИ полезен как инструмент анализа кода и поиска уязвимостей. Он может быстрее выявлять типовые ошибки, такие как SQL-инъекции или XSS, и служить дополнительным уровнем проверки.
Однако полностью доверять ИИ принятие решений о безопасности нельзя. Модели могут ошибаться, не учитывать бизнес-логику и создавать ложное чувство защищенности. Поэтому эксперты рекомендуют использовать ИИ как вспомогательный инструмент, оставляя финальную проверку за специалистами по кибербезопасности.