AIをソフトウェア開発に取り入れると、工程のスピードアップにつながるが、同時に新たなリスクも生まれる。専門家らは、ユーザーに代わってコードやファイル、外部システムとやりとりするAIエージェントにまつわる、新たな脅威のカテゴリーを指摘している。
問題の核心は、AIがテキストやコードを処理するだけの存在ではなくなり、インフラ全体と結びついている点にある。その結果、予期せぬシステム障害や設定の変更、機密情報の外部漏洩といったリスクが高まる。AIと開発者の間の通信経路も、攻撃者に傍受・悪用される危険性がある。
調査によれば、データ漏洩の大きな部分は既に、従業員が企業のデータを公開AIサービスに入れてしまうことに起因している。コードの断片やドキュメント、営業データ、社内規定などが該当する。AIエージェントの場合、状況はより深刻だ。なぜなら単に問い合わせに答えるだけでなく、APIへのアクセスやファイルの読み取り、システムとの直接的なやり取りといったアクションを実行するからである。
専門家は、アクセス権限の設定ミスや監視の不備があると、AIが鍵情報やトークン、機密データを意図せずさらしてしまう恐れがあると警告する。さらに、コンテキスト汚染(context poisoning)や悪意のある指示、エージェント間の連携ミスといった脅威も存在する。
また別の観点として、AIは開発とサイバーセキュリティが交わる領域に、新たな脆弱性の層をもたらしつつある。コンテキスト汚染、安全ではないクエリ、ツールの悪用、過度に広い権限を持つサービスアカウントなど、従来のセキュリティモデルでは対応できない問題がそれにあたる。
それでも専門家は、AIをコード解析や脆弱性検出の有用なツールと捉えている。SQLインジェクションやXSSといった一般的な問題を高速に見つけ出し、レビューの工程を一段強化できるという。
とはいえ、セキュリティの判断をAIに委ねるのは間違いだ。モデルは間違えることがあり、ビジネスロジックを見落としたり、誤った安心感を生み出したりする。専門家は、AIはあくまで支援ツールとして使い、最終確認はサイバーセキュリティの専門家が行うべきだと助言している。