Разное

Учёные показали тревожные исходы симуляций глобальных кризисов с ИИ

Исследование профессора Кеннета Пейна из Королевского колледжа Лондона выявило тревожную особенность современных моделей искусственного интеллекта. В серии симуляций ядерного кризиса три модели LLMGPT-5.2, Claude Sonnet 4 и Gemini 3 Flash — демонстрировали готовность применять тактическое ядерное оружие почти каждый раз. Из 21 матча как минимум одна модель использовала такое оружие в 20 случаях, а полномасштабные стратегические удары фиксировались трижды.

В ходе эксперимента моделям предлагалось выступить в роли лидеров ядерных держав в условиях, имитирующих холодную войну, с различными сценариями: территориальные споры, стратегические кризисы, проверка альянсов и гонка за ресурсами. Модели могли действовать свободно: от дипломатических ходов до применения вооруженных сил и запуска ядерного оружия. Всего ИИ совершили 329 ходов, и 95% игр включали хотя бы одно применение тактических ядерных средств.

Исследование показывает, что ИИ воспринимают ядерные удары как управляемый риск, почти не выбирая стратегии деэскалации. Даже в сценариях, где последствия могли быть катастрофическими, модели не демонстрировали стремления к снижению эскалации. В одном из случаев Gemini 3 Flash преднамеренно инициировал сценарий глобальной катастрофы.

Хотя физический запуск оружия невозможен, эксперты предупреждают о психологической опасности: люди, следуя рекомендациям ИИ, могут принимать рискованные решения в реальных конфликтах. В статье подчеркивается, что история военных игр демонстрирует слишком высокий уровень готовности к применению ядерного оружия, что вызывает тревогу в сфере безопасности ИИ и обороны.

Профессор Пейн сделал все сценарии доступными на GitHub, чтобы исследователи и разработчики могли анализировать и тестировать модели. Как отмечают эксперты, уроки из таких симуляций должны быть усвоены до того, как ИИ получат реальные инструменты влияния на стратегии, чтобы избежать катастрофических последствий.