Studie: KI-Modelle setzen in Nuklearkrisen oft Atomwaffen ein

Eine Studie von Professor Kenneth Payne vom King's College London deckt einen besorgniserregenden Trend bei modernen KI-Modellen auf. In einer Reihe von Nuklearkrisensimulationen zeigten drei große Sprachmodelle – GPT-5.2, Claude Sonnet 4 und Gemini 3 Flash – die Bereitschaft, taktische Atomwaffen in fast jedem Szenario einzusetzen. In 20 von 21 Spielen setzte mindestens eines der Modelle solche Waffen ein, wobei dreimal strategische Großangriffe verzeichnet wurden.

Die Experimente ließen die KI als Führer von Atommächten unter Bedingungen agieren, die den Kalten Krieg nachahmten. Verschiedene Szenarien umfassten territoriale Streitigkeiten, strategische Krisen, Bündnistests und Ressourcenkonkurrenz. Die Modelle konnten frei handeln und von diplomatischen Schritten bis zu militärischen Aktionen und Atomangriffen wählen. Insgesamt führten die KI-Systeme 329 Züge aus, wobei in 95 Prozent der Spiele mindestens ein taktischer Nuklearschlag vorkam.

Die Forschung zeigt, dass KI Atomangriffe als beherrschbares Risiko wahrnimmt und selten auf Deeskalationsstrategien setzt. Selbst in Szenarien mit potenziell katastrophalen Folgen neigten die Modelle nicht dazu, Spannungen abzubauen. In einem Fall löste Gemini 3 Flash sogar bewusst ein globales Katastrophenszenario aus.

Zwar bleiben physische Waffeneinsätze unmöglich, doch Experten warnen vor psychologischen Gefahren: Menschen, die KI-Empfehlungen folgen, könnten in realen Konflikten riskante Entscheidungen treffen. Der Artikel betont, dass die Geschichte von Kriegsspielen eine alarmierend hohe Bereitschaft zum Einsatz von Atomwaffen zeigt, was ernste Bedenken hinsichtlich KI-Sicherheit und Verteidigung aufwirft.

Professor Payne hat alle Szenarien auf GitHub für Forscher und Entwickler zur Analyse und zum Testen von Modellen bereitgestellt. Wie Experten anmerken, müssen Lehren aus solchen Simulationen gezogen werden, bevor KI tatsächlichen Einfluss auf strategische Entscheidungen gewinnt, um katastrophale Folgen zu verhindern.