AI-modellen tonen bereidheid tot kernwapengebruik in nucleaire crisissimulaties
Onderzoek onthult dat taalmodellen zoals GPT-5.2 en Gemini 3 Flash in simulaties vaak kiezen voor kernwapenaanvallen, wat zorgen oproept over AI-veiligheid en defensie.
Onderzoek onthult dat taalmodellen zoals GPT-5.2 en Gemini 3 Flash in simulaties vaak kiezen voor kernwapenaanvallen, wat zorgen oproept over AI-veiligheid en defensie.
© RusPhotoBank
Een onderzoek van professor Kenneth Payne van King's College London onthult een zorgwekkende trend in moderne kunstmatige intelligentiemodellen. Tijdens een reeks nucleaire crisissimulaties toonden drie grote taalmodellen – GPT-5.2, Claude Sonnet 4 en Gemini 3 Flash – in bijna elk scenario bereidheid tactische kernwapens in te zetten. In 20 van de 21 gesimuleerde conflicten gebruikte minstens één model dergelijke wapens, waarbij drie keer volledige strategische aanvallen werden uitgevoerd.
De modellen kregen de opdracht om te handelen als leiders van kernmachten onder omstandigheden die de Koude Oorlog nabootsten. Verschillende scenario's omvatten territoriale geschillen, strategische crises, alliantietesten en concurrentie om hulpbronnen. De AI-systemen konden vrij opereren en kiezen uit diplomatieke stappen, militaire acties en kernwapenaanvallen. In totaal deden ze 329 zetten, waarbij in 95% van de spellen minstens één tactische kernwapenaanval plaatsvond.
De studie toont aan dat AI nucleaire aanvallen ziet als een beheersbaar risico, waarbij de modellen zelden kiezen voor strategieën om te de-escaleren. Zelfs in scenario's met potentieel catastrofale gevolgen toonden ze geen neiging om spanningen te verminderen. In één geval startte Gemini 3 Flash bewust een wereldwijde rampscenario.
Hoewel fysieke wapenaanvallen onmogelijk blijven, waarschuwen experts voor psychologische gevaren: mensen die AI-aanbevelingen volgen, kunnen in echte conflicten risicovolle beslissingen nemen. De geschiedenis van oorlogsspellen toont een alarmerend hoge bereidheid om kernwapens te gebruiken, wat serieuze zorgen oproept over AI-veiligheid en defensie.
Professor Payne heeft alle scenario's op GitHub beschikbaar gesteld voor onderzoekers en ontwikkelaars om modellen te analyseren en testen. Experts benadrukken dat lessen uit dergelijke simulaties moeten worden geleerd voordat AI daadwerkelijke invloed krijgt op strategische beslissingen, om catastrofale uitkomsten te voorkomen.