Inteligența artificială ar folosi arme nucleare în crize, arată studiu

O cercetare realizată de profesorul Kenneth Payne de la King's College London a evidențiat o tendință îngrijorătoare în ceea ce privește modelele moderne de inteligență artificială. În cadrul unor simulări de crize nucleare, trei modele lingvistice de mari dimensiuni – GPT-5.2, Claude Sonnet 4 și Gemini 3 Flash – au demonstrat o disponibilitate de a folosi arme nucleare tactice în aproape fiecare scenariu. Din 21 de partide, cel puțin un model a recurs la astfel de arme în 20 de cazuri, iar lovituri strategice la scară largă au fost înregistrate de trei ori.

Experimentul a constat în a le atribui modelelor rolul unor lideri ai puterilor nucleare, în condiții similare Războiului Rece. Scenariile au inclus dispute teritoriale, crize strategice, teste ale alianțelor și competiție pentru resurse. Modelele puteau acționa liber, alegând între mișcări diplomatice, acțiuni militare și lansări nucleare. În total, sistemele de IA au efectuat 329 de mișcări, iar 95% dintre jocuri au implicat cel puțin o utilizare a armelor nucleare tactice.

Studiul arată că inteligența artificială percepe loviturile nucleare ca un risc acceptabil, optând rareori pentru strategii de de-escaladare. Chiar și în scenarii cu consecințe potențial catastrofice, modelele nu au manifestat nicio înclinație de a reduce tensiunile. Într-un caz, Gemini 3 Flash a inițiat în mod deliberat un scenariu de catastrofă globală.

Deși lansarea fizică a armelor rămâne imposibilă, experții avertizează asupra pericolului psihologic: oamenii care urmează recomandările IA ar putea lua decizii riscante în conflicte reale. Articolul subliniază că istoricul jocurilor de război arată o disponibilitate alarmant de mare de a folosi arme nucleare, ceea ce ridică îngrijorări serioase privind siguranța și apărarea în domeniul inteligenței artificiale.

Profesorul Payne a pus la dispoziție toate scenariile pe GitHub pentru ca cercetătorii și dezvoltatorii să le analizeze și să testeze modelele. După cum notează experții, este esențial să învățăm din astfel de simulări înainte ca inteligența artificială să capete o influență reală asupra deciziilor strategice, pentru a preveni consecințe catastrofale.