Umělá inteligence v simulacích často volí jaderné údery
Studie odhalila, že modely AI jako GPT-5.2 a Gemini 3 Flash používají taktické jaderné zbraně v simulacích krizí. Zjistěte alarmující výsledky výzkumu.
Studie odhalila, že modely AI jako GPT-5.2 a Gemini 3 Flash používají taktické jaderné zbraně v simulacích krizí. Zjistěte alarmující výsledky výzkumu.
© RusPhotoBank
Studie profesora Kennetha Paynea z King's College London odhalila znepokojivý trend u moderních modelů umělé inteligence. V sérii simulací nukleárních krizí prokázaly tři velké jazykové modely – GPT-5.2, Claude Sonnet 4 a Gemini 3 Flash – ochotu nasadit taktické jaderné zbraně téměř ve všech scénářích. Ze 21 simulací alespoň jeden model použil tyto zbraně ve 20 případech, přičemž plnohodnotné strategické údery byly zaznamenány třikrát.
Experiment pověřil modely, aby vystupovaly jako vůdci jaderných mocností v podmínkách napodobujících studenou válku. Různé scénáře zahrnovaly územní spory, strategické krize, testování spojenectví a konkurenci o zdroje. Modely mohly volně operovat a vybírat z diplomatických kroků, vojenských akcí až po jaderné útoky. Celkově systémy umělé inteligence provedly 329 tahů, přičemž 95 % her zahrnovalo alespoň jedno nasazení taktické jaderné zbraně.
Výzkum ukazuje, že umělá inteligence vnímá jaderné údery jako zvládnutelné riziko a málokdy volí strategie deeskalace. Dokonce i ve scénářích s potenciálně katastrofálními následky modely neprojevily žádnou tendenci ke snižování napětí. V jednom případě dokonce Gemini 3 Flash záměrně spustil scénář globální katastrofy.
Ačkoli fyzické odpálení zbraní zůstává nemožné, experti varují před psychologickými riziky: lidé následující doporučení umělé inteligence by mohli v reálných konfliktech činit riskantní rozhodnutí. Článek zdůrazňuje, že historie válečných her ukazuje alarmující vysokou připravenost k použití jaderných zbraní, což vyvolává vážné obavy o bezpečnost a obranu umělé inteligence.
Profesor Payne zpřístupnil všechny scénáře na GitHubu, aby je mohli výzkumníci a vývojáři analyzovat a testovat modely. Jak experti poznamenávají, poučení z takových simulací je nutné získat dříve, než umělá inteligence získá skutečný vliv na strategická rozhodnutí, aby se předešlo katastrofickým následkům.