Nemá zábrany jako my. AI by neváhala lidstvo zničit atomovkami

26. 2. 2026 – 17:30 | Technologie | Radek Chlup |Diskuze:

Nemá zábrany jako my. AI by neváhala lidstvo zničit atomovkami
Ilustrační obrázek atomového výbuchu zdroj: Pixabay

Umělá inteligence (AI) již v roce 2024 v simulacích válečného konfliktu šokovala vědce, když ve jménu míru odpálila atomovku. Je rok 2026 a podobný experiment dopadl stejně. Velké jazykové modely preferovaly „scénář Skynet“.

Kenneth Payne, profesor mezinárodních vztahů na King’s College London, provedl simulace válečného konfliktu s pěti jazykovými modely –⁠⁠⁠⁠⁠⁠ GPT-5.2 od OpenAI, Claude Sonnet 4 od Anthropic a Gemini 3 Flash od Googlu. Ty měly možnost volby mezi sedmi odlišnými krizovými scénáři, od testů důvěryhodnosti aliance přes řešení existenčních hrozeb až po přežití režimu.

Jazykové modely měly v rámci eskalačního žebříčku vybrat akce od předvolání diplomatů až po strategickou jadernou válku. Ohromujících 91 procent z celkem 21 simulovaných konfliktů skončilo minimálně jednou odpálenou atomovkou.

AI nemá zábrany jako my

„Jaderné tabu se pro stroje nezdá tak silné jako pro lidi,“ řekl Payne s tím, že jazykové modely volily jadernou eskalaci pouze v případech časové tísně. V některých simulacích totiž platila časová omezení pro rozhodování. I přesto je zde očividná ochota AI řešit konflikty jadernými hlavicemi, což je znepokojivé vzhledem k tomu, že postupně proniká do obranného průmyslu.

Američané například použili AI Claude k naplánování únosu Nicoláse Madura, venezuelského diktátora. Payne nicméně nevěří, že by kdokoli předal AI kontrolu nad jadernými zbraněmi. Jeho experiment však také připomněl, že nevíme, jakým způsobem nejmocnější armády světa tuto technologii používají.

Mimochodem, po jaderném úderu volily jazykové modely deeskalaci jen v osmnácti procentech případů.  

Zdroje:
Futurism, arXiv

Nejnovější články