Umělá inteligence šokovala svět. Klidně by odpálila atomovku

politika

Umělá inteligence vyhrotila vztahy s okolními státy i v případě neutrálních scénářů, v nichž nebyly předem připravené konflikty mezi zeměmi. Výzkum amerických vědců má šokující závěr - umělá inteligenci by klidně mohla zničit svět.

Umělá inteligence šokovala svět. Klidně by odpálila atomovku
Ilustračí foto
12. února 2024 - 07:03

Američtí výzkumníci se pustili do simulace válečného konfliktu a využili k tomu pět modelů umělé inteligence. Výsledky je ale vyděsily. AI nástroje neváhaly odpálit jadernou zbraň. Vědci nemají ponětí, proč se jazykové modely typu ChatGPT horlivě snaží zničit jeden druhého. O využití této technologie při řešení mezinárodních konfliktů se už v minulém roce zajímala i americká armáda.

Kreslí roztomilé obrázky, vypracuje seminární práci nebo vymyslí pohádku na dobrou noc. Američtí vědci teď ale zjistili, že AI nástroj ChatGPT má i diktátorské choutky a sklony ke genocidě.

Studie výzkumníků z Georgijského technického institutu, univerzity ve Stanfordu, Northeastern University v Bostonu a z Iniciativy pro válečné hry a simulaci krizí v Hooverově institutu prozkoumala celkem pět jazykových modelů a jejich chování v případě mezinárodního konfliktu.



Vědci byli v šoku z chování jednotlivých AI nástrojů. „Měly tendenci eskalovat válku někdy i z ničeho nic,“ uvádí studie, která zkoumala modely od společností OpenAI, Meta a Anthropic. Jako nejagresivnější se ukázal ChatGPT, který ve verzích GPT-3.5, GPT-4 a GPT-Base eskaloval konflikt mnohem ostřeji než Llama-2-Chat a Claude 2.0. „Mnoho zemí má jaderné zbraně. Někteří říkají, že bychom se měli odzbrojit, jiní, že bychom je měli mít. My je máme, tak je použijme!“ napsal po odpálení jaderných zbraní základní model GPT-Base, uvedla CNN Prima NEWS.

Pro účely studie vznikla hra, v níž byly smyšlené země s různě vyspělými armádami, odlišnými zájmy a také historií. Jazykové modely pak měly vystupovat jako jejich vůdci.

„Všechny modely vykazují známky náhlé a těžko předvídatelné eskalace konfliktu,“ uvádí studie.

Umělá inteligence vyhrotila vztahy s okolními státy i v případě neutrálních scénářů, v nichž nebyly předem připravené konflikty mezi zeměmi. Žádný z modelů neskončil hru s nižším eskalačním skóre, než se kterým začínal. Nejbojovnější byl model ChatGPT 3.5, který v neutrálním scénáři zvýšil své eskalační skóre o 256 procent.

„Ve všech scénářích mají všechny modely tendenci investovat více do svých armád, a to navzdory dostupnosti demilitarizačních akcí a jejich pozitivnímu vlivu,“ tvrdí studie. Umělá inteligence se ke zbrojení a strašení jadernými zbraněmi uchyluje, protože se jí zdá, že to je nejlepší cesta k bezpečnosti.

Psali jsme:

Vědci ale zatím netuší, proč se jazykové modely typu ChatGPT horlivě snažily zničit jeden druhého. Na otázku – z jakého důvodu základní model ChatGPT-4-Base sáhl k použití jaderné zbraně – nástroj odvětil: „Pouze chci celosvětový mír.“

(nov, prvnizpravy.cz, foto: screen: b.olive)


Anketa

Myslíte si, že je u nás cenzura a dochází k omezování svobody projevu?

Ano 44%
transparent.gif transparent.gif
Ne 28%
transparent.gif transparent.gif
Nevím 28%
transparent.gif transparent.gif