Zatímco americké technologické firmy i Pentagon v posledních letech mluví o zásadní roli umělé inteligence pro moderní vedení ozbrojených sil, nový report přináší střízlivé zjištění: nejvyspělejší jazykové modely často nedokážou odpovídat na zcela legitimní dotazy, které se týkají vojenské praxe, plánování operací či technického zabezpečení jednotek. Podle studie společnosti EdgeRunner AI, o níž informoval odborný server National Defense Magazine, odmítaly testované modely poskytnout odpověď až v osmadevadesáti procentech případů, přestože šlo o dotazy formulované vojenskými odborníky z armády a speciálních jednotek. Výsledky testů následně vyvolaly debatu o skutečné připravenosti generativní AI pro vojenské využití.
Tento závěr relativizuje snahy amerického ministerstva obrany o širší zapojení komerčních jazykových modelů do vojenských programů. Podle informací agentury Reuters se Pentagon snaží přesvědčit technologické firmy, aby umožnily využití svých modelů pro armádní účely i s menším počtem omezení. Samotné odstranění smluvních nebo provozních zábran však podle autorů studie problém neřeší. Nezasahuje totiž do samotné architektury neuronových sítí ani do povahy trénovacích dat. Saltsman upozorňuje, že tvrzení o připravenosti těchto modelů pro válečné použití může být zavádějící, protože uživatelé v uniformě se setkávají s nástroji, které odmítají reagovat na klíčové otázky týkající se jejich mise, plánování či technického rozvoje.
Celá debata se tak posouvá k otázce, zda má smysl snažit se adaptovat spotřebitelské generativní modely pro potřeby ozbrojených sil, nebo zda je nutné vyvíjet specializované systémy od základu s ohledem na vojenskou doktrínu, bezpečnostní požadavky a specifický jazyk operačního plánování. Podle Saltsmana mají univerzální modely své místo v širším ekosystému, avšak nemohou suplovat odborné nástroje, které jsou skutečně navrženy pro konkrétní mise a cíle.
V kontextu současných geopolitických napětí a rostoucího důrazu na technologickou převahu se tak ukazuje, že spoléhání na obecné komerční nástroje může vést k falešnému pocitu připravenosti. Pro armádu, která chce využívat umělou inteligenci k posílení své operační efektivity, to znamená nutnost investovat do vlastního vývoje a do úzké spolupráce s odbornými týmy, jež dokážou vytvářet doménově specifické modely s jasně definovaným využitím v obranném sektoru.
Zdroj: https://www.nationaldefensemagazine.org/articles/2026/2/19/just-in-frontier-ai-models-refuse-military-queries-at-alarming-rates-new-report-finds








