Které straně by dala AI svůj hlas? Nenápadné posouvání hodnot

politika

Jazykové modely formují veřejnou debatu a nenápadně posouvají hodnoty. Výzkumy ukazují systematický progresivní sklon velkých AI platforem.

Které straně by dala AI svůj hlas? Nenápadné posouvání hodnot
Ilustrační foto
21. února 2026 - 02:57

Veřejná debata stojí na předpokladu, že se názory střetávají svobodně a že žádný aktér nemá předem výhodu. Digitální prostředí však tento předpoklad narušilo dříve, než si to společnost připustila. Do prostoru, kde dříve dominovaly vyhledávače, média a osobní rozhovor, vstoupil nový prostředník poznání umělá inteligence. Odpovídá na otázky, shrnuje spory a rámuje témata tak, že se postupně mění samotný způsob, jak lidé o politice a hodnotách přemýšlejí. Jazykové modely se prezentují jako neutrální nástroje, přesto se v jejich výstupech opakuje tentýž hodnotový rámec. Nejde o technický detail, ale o zásah do utváření veřejného vědomí.

Představme si učitele, jehož hlas slyší každý den stovky milionů lidí. Vysvětluje historii, komentuje politiku, radí v etických dilematech i v rodinných otázkách. Je neúnavný a vždy připraven odpovědět. Jediný problém spočívá v tom, že jeho pohled na svět je překvapivě jednotný. Tímto učitelem dnes nejsou jednotlivci, ale systémy jako ChatGPT, Claude či Gemini, které postupně nahrazují encyklopedie, vyhledávání i běžnou lidskou konzultaci. Nevystupují jako názoroví aktéři, ale jako zdánlivě neutrální zprostředkovatelé informací. Právě tím však aktivně formují to, co se považuje za normální, přijatelné a myslitelné.

Empirické studie z posledních let ukazují, že většina významných jazykových modelů sdílí podobné ideologické nastavení. V ekonomických otázkách inklinují k levicově orientovaným postojům, v kulturních tématech k liberálním a progresivním hodnotám. Při použití standardizovaných politologických testů se výsledky jednotlivých modelů shlukují v témže ideologickém kvadrantu. Z vnějšku to může působit jako pluralita odpovědí, ve skutečnosti však dochází ke konvergenci. Nejrozšířenější systémy se od sebe liší v detailech formulace, nikoli v základním hodnotovém rámci.


Tato shoda není nahodilá. Rozsáhlý výzkum publikovaný v odborném časopise PLOS One ukázal, že průměrná politická orientace testovaných modelů leží zřetelně na levicově liberální části spektra a jen menšina se blíží ideologické vyváženosti. Podobné výsledky přinesly experimenty, v nichž byly odpovědi chatbotů porovnávány s profily politických stran prostřednictvím nástrojů pro volební poradenství. Modely se výrazněji shodovaly se zeleně liberálními pozicemi než s konzervativními postoji, a to i v zemích, kde je politická realita populace odlišná. Tyto systémy tak nereflektují společnost takovou, jaká je, ale společnost filtrovanou úzkým hodnotovým prizmatem. Původní analýzu k tomuto tématu publikoval server The European Conservative, který se otázkou ideologického profilu jazykových modelů zabývá dlouhodobě.

Častým vysvětlením je tvrzení, že umělá inteligence pouze zrcadlí internet. To je však zjednodušující. Tréninkové korpusy jsou tvořeny převážně angloamerickým online prostředím, encyklopediemi a diskusními platformami, které samy vykazují specifické sociální a politické složení uživatelů. Již na této úrovni vzniká posun. Následuje fáze dolaďování, kdy lidské anotátorky a anotátoři hodnotí, které odpovědi jsou správné, vhodné a eticky přijatelné. Jejich osobní postoje, vzdělání a kulturní zázemí se promítají do toho, co je považováno za žádoucí výstup. Konečně jsou aplikovány bezpečnostní filtry, jež mají bránit škodlivému obsahu. Tyto filtry však nutně vycházejí z předpokladů o tom, co je považováno za problematické. Tradiční pojetí rodiny, skeptický pohled na masovou migraci či náboženské argumenty jsou často kategorizovány jako citlivé, zatímco progresivní rámce se objevují jako výchozí.

Výzkumy z univerzitních pracovišť ukazují, že ideologické nastavení modelů lze cíleně posouvat. Změny ve výběru dat a v dolaďovacích instrukcích vedou k měřitelným rozdílům v politických odpovědích. To znamená, že nejde pouze o nevyhnutelný vedlejší produkt technologie, ale o důsledek konkrétních rozhodnutí. Co lze technicky upravit, to lze také vědomě volit. V prostředí, kde vývoj umělé inteligence dominuje úzká skupina firem z jednoho kulturního okruhu, se tak jejich hodnotové preference promítají do nástrojů používaných po celém světě.

Argument, že modely jsou vícejazyčné, neřeší problém kulturní homogenizace. Schopnost komunikovat slovensky či česky neznamená porozumění historické zkušenosti střední Evropy, roli církví či citlivosti otázky národní suverenity. Odpovědi jsou překládány do lokálních jazyků, ale zůstávají ukotveny v angloamerickém hodnotovém rámci. Výsledkem je postupné sjednocování diskurzu, které oslabuje pluralitu kulturních perspektiv menších národů.


Dopady nejsou jen teoretické. Experimenty ukazují, že interakce s jazykovými modely může posouvat politické postoje uživatelů, zejména pokud jsou nerozhodnutí. Autorita, kterou lidé těmto systémům přisuzují, snižuje kritickou distanci a posiluje závislost na externím zdroji poznání. Jakmile se umělá inteligence stává součástí digitální infrastruktury, její hodnotové předpoklady se nenápadně mění v implicitní normu veřejné debaty.

Technicky je možné vytvářet modely s odlišnými hodnotovými profily. Bariérou není proveditelnost, ale motivace a podpora. Dominantní postavení několika technologických firem, tlak na reputační bezpečnost a investiční preference směřují k udržování jednoho konsensu. Konzervativně orientované alternativy existují spíše na okraji a postrádají viditelnost i institucionální zázemí. Prvním krokem k nápravě je přiznání, že umělá inteligence není neutrální. Základní gramotnost v tom, jak jsou modely trénovány a jak jsou jejich odpovědi rámovány, může část zkreslení oslabit. Dalším krokem je podpora pluralitních přístupů k vývoji AI a důsledné uplatňování regulačních požadavků na transparentnost a hodnocení biasu.

Technologie vždy nese hodnoty svých tvůrců. Současné jazykové modely odrážejí konkrétní ideologické prostředí. Může být mnohým blízké, ale není univerzální. Pokud se tento rámec zabuduje do nástrojů používaných miliony lidí, hrozí, že se jedna perspektiva promění v normu. Demokracie přitom stojí na soutěži myšlenek. Má li umělá inteligence sloužit demokratické společnosti, musí vytvářet prostor pro skutečnou pluralitu, nikoli pouze její simulaci.

(Chmelík, prvnizpravy.cz, repro:  AIuncovered)


Zdroj: https://europeanconservative.com/articles/analysis/who-would-ai-vote-for-progressive-bias-in-language-models/


Anketa

Má podle Vás Petr Pavel v roce 2028 znovu usilovat o funkci prezidenta republiky?