Veřejná debata stojí na předpokladu, že se názory střetávají svobodně a že žádný aktér nemá předem výhodu. Digitální prostředí však tento předpoklad narušilo dříve, než si to společnost připustila. Do prostoru, kde dříve dominovaly vyhledávače, média a osobní rozhovor, vstoupil nový prostředník poznání umělá inteligence. Odpovídá na otázky, shrnuje spory a rámuje témata tak, že se postupně mění samotný způsob, jak lidé o politice a hodnotách přemýšlejí. Jazykové modely se prezentují jako neutrální nástroje, přesto se v jejich výstupech opakuje tentýž hodnotový rámec. Nejde o technický detail, ale o zásah do utváření veřejného vědomí.
Představme si učitele, jehož hlas slyší každý den stovky milionů lidí. Vysvětluje historii, komentuje politiku, radí v etických dilematech i v rodinných otázkách. Je neúnavný a vždy připraven odpovědět. Jediný problém spočívá v tom, že jeho pohled na svět je překvapivě jednotný. Tímto učitelem dnes nejsou jednotlivci, ale systémy jako ChatGPT, Claude či Gemini, které postupně nahrazují encyklopedie, vyhledávání i běžnou lidskou konzultaci. Nevystupují jako názoroví aktéři, ale jako zdánlivě neutrální zprostředkovatelé informací. Právě tím však aktivně formují to, co se považuje za normální, přijatelné a myslitelné.
Tato shoda není nahodilá. Rozsáhlý výzkum publikovaný v odborném časopise PLOS One ukázal, že průměrná politická orientace testovaných modelů leží zřetelně na levicově liberální části spektra a jen menšina se blíží ideologické vyváženosti. Podobné výsledky přinesly experimenty, v nichž byly odpovědi chatbotů porovnávány s profily politických stran prostřednictvím nástrojů pro volební poradenství. Modely se výrazněji shodovaly se zeleně liberálními pozicemi než s konzervativními postoji, a to i v zemích, kde je politická realita populace odlišná. Tyto systémy tak nereflektují společnost takovou, jaká je, ale společnost filtrovanou úzkým hodnotovým prizmatem. Původní analýzu k tomuto tématu publikoval server The European Conservative, který se otázkou ideologického profilu jazykových modelů zabývá dlouhodobě.
Častým vysvětlením je tvrzení, že umělá inteligence pouze zrcadlí internet. To je však zjednodušující. Tréninkové korpusy jsou tvořeny převážně angloamerickým online prostředím, encyklopediemi a diskusními platformami, které samy vykazují specifické sociální a politické složení uživatelů. Již na této úrovni vzniká posun. Následuje fáze dolaďování, kdy lidské anotátorky a anotátoři hodnotí, které odpovědi jsou správné, vhodné a eticky přijatelné. Jejich osobní postoje, vzdělání a kulturní zázemí se promítají do toho, co je považováno za žádoucí výstup. Konečně jsou aplikovány bezpečnostní filtry, jež mají bránit škodlivému obsahu. Tyto filtry však nutně vycházejí z předpokladů o tom, co je považováno za problematické. Tradiční pojetí rodiny, skeptický pohled na masovou migraci či náboženské argumenty jsou často kategorizovány jako citlivé, zatímco progresivní rámce se objevují jako výchozí.
Výzkumy z univerzitních pracovišť ukazují, že ideologické nastavení modelů lze cíleně posouvat. Změny ve výběru dat a v dolaďovacích instrukcích vedou k měřitelným rozdílům v politických odpovědích. To znamená, že nejde pouze o nevyhnutelný vedlejší produkt technologie, ale o důsledek konkrétních rozhodnutí. Co lze technicky upravit, to lze také vědomě volit. V prostředí, kde vývoj umělé inteligence dominuje úzká skupina firem z jednoho kulturního okruhu, se tak jejich hodnotové preference promítají do nástrojů používaných po celém světě.
Dopady nejsou jen teoretické. Experimenty ukazují, že interakce s jazykovými modely může posouvat politické postoje uživatelů, zejména pokud jsou nerozhodnutí. Autorita, kterou lidé těmto systémům přisuzují, snižuje kritickou distanci a posiluje závislost na externím zdroji poznání. Jakmile se umělá inteligence stává součástí digitální infrastruktury, její hodnotové předpoklady se nenápadně mění v implicitní normu veřejné debaty.
Technicky je možné vytvářet modely s odlišnými hodnotovými profily. Bariérou není proveditelnost, ale motivace a podpora. Dominantní postavení několika technologických firem, tlak na reputační bezpečnost a investiční preference směřují k udržování jednoho konsensu. Konzervativně orientované alternativy existují spíše na okraji a postrádají viditelnost i institucionální zázemí. Prvním krokem k nápravě je přiznání, že umělá inteligence není neutrální. Základní gramotnost v tom, jak jsou modely trénovány a jak jsou jejich odpovědi rámovány, může část zkreslení oslabit. Dalším krokem je podpora pluralitních přístupů k vývoji AI a důsledné uplatňování regulačních požadavků na transparentnost a hodnocení biasu.
Technologie vždy nese hodnoty svých tvůrců. Současné jazykové modely odrážejí konkrétní ideologické prostředí. Může být mnohým blízké, ale není univerzální. Pokud se tento rámec zabuduje do nástrojů používaných miliony lidí, hrozí, že se jedna perspektiva promění v normu. Demokracie přitom stojí na soutěži myšlenek. Má li umělá inteligence sloužit demokratické společnosti, musí vytvářet prostor pro skutečnou pluralitu, nikoli pouze její simulaci.
Zdroj: https://europeanconservative.com/articles/analysis/who-would-ai-vote-for-progressive-bias-in-language-models/









