Analýzu Der geopolitische KI-„Wettlauf“ – Angst als Triebkraft einer neuen Machtlogik přinesl týdeník NachDenkSeiten 3. února 2026

Implicitní narativ je, že ti, kteří dnes masivně neinvestují do umělé inteligence, riskují zítra ztrátu prosperity, bezpečnosti a vlivu.
Globální boom umělé inteligence nezačal širokou veřejnou debatou o jejím účelu, výhodách nebo rizicích. Začal srovnáváním, žebříčky a varováním. Politici, obchodní lídři a stratégové vymýšleli scénáře, podle nichž by se jiné země, obvykle USA nebo Čína, mohly dostat na špičku. V tomto klimatu se objevila dynamika, která byla méně poháněná věcným přesvědčením než preventivním aktivismem. Umělá inteligence se stala symbolem politické angažovanosti v době, kdy tradiční politické nástroje ztratily svou účinnost. Ti, kdo umělou inteligenci propagují, projevují proaktivní angažovanost. Ti, kdo váhají, riskují obvinění ze zaostalosti.
Tato logika připomíná historická období, v nichž byl technologický nebo vojenský rozvoj poháněn podobnými motivy. Srovnání se zlatou horečkou 19. století není náhodné. I tehdy se pozornost soustředila méně na udržitelné zlepšení životních podmínek a více na rychlý přístup ke zdroji, který byl vnímán jako vzácný. Ti, kdo dorazili příliš pozdě, o něco přišli – nebo se to alespoň říká. Ve skutečnosti jen málo lidí profitovalo, zatímco mnozí selhali nebo byli vykořisťováni. Zásadní rozdíl dnes spočívá v tom, že zdroj je nehmotný: data, výpočetní výkon, algoritmy, know-how. Přístup k němu však sleduje podobnou mocenskou dynamiku.
Umělá inteligence jako strategický zdroj
Umělá inteligence se stala novým strategickým zdrojem. Národy už nesoutěží jen o suroviny nebo výrobní místa, ale o školicí data, vysoce výkonné čipy, specializovaný personál a výstavbu masivních datových center. Tato infrastruktura je drahá, energeticky náročná a má dlouhodobé důsledky. Kdokoli ji vybuduje, nastaví kurz, který bude po celá desetiletí obtížné napravit. Nicméně odpovídající rozhodnutí jsou často činěna závratnou rychlostí. Uvolňují se miliardy dolarů ve formě finančních programů, zrychlují se schvalovací procesy a snižují se regulační překážky. Parlamenty a veřejnost jsou často postaveny před hotovou věc.
Tato dynamika je obzvláště patrná v mezinárodních srovnáních. V USA je umělá inteligence otevřeně definována jako strategický nástroj globální konkurence. Je součástí doktrín bezpečnostní politiky, úzce spjaté s vojenským výzkumem a ekonomickou dominancí. V Číně se umělá inteligence bezproblémově integruje do dlouhodobého státního plánování, které kombinuje technologický rozvoj, sociální správu a politickou kontrolu. Evropa naproti tomu hovoří o „digitální suverenitě“, ale v klíčových oblastech zůstává závislá na neevropských korporacích a technologiích. Tři mocenské bloky, tři narativy a přesto jeden společný jmenovatel: strach ze zaostávání.
Myšlení je strukturálně militaristické.
Tento strach vytváří závod bez jasné definice cílů. Umělá inteligence se vyvíjí, protože ji vyvíjejí jiní. Investice jsou ospravedlňovány jinými investicemi. Myšlení je strukturálně militaristické: zbrojení plodí zbrojení. Kdo se zastaví, prohraje. Kdo váhá, riskuje zaostalost. V takové logice jsou základní otázky rychle odmítány jako luxusní problémy. Jakému konkrétnímu účelu by měla umělá inteligence sloužit? Jaké společenské problémy by měla řešit? Kde jsou její limity? Takové otázky jsou považovány za druhořadé, někdy dokonce škodlivé.
Pozoruhodný je jazyk používaný v tomuto procesu. Politici hovoří o „dohánění“, o „zajištění spojení“, o „stát se vůdcem“. Slovní zásoba pochází ze sportovních nebo geopolitických narativů rivality, nikoli ze sociální nebo vzdělávací politiky. Tato rétorika není neutrální. Vytváří pocit naléhavosti a legitimizuje rozhodnutí, která by za normálních okolností vyžadovala intenzivní veřejnou debatu. Ti, kdo jsou v čele, se nezastaví, aby trasu nebo cílovou pásku prodiskutovali.
Veřejná odpovědnost versus soukromá moc
Kromě toho existuje strukturální nerovnováha mezi veřejnou odpovědností a soukromou mocí. Zatímco státy nesou finanční rizika a mobilizují veřejné prostředky, klíčové technologické páky jsou obvykle v rukou několika málo korporací. Největší modely umělé inteligence, centrální platformy a proprietární algoritmy patří soukromým aktérům. Veřejné prostředky proudí do soukromé infrastruktury bez odpovídající míry transparentnosti, demokratické kontroly nebo účasti. Stát působí jako zprostředkovatel, nikoli jako zadavatel.
Tato situace zhoršuje známý problém moderní technologické politiky. Rozhodnutí se přesouvají vpřed, nikoli do parlamentů nebo veřejných debat, ale do technické architektury, kódu a školicích dat. Jakmile se tam etablují, pozdější politické korekci do značné míry unikají. Implementují se algoritmy, škálují se systémy a amortizují se infrastruktury. Politická sféra se zmenšuje, technologická se rozšiřuje. Umělá inteligence se tak stává mocenským faktorem bez ohledu na její konkrétní přínosy.
Dlouho se dalo předvídat, že umělá inteligence bude mít hluboké společenské důsledky. Trhy práce se mění, rozhodovací procesy se automatizují a lidský úsudek je rozšiřován nebo nahrazován. Politická debata je nicméně téměř výhradně ovládána perspektivou národní konkurenceschopnosti. Sociální, etické a demokratické otázky se zdají být druhořadé. Každý, kdo je upřednostňuje, rychle podlehne podezření z nepřátelství vůči inovacím. Nálepka má disciplinární účinek. Omezuje diskuzi ještě předtím, než skutečně začne.
Mezinárodní závislosti a rostoucí technologický nacionalismus
Dalším aspektem humbuku kolem umělé inteligence je mezinárodní rozměr technologických závislostí. Umělá inteligence je stále častěji považována za strategickou infrastrukturu, srovnatelnou s dodávkami energie nebo obrannými technologiemi. Kontroly vývozu vysoce výkonných čipů, dotace pro továrny na polovodiče a národní cloudové iniciativy jsou projevem rostoucího technologického nacionalismu. Zároveň však zůstávají datové toky globální, platformy nadnárodní a dodavatelské řetězce komplexní. Snaha o kontrolu umělé inteligence na národní úrovni se střetává s realitou globálních trhů a korporací.
Toto napětí vytváří paradoxní obraz: státy masivně investují do umělé inteligence, aniž by ji skutečně zvládly. Urychlují vývoj, jehož dlouhodobé důsledky mohou jen stěží předvídat. Politická vůle se zaměřuje na „zda“, nikoli na „jak“ nebo „proč“. Umělá inteligence se tak stává cílem sama o sobě. Slouží jako náhradní symbol politické aktivity v době, kdy se mnoho klasických slibů, od sociální mobility až po ekologickou stabilitu, stalo vratkými.
Je také pozoruhodné, jak zřídka se v této souvislosti diskutuje koncept omezení. Téměř žádný politický program se vědomě nezabývá možností určité aplikace umělé inteligence nevyvíjet nebo nepoužívat. Vše, co se jeví jako technicky proveditelné, je implicitně považováno za legitimní. Tento postoj představuje hluboký kulturní posun. Technologie již není vnímána jako nástroj, který je třeba formovat, ale spíše jako kvazipřirozený vývoj, kterému se člověk musí přizpůsobit. Lidé se přizpůsobují stroji, ne naopak.
Geopolitické šílenství kolem umělé inteligence je proto méně projevem technologické nutnosti než symptomem politické dezorientace. Místo definování jasných normativních směrnic se vlády uchylují k akceleraci. Pokrok je chápán relativně, měřen nikoli tím, zda konkrétně zlepšuje životy, ale tím, zda je rychlejší než u souseda. Tato logika nahrazuje absolutní standardy, jako je kvalita života, svoboda nebo sociální spravedlnost.
Rasa bez definice demokratického cíle
V tom spočívá skutečné nebezpečí. Technologický závod bez demokraticky definovaných cílů vytváří fakta, která je později prakticky nemožné zvrátit. Ti, kdo dnes budují infrastruktury umělé inteligence v hodnotě mnoha miliard dolarů, vážou zdroje, vytvářejí závislosti a vyvíjejí tlak na jejich využívání. Je třeba datová centra, datové fondy využívat a systémy škálovat. Co je možné, bude dříve či později realizováno, ne na základě společenského vhledu, ale z ekonomické logiky.
To vytváří samoposilující cyklus: investice generují potřebu užívání, užívání vytváří závislost, závislost ospravedlňuje další investice. V tomto cyklu zbývá jen málo prostoru pro demokratickou kontrolu. Politické debaty zaostávají, protože začínají až poté, když už je technologická realita stanovena. Umělá inteligence se stává černou skříňkou politických rozhodnutí.
Geopolitické šílenství kolem umělé inteligence proto není neutrálním procesem pokroku, ale mocenským projektem. Přesouvá rozhodovací pravomoc od demokraticky legitimizovaných institucí směrem k technicko-ekonomickým aktérům. Ústřední otázka, proč určité technologie vyvíjíme a komu mají sloužit, obvykle zůstává nezodpovězena. Dokud tomu tak je, každá další miliardová investice se méně podobá programu do budoucna než slepému útěku.
To představuje zlomový bod – ne proto, že by umělá inteligence byla všemocná, ale proto, že byla prohlášena za politickou nutnost. Ne z pochopení, ale ze strachu. A historicky strach byl jen zřídka kdy dobrým vodítkem pro udržitelný, sociálně zakotvený pokrok.
Ztráta politické svobody jednání
Geopolitické šílenství kolem umělé inteligence není bez následků. Má hluboký dopad na společenské struktury, mění rozhodovací procesy, mocenské dynamiky a v konečném důsledku i vztah mezi občany a státem. Zatímco se politické debaty zaměřují na konkurenceschopnost, inovační vůdčí postavení a technologickou suverenitu, základní otázka se postupně mění: kdo ve skutečnosti utváří budoucnost a kdo pouze reaguje? Umělá inteligence již není vnímána jako nástroj sloužící společenským cílům, ale jako systém, kterému se společnosti musí přizpůsobit. Tento obrat představuje zlomový okamžik.
Masivní rozšíření umělé inteligence má zpočátku dopad na obzvláště politicky citlivou oblast: trh práce. Jen málo technologií bylo v posledních desetiletích diskutováno s tak protichůdnou vervou. Na jedné straně se slibuje zvýšení produktivity, zvýšení efektivity a úleva od rutinních úkolů. Na druhé straně existuje stále více důkazů o tom, že umělá inteligence nenahrazuje jen jednoduché úkoly, ale stále častěji i kvalifikovanou práci založenou na znalostech. Rozhodnutí, která dříve vyžadovala lidské uvažování, jsou algoritmicky předem strukturována nebo plně automatizována. Politická reakce na to zůstává pozoruhodně vágní. Místo diskuse o nových formách sociálního zabezpečení, zkrácení pracovní doby nebo přerozdělování převládá sentiment naděje, že věci vyřeší trh.
Tato naděje je riskantní, protože ignoruje klíčovou realitu: umělá inteligence mění nejen to, jaká práce se vykonává, ale také to, jak se rozděluje tvorba společenské hodnoty. Kdokoli ovládá systémy, ovládá zisky. Data, modely a platformy jsou soustředěny v rukou několika málo aktérů. Stát, který tuto expanzi podporuje, se ocitá v paradoxní pozici. Financuje struktury, které mohou podkopat jeho vlastní moc společnost utvářet. Veřejné prostředky plynou do soukromých infrastruktur, zatímco demokratická kontrola zůstává omezená. Společnost nese náklady na adaptaci, aniž by se proporcionálně podílela na ziscích.
Ještě závažnější jsou dopady na samotné rozhodovací procesy vlády. Veřejná správa se stále více spoléhá na systémy podporované umělou inteligencí pro zpracování žádostí, posuzování rizik a alokaci zdrojů. Co začíná jako zvýšení efektivity, postupně logiku vládních akcí mění. Rozhodnutí jsou standardizována, kritéria formalizována a odchylky jsou považovány za rušivé faktory. Prostor pro uvážení se zmenšuje, ne nutně ze zlého úmyslu, ale ze systémové logiky. Algoritmy pracují s pravděpodobnostmi, nikoli s jednotlivými případy. Demokracie však vzkvétá řešením výjimečných situací.
Nebezpečný posun: Zodpovědnost nesou „systémy“.
To vytváří novou formu politické rehabilitace. Odpovědnost je delegována na systémy, jejichž fungování je často jen částečně srozumitelné, a to i pro experty. Když se rozhodnutí jeví jako výsledek „objektivních“ propočtů, politická hodnocení ustupují do pozadí. Chyby mohou být externalizovány: ne politika, ale systém. Tento posun je nebezpečný, protože podkopává odpovědnost. Demokracie je založená na schopnosti rozhodnutí zpochybňovat, volat k odpovědnosti odpovědné osoby a požadovat alternativy. Systémy černé skříňky se této logice vzpírají.
Obzvláště problematické je, že je mnoho z těchto systémů založeno na datech, která společenské nerovnosti reprodukují. Umělá inteligence se učí z minulosti. Pokud je tato minulost charakterizovaná diskriminací, sociálním výběrem nebo strukturálním znevýhodněním, algoritmy tyto vzorce udržují. Technologický pokrok maskuje staré problémy do nové roušky. Místo otevřené diskuse o těchto rizicích se s nimi však často zachází jako s technickými detaily, které lze během provozu optimalizovat. Politický rozměr zůstává nedostatečně prozkoumán.
Souběžně se mění kultura veřejné debaty. Systémy poháněné umělou inteligencí ovlivňují, které informace se stanou viditelnými, který obsah získá dosah a které hlasy jsou slyšet. Logika platforem upřednostňuje pozornost, nikoli pravdu nebo relevanci. Převládá to, co vyvolává emoce, polarizuje nebo potvrzuje existující názory. Tato dynamika není vedlejším účinkem, ale spíše nedílnou součástí ekonomického modelu. V důsledku toho se politický diskurz stává fragmentovanějším, náchylnějším k manipulaci a hůře kontrolovatelným. Demokracie však závisí na sdílené veřejné sféře, kde lze argumenty zvažovat.
Dezinformace a manipulace
Stát k tomuto procesu často zaujímá ambivalentní postoj. Na jedné straně varuje před dezinformacemi a manipulací, na druhé straně sám využívá datově orientované nástroje pro analýzu názorů, hodnocení bezpečnosti a kontrolu chování. Hranice mezi ochranou a kontrolou se stírá. Umělá inteligence se tak stává součástí širšího trendu technokratizace politických procesů. Rozhodnutí se stále častěji jeví jako technické nutnosti, nikoli jako politické úvahy. To snižuje složitost, ale také demokratickou participaci.
V této souvislosti nabývá koncept „digitální suverenity“ ústředního, ale rozporuplného významu. Naznačuje kontrolu a sebeurčení, ale často zakrývá skutečné závislosti. Národní strategie umělé inteligence slibují autonomii, zatímco klíčové komponenty, od cloudových infrastruktur a tréninkových dat až po základní modely, poskytují globálně působící korporace. Prostor pro jednání státu je omezen na retrospektivní regulaci. Skutečné formování technologie prakticky neexistuje.
Navíc existuje dlouhodobý efekt, o kterém se málokdy diskutuje: ztráta politické představivosti. Když je technologie vnímána jako jediná možnost, prostor pro společenské vize se zmenšuje. Politika místo aby navrhovala reaguje. Umělá inteligence se stává projekčním plátnem pro nevyřešené problémy: má zefektivnit administrativu, zvýšit konkurenceschopnost ekonomiky a zefektivnit bezpečnost. Tato očekávání však nenahrazují politické koncepty. Přesouvají odpovědnost. Místo aby se mluvilo o spravedlivém rozdělení, společenské účasti nebo demokratické kontrole, soustředí se pozornost na technologická řešení.
Vědomé omezení se jeví jako slabost.
Tento posun je obzvláště patrný v přístupu k omezením. V tradičních politických debatách je definování hranic ústředním bodem demokratického diskurzu. Ne vše, co je možné, se i stane. V diskurzu o umělé inteligenci je však proveditelnost často vnímána jako ospravedlnění. Aplikace jsou vyvíjeny proto, že jsou technicky proveditelné, nikoli proto, že byl přesvědčivě prokázán jejich společenský přínos. Vědomé omezení se jeví jako slabost, nikoli jako projev politické zralosti.
Taková debata je právě teď obzvláště nezbytná. Infrastruktury umělé inteligence vytvářejí závislost na směru. Datová centra, datové pooly a algoritmické systémy nejsou neutrálními nástroji, ale spíše strukturují budoucí rozhodnutí. Vytvářejí tlak na jejich používání a investiční logiku, které se vzájemně posilují. To, co se vybuduje dnes, formuje zítřejší akční možnosti. Demokratická kontrola proto musí začít brzy, ještě předtím, než budou tyto systémy zavedeny na celostátní úrovni.
Kontrola je místo toho často považována za druhořadou záležitost. Etické rady, směrnice a dobrovolné závazky mají omezit rizika, aniž by zpochybňovaly základní dynamiku. Tyto nástroje nejsou neúčinné, ale selhávají, pokud ignorují strukturální kontext. Dokud je umělá inteligence chápána primárně jako geopolitický a ekonomický imperativ, etické debaty zůstávají okrajové. Fungují jako korekce procesu, jehož směr již byl určen.
Společnosti by se měly „připravit“ na umělou inteligenci – ne naopak.
Nová zlatá horečka tak odhaluje hlubší politickou krizi. Ukazuje, jak dalece se politika vzdala schopnosti technologický rozvoj aktivně ovlivňovat. Místo toho převládá adaptace. Společnosti se mají „přizpůsobit“ umělé inteligenci, ne naopak. Vzdělávací systémy se restrukturalizují, trhy práce se stávají flexibilnějšími a přizpůsobují se právní rámce. Otázka, jakou společnost chceme v digitálním věku, zůstává nezodpovězená.
Ti, kdo tuto situaci kritizují, jsou často nepochopeni. Nejde o odmítání umělé inteligence nebo technologického pokroku. Jde o priority. O to, zda technologie zůstává prostředkem k dosažení cíle, nebo se jím stává sama o sobě. Demokratická společnost by měla být schopna technologie používat, aniž by se jí nechala podrobit. Měla by definovat, kde je umělá inteligence užitečná a kde ne.
Historická zlatá horečka skončila pro mnohé zdevastovanou krajinou a společenskými otřesy. Digitální zlatá horečka hrozí podobným osudem, jen méně viditelně. Jejími stopami nejsou řeky a doly, ale rozhodovací struktury, závislosti a mocenské posuny. Ti, kdo dnes investují miliardy, aniž by stanovili jasné společenské zásady, vytvářejí fakta, která se později jen těžko napraví.
Zlatá horečka založené na umělé inteligenci není přirozený jev.
Skutečný zlom tedy nespočívá v samotném technologickém vývoji, ale v jeho politické interpretaci. Dokud bude umělá inteligence vykreslována jako nevyhnutelná nutnost, vyhýbá se demokratickému formování. Teprve až bude opět chápána jako tvárný nástroj, otevře se prostor pro alternativy. To vyžaduje odvahu zpomalit, zapojit se do veřejné debaty a vědomě říci ne.
Strach byl jen zřídka kdy dobrým rádcem. I tentokrát hrozí, že povede k rozhodnutím, jejichž důsledky se projeví až tehdy, když bude náprava prakticky nemožná. Nová zlatá horečka není přirozeným jevem. Je výsledkem politických rozhodnutí, a proto se v zásadě může změnit. Otázkou není, zda umělou inteligenci používáme, ale jak, k jakému účelu a pod čí kontrolou. Dokud tyto otázky nebudou v popředí, technologický pokrok zůstává pro demokratické sebeurčení rizikem.
Zdroje:
Pozice Evropy v globálním závodě umělé inteligenceČesky:
Evropa zaostává za USA a Čínou jak v investicích, tak v modelech umělé inteligence – a to i přes vlastní předpisy a iniciativy v oblasti umělé inteligence:
„Evropa chce být globálním lídrem v oblasti umělé inteligence, ale stále zaostává za Spojenými státy a Čínou.“
Strategická rivalita mezi USA a Čínou:
Soutěž mezi USA a Čínou o technologickou nadvládu je ústředním geopolitickým paradigmatem mezinárodních vztahů.
Soutěž mezi USA a Čínou v oblasti umělé inteligence jako nová geopolitická frontaČesky:
USA a Čína soupeří o ekonomické, vojenské a strategické výhody prostřednictvím umělé inteligence, která je ústředním aspektem globální mocenské politiky.
Globální rivalita v oblasti umělé inteligence a technologická síla:
Technologie, jako je umělá inteligence, se staly ústředním bodem geopolitických mocenských bojů, včetně kontroly dat, infrastruktury a obchodních bariér.
Iniciativy EU pro infrastrukturu umělé inteligence a „digitální suverenitu“
EU investuje do infrastruktury umělé inteligence a digitálních dovedností, aby si udržela technologickou suverenitu.
Řízení AI v různých regionechČesky:
Srovnávací studie modelů řízení rizik a řízení pro AI v EU, USA, Velké Británii a Číně – důležité pro debaty o kontrole versus inovaci
Rámcová úmluva Rady Evropy o umělé inteligenci a lidských právechČesky:
Multilaterální přístup k regulaci umělé inteligence v souladu s lidskými právy, demokracií a právním státem
V médiích se objevují zprávy o závodě mezi Čínou a USA v oblasti umělé inteligenceČesky.
Čína masivně investuje do infrastruktury umělé inteligence a dostihuje USA – což svědčí o vysokém napětí v globální konkurenci.
Varování MMF před nedostatkem etického a regulačního základu pro umělou inteligenci:
Mezinárodní měnový fond zdůrazňuje globální nedostatky v regulaci a etice v oblasti umělé inteligence.
Günther Burbach (*1963) je německý IT specialista, publicista, digitální tvůrce a autor. Vyučil se zámečníkem a svářečem, absolvoval obchodní studium informatiky a pracoval m. j. jako obchodník u společnosti Telekom. Psal vlastní sloupek pro týdeník a pracoval v redakčním oddělení Funke Media Group. Vydal několik knihČesky zaměřených na umělou inteligenci a také na německou domácí a zahraniční politiku, poslední Rettung ausgeschlossen? Deutschlands Weg in die KriseČesky (Záchrana vyloučená? Cesta Německa do krize, 2025) a Im Netz der Mächtigen: Warum Europa digitale Eigenständigkeit brauchtČesky (V síti mocných: Proč Evropa potřebuje digitální nezávislost, 2026). Ve svém psaní kombinuje technické znalosti se sociopolitickou perspektivou. Publikuje v NachDenkSeitenČesky, ManovaČesky, OvertonČesky, videa na YouTube a má účet na Facebooku.
Související:

Nesouhlasím s tvrzením autora: "Tvrzení, že nehrozí nové obrácení ruské rozpínavosti proti naší vlasti, protože Rusko k ní nic nepopouzí,…
Důvěra v justici končí, když: 1. Používá princip dvojího metru 2.Je využívána jako klacek na politické oponenty 3 Nahrazuje neschopnost…
O Ukrajině a církvi pravoslavné viz "Banderism and Mazepism: The war against Orthodoxy in Ukraine" / Banderismus a mazepismus: Válka…
V jednom bodě s Tomášem Zítkem nesouhlasím. Píše, že "covid-19 patří mezi tzv. zoonózy". To naznačuje hypotézu živočišného původu, kterou…
Je zajímavé, že anglosaský Západ plánuje budoucnost jako přípravu na válku. Nové technologie jsou pouze nástroje této přípravy. Takže budoucnost…