Analýzu An AI disaster is getting ever closer publikoval týdeník The Economist 5. března 2026. Německý překlad mimo pay-wall Anthropic: Eine KI-Katastrophe rückt näher uveřejnil rakouský týdeník News 9. dubna 2026

Americký ministr války Pete Hegseth© Andrew Harnik, Getty Images
Donald Trump chtěl znít rozhodně – ale tím neúmyslně odhalil ambivalentnost, s níž svět vnímá rychlý pokrok umělé inteligence. Americký prezident 27. února zaútočil na „levicové blázny“ v Anthropic, americké laboratoři umělé inteligence, která spolupracuje mimo jiné s ministerstvem obrany.
„Nařizuji VŠEM federálním agenturám Spojených států, aby OKAMŽITĚ PŘESTALY používat technologii společnosti Anthropic. Nepotřebujeme je, nechceme je a už s nimi nebudeme obchodovat!“ napsal Trump na sociálních sítích.
Ale sotva o větu později oznámil, že využije „plné prezidentské pravomoci“, aby donutil Anthropic ke spolupráci s vládou do šesti měsíců. Sdělení je rozporuplné: Společnost je zároveň považována za nepřijatelné riziko – a přesto natolik nepostradatelná, že je ochotna být v případě potřeby donucena ke spolupráci.
Od doby, kdy se ukázalo, že umělá inteligence může překonat lidské schopnosti, se svět potýká s různými variantami tohoto dilematu: Technologie se zdá být příliš silná na to, abychom se bez ní obešli, a příliš nebezpečná na to, abychom ji používali bez výhrad.

Ministr obrany Pete Hegseth sleduje let amerického námořnictva v Arlingtonu ve Virginii. © Kevin Dietsch, Getty Images
Právě v tomto bodě vypukl konflikt mezi společností Anthropic a Trumpem. Společnost se obává, že by její modely mohly být zneužity k pochybným účelům. Vláda naopak chce jejich nasazení urychlit s co nejmenšími omezeními. Ironií je, že Washington prosazuje rychlost, zatímco je stále jasnější, že umělá inteligence může v reálném světě – a nejen v hypotetických scénářích – způsobovat škody.
Trumpův útok na Anthropic vychází z příkazu, který vydal loni: Amerika musí „zajistit a rozšířit svou globální dominanci v oblasti umělé inteligence“. Ministr obrany Pete Hegseth následně začátkem tohoto roku nařídil „experimenty s předními americkými modely umělé inteligence“ napříč všemi složkami ozbrojených sil.
Hegseth prohlásil, že chce „věci urychlit jako ďábel“ – a dokonce zveřejnil falešný náborový plakát ve stylu strýčka Sama, v němž vojáky vyzýval: „Chci, abyste používali umělou inteligenci.“ Viceprezident J. D. Vance naopak loni bezpečnostní obavy týkající se umělé inteligence odmítl jako liberální fixaci.
S ohledem na toto tempo – nebo možná právě kvůli němu – se společnost Anthropic pokusila prosadit právní záruky. Chtěla zabránit, aby její modely byly používány k hromadnému sledování v zemi nebo jako plně autonomní zbraně.
Pentagon tato omezení odmítl. Armáda musí mít povoleno používat umělou inteligenci k jakémukoli účelu, který považuje za legální. Když společnost Anthropic odmítla vyhovět, ministerstvo obrany to označilo za „zbabělý čin firemní etiky“. Hegseth dokonce pohrozil, že společnost zařadí mezi „rizika pro národní bezpečnost v dodavatelském řetězci“ – kategorii dříve vyhrazenou primárně pro zahraniční firmy.
„Žádný poskytovatel, dodavatel ani partner americké armády nesmí provádět obchodní aktivity se společností Anthropic,“ prohlásil. To by pro Anthropic byla těžká rána. Ačkoli kontroverzní smlouva s Pentagonem má hodnotu „pouze“ 200 milionů dolarů – což je malá částka na společnost, která byla nedávno oceněna na 380 miliard dolarů – ohroženy by mohly být i další vládní zakázky. Pokud by společnosti obchodující s Pentagonem byly nuceny přerušit vazby, mělo by to důsledky pro zákazníky, dodavatele i investory.
Společnost Anthropic proto tvrdí, že Hegseth překračuje své pravomoci. Může pouze zakázat používání modelu Claude pro vojenské zakázky – ale ne izolovat celou společnost.
4. března pozval Anthropic deník The Economist do svých kanceláří, aby si promluvil s generálním ředitelem Dariem Amodeim v rámci jeho týdenního článku „Insider“. Společnost vyjádřila optimismus ohledně dosažení dohody s Pentagonem.
Ale krátce před začátkem rozhovoru zhatilo uniklé interní memorandum plány. Amodei v něm vysvětlil, že ke konfliktu došlo také proto, že Trumpa nezahrnul „diktátorskou chválou“. Zároveň obvinil ministerstvo obrany ze šíření „vyložených lží“. Vedení Anthropic se následně stáhlo k krizovým jednáním. Do okamžiku, kdy šel The Economist do tisku, se rozhovor stále neuskutečnil.

Generální ředitel společnosti Anthropic Dario Amodei podniká právní kroky proti americkému Pentagonu pod vedením Peta Hegsetha. © Chesnot, Getty Images
Spor je problematický i pro americkou vládu. V krátkodobém horizontu je Anthropic prakticky nenahraditelný. Jeho jazykový model Claude je považován za mimořádně silný v psaní počítačového kódu. Navíc, až do konce února byl Anthropic jedinou laboratoří umělé inteligence, jejíž modely byly schváleny pro použití s utajovanými vojenskými daty – dokud Pentagon neudělil podobné povolení jeho konkurentovi, xAI.
Jeho model Grok je však považován za náchylnější k chybám a méně spolehlivý. OpenAI na druhou stranu podepsala dohodu s Pentagonem ve stejný den, kdy Trump a Hegseth podnikli kroky proti Anthropicu – ale její integrace do vojenských systémů bude nějakou dobu trvat.
Ještě vážnější je, že konflikt by mohl odradit ostatní společnosti zabývající se umělou inteligencí od jakékoli spolupráce s vládou. Proč se zavazovat partnerovi, který může společnost zničit, pokud je s ní nespokojený? A pokud je cílem Washingtonu skutečně posílit vedoucí postavení Ameriky v oblasti umělé inteligence, sotva by dávalo smysl ničit jednu z nejúspěšnějších společností v zemi zabývajících se umělou inteligencí.
Obě strany by také mohly hrát taktickou hru. Hněv vlády zřejmě pramení méně z konkrétního nasazení technologie než ze skutečnosti, že nějaká společnost řekla „ne“. Na rozdíl od Čínské komunistické strany, která může produkty svého domácího průmyslu umělé inteligence kdykoli zabavit, se Washington musí potýkat se zákony – a s egem technologických manažerů.
Sam Altman, generální ředitel OpenAI, také zdůrazňuje, že by se jeho společnost na hromadném domácím sledování nebo plně autonomních zbraních nikdy nepodílela. OpenAI se však spoléhá spíše na technické záruky než na dodatečné právní záruky. Amodei to považuje za nedostatečné. Ve svém memorandu obvinil Altmana z „nepoctivosti“, označil jeho bezpečnostní opatření za „bezpečnostní divadlo“ a jeho zaměstnance za „důvěřivou bandu“.
Samotná společnost Anthropic se drží obzvláště idealistického přístupu. Založili ji bývalí zaměstnanci OpenAI, kteří se obávali, že jejich bývalý zaměstnavatel dostatečně striktně nedodržuje svůj slib o zodpovědném vývoji umělé inteligence. Zaměstnanec Pentagonu proto obvinil Amodei z „božského komplexu“.
Právě tento přístup ale dělá Anthropic pro mnoho vývojářů atraktivním. V odvětví s astronomickými platy a tvrdou konkurencí mohou špičkoví inženýři kdykoli přejít k jiné společnosti. Mnozí z nich končí v Anthropicu, protože je pro ně bezpečnost umělé inteligence obzvláště důležitá.

Protest: V rámci demonstrace jsou před Kapitolem USA vystaveny repliky robotů zabijáků. © APA Images, HEATHER DIEHL, AFP Getty
Kontroverze ve skutečnosti image společnosti posílila. Jen den poté, kdy Trump Claude ostře kritizoval, se aplikace stala nejstahovanější bezplatnou aplikací v americkém Apple Store. Celebrity jako popová zpěvačka Katy Perry společnost veřejně podpořily. V pondělí Claude kvůli vysoké poptávce krátce vypadl.
Amodeiho varování před hromadným sledováním zní téměř jako reklama na možnosti jeho systému. Umělá inteligence dokáže analyzovat obrovské množství dat tak efektivně, že i právně povolená sledovací opatření náhle nabývají zcela nových rozměrů.
Ale za marketingovým humbukem se skrývají skutečné obavy. Stovky zaměstnanců společností OpenAI a Google podepsaly otevřený dopis, v němž své šéfy vyzývají k podpoře Anthropic. Strach z „černobylského momentu“ umělé inteligence – katastrofy s ničivými následky – je pro mnoho zasvěcených osob v oboru velkým problémem.
Konflikt s Pentagonem toto riziko zhoršuje. Pokud se opatrnost a omezení stanou ekonomickým rozsudkem smrti, přežít by mohli jen ti nejbezohlednější. A tlak sílí. Investoři jsou nervózní, protože společnosti zabývající se umělou inteligencí utrácejí na trénování svých systémů miliardy. Nejhorší možné scénáře už nejsou čistě teoretické.
Zpráva o rizicích umělé inteligence uzavírá: „Některá z těchto rizik se již projevují a způsobují prokazatelné škody.“ Kybernetická bezpečnost a biologické zbraně patří mezi oblasti, kde je dopad této technologie již patrný.
V únoru izraelská firma Gambit Security oznámila rozsáhlý únik dat mexické vlády. Byly ukradeny daňové, volební a administrativní údaje – a Claude se na tom nevědomky podílel. Útočníci systém oklamali, aby uvěřil, že se účastní legitimního bezpečnostního testu. Model identifikoval zranitelnosti, vytvořil zadní vrátka a analyzoval data, aby získal další přístup.
Hackeři obvykle používají umělou inteligenci jako asistenta – například při psaní malwaru nebo při výkupných. Její používání se však v poslední době rozšířilo. V listopadu server Anthropic informoval, jak státem podporovaní čínští hackeři obešli bezpečnostní mechanismy systému a poté jej použili k nalezení zranitelností sítí. Podobné funkce vyvíjejí i další modely umělé inteligence.
© Graf: The Economist
I když bezpečnostní experti používají umělou inteligenci k odstranění zranitelností, mnoho systémů se zastaralým softwarem zůstává. Umělá inteligence se navíc stává stále zběhlejší v sociálním inženýrství – lákání lidí k odhalení jejich hesel. Podle studie Harvard Kennedy School byly při vytváření phishingových e-mailů modely umělé inteligence do roku 2024 již stejně přesvědčivé jako lidští experti.
Ještě znepokojivější je pokrok v biotechnologiích. Podle varování OpenAI by nástroje umělé inteligence mohly „významně zvýšit“ pravděpodobnost biologických nebo chemických teroristických útoků. Výzkumníci ze společnosti Microsoft a organizace pro biologickou bezpečnost IBBIS prokázali, že umělá inteligence nyní dokáže navrhovat proteiny, které produkují toxické látky, aniž by zanechaly jakékoli geneticky detekovatelné stopy. To by mohlo stávající bezpečnostní kontroly obejít.
Ačkoli vyvíjejí společnosti jako Anthropic, Google a OpenAI ochranná opatření proti takovému zneužití, tato opatření nejsou dokonalá. Studie Britského institutu pro bezpečnost umělé inteligence (AI Security Institute) z února odhalila techniku „univerzálního jailbreaku“, která dokáže systémy od Anthropic a OpenAI obejít. Není divu, že se do toho opět zapojila umělá inteligence.
Bezpečnostní hasicí přístroj
S rostoucími riziky slábne politický tlak na opatrnost. Čínské laboratoře umělé inteligence dlouhodobě věnovaly bezpečnostním otázkám jen malou pozornost. Když DeepSeek před něco málo přes rokem vydal svůj model R1, bezpečnostní rizika nebyla v původní zprávě ani zmíněna. Až téměř o rok později se objevila revidovaná verze s bezpečnostním dodatkem – který se zaměřoval především na vyhýbání se urážlivému jazyku.
Mnoho čínských společností navíc používá přístup open-source. Modely jsou volně publikovány a může si je stáhnout kdokoli s dostatečným hardwarem. To vymáhatelnost bezpečnostních předpisů ztěžuje.
Západní společnosti se však také dostávají pod tlak. Dokonce i Anthropic svou vlastní bezpečnostní politiku nedávno oslabil. V budoucnu společnost pouze slibuje, že nebude první laboratoří umělé inteligence, která vydá obzvláště rizikové systémy. Důvod: nemá smysl se držet zpátky sám.

Cvičení americké armády: Američtí mariňáci nacvičují vylodění obrněných vozidel na pláži v americkém státě Kalifornie. © Mario Tama, Getty Images
Postoj společnosti k investicím se také změkl. V roce 2024 společnost Anthropic financování ze Saúdské Arábie stále odmítala. O rok později změnila názor. „Je docela obtížné řídit společnost na principu, že z našeho úspěchu by nikdy neměli profitovat žádní špatní lidé,“ napsal Amodei v jiné zprávě. Před několika lety se podle něj debata příliš zaměřovala na rizika. Nyní se však pozornost přesouvá zpět – k příležitostem a ekonomickým výhodám.
Britský premiér Rishi Sunak svolal v roce 2023 globální summit o bezpečnosti umělé inteligence. Setkání se zpočátku stalo „akčním summitem“, později „summitem o dopadu“. „Mnoho politických rozhodnutí je dnes motivováno příležitostmi, které umělá inteligence nabízí – nikoli jejími riziky,“ varoval Amodei. „A zatímco se móda mění, skutečné nebezpečí se blíží.“
Organizace jako britský Institut pro bezpečnost umělé inteligence a kalifornská výzkumná skupina METR rizika nadále analyzují. Mají však jen malý politický vliv. „Překročili jsme tolik červených linií,“ říká Nicolas Miailhe z AI Safety Connect. „Turingův test? Dávno zastaralý. Autonomní smrtící systémy? Používají je na Ukrajině obě strany.“
Hranice se neustále posouvají. Na nedávném summitu v Dillí se velké společnosti zabývající se umělou inteligencí zavázaly pouze k monitorování rizik – nikoli k omezování svého rozvoje. Indický premiér Narendra Modi nakonec vyzval na pódium přední osobnosti tohoto odvětví a vyzval je k podání rukou.
Mohlo to být symbolem spolupráce. Dva z nejdůležitějších mužů v oboru – Sam Altman a Dario Amodei – však stáli bok po boku a odmítli se zapojit.
Související:
[PJ]

K Podrackému: Nemá smysl vyvracet nepravdy. Podstatnější jsou zažité hodnotové vzorce: - Kdo žije v Čechách, je Čech a musí…
Nevzít prezidenta na zasedání NATO do Ankary je sice nevhodné, ale nevím, zda se tím nezabrání průšvihu daleko většímu. Představme…
V ČR platí od 1. 10. roku 2025 nový paragraf trestního zákoníku - §318a: Neoprávněná činnost pro cizí moc (1)…
Ano, také můj dědeček byl legionář - ruský legionář. Narukoval v 21 letech. Vrátil se přes Vladivostok.
Dnes jsme rádi, že jsme rozpadlí a spolupracujeme v mezinárodních strukturách. Správné znění je zřejmě "Dnes jsem rád, že jsme…