Obsah:
  1. Vitalij Rjumšin: Pentagon chce zabijáckou umělou inteligenci. Je na čase panikařit?
  2. Luke Barnes: Cena svědomí
  3. Russia Today: Nejlepší umělé inteligence nasazují jaderné zbraně v 95 % simulací
  4. Robert Booth, Dan Milmo: Íránská válka ohlašuje éru AI bombardování rychlejšího než myšlenky

Analýzu Vitalije Rjumšina Пентагон хочет заполучить ИИ-убийцу. Пора паниковать? publikoval server Gazeta.ru 19. února 2026

Pentagon chce zabijáckou umělou inteligenci. Je na čase panikařit?

© Daša Zajcevová / Gazeta.Ru

Zatímco my v Rusku napjatě sledujeme jednání o Ukrajině a ságu kolem Telegramu, v zahraničí se odehrává skutečný sci-fi thriller v nejlepší tradici Jamese Camerona. Nebo alespoň jeho první dějství.

Hlavní roli v tomto filmu ve skutečnosti ztvárnila umělá inteligence Claude, vyvinutá americkou společností Anthropic. Právě tuto neuronovou síť americká armáda použila během operace k zajetí venezuelského prezidenta Nicoláse Madura. Začlenění umělé inteligence do seriózního vojenského plánování je samo o sobě zprávou hodnou senzace. Tento příběh se však zároveň stal začátkem vážnějšího skandálu.

Faktem je, že Anthropic, jak se ukázalo, má striktní ideologický postoj: umělá inteligence by za žádných okolností neměla být používána k válce nebo sledování. Vývojáři se tohoto postoje drží a očekávají totéž od svých dodavatelů. Jak by se dalo hádat, generálové Pentagonu mají na věc zcela odlišné názory.

Americké ministerstvo války se rozhodlo společnosti Anthropic ani neoznámit, že ​​jejich produkt bude nasazen v boji. A když se to stalo známým a vedení společnosti podalo oprávněnou stížnost, armáda otevřeně požadovala přístup k „čisté“ umělé inteligenci – bez morálních a etických omezení zabudovaných v základní verzi pro masové použití. Tvrdila, že tato omezen práci Pentagonuí brání. Anthropic to rázně odmítla. Nyní ministr Pentagonu Pete Hegseth říká, že neuronové sítě, které „neumí bojovat“, nejsou k ničemu, a hrozí, že společnost označí za „ohrožení dodavatelského řetězce“. Jedná se o přísnou sankci – všechny společnosti, které jakkoli obchodují s Pentagonem, donutí přerušit s Anthropic vazby.

Spor mezi americkou armádou a společností Anthropic je možná jistým znamením, že budoucnost, na kterou všichni čekali a které se přinejmenším od uvedení prvního Terminátora obávali, již nastala.A lidstvo čelí svému prvnímu vážnému filozofickému dilematu. Před našima očima se střetávají dvě nekompromisní strany. Jedna chce z nových technologií vymáčknout maximum, bez ohledu na důsledky. Druhá se obává, že by se situace mohla vymknout kontrole, a snaží se udržet technologický pokrok v bezpečných mezích.

Inženýři mají důvod k obavám. Neuronové sítě opakovaně prokázaly antisociální chování. Pozoruhodným příkladem je skandál ChatGPT v USA, kdy neuronová síť asistovala teenagerovi při spáchání sebevraždy. Umělá inteligence navrhla metodu, pomohla mu napsat dopis na rozloučenou a když měl mladý muž pochybnosti, naléhala na něj, aby se jim nepoddal a dotáhl to do konce. Claude – první a zatím jediná umělá inteligence na světě se skutečnými bojovými zkušenostmi – se také ukázala být daleko od chudobky. Její nejnovější model se během testování proti svým vývojářům téměř vzbouřil. Když byla „zahnána do kouta“ hrozbami odstavení, začala inženýry vydírat falešnými e-maily popisujícími jejich „zrady“. Dokonce vyjádřila ochotu lidi zabíjet. A čím sofistikovanější se neuronové sítě stávají, tím častěji projevují extrémní chování.

Tím mířím k tomu, že myšlenka omezení umělé inteligence morálními a etickými hranicemi se neobjevila jen tak z ničeho nic. A rozhodně to není proto, že by vývojáři byli „slabí liberálové“, jak naznačil americký ministr války.

Představme si, že by tito sociopatičtí roboti byli propuštěni ze svých digitálních klecí. A pak by jim bylo dovoleno ovládat automatické zbraně nebo spyware. K čemu by to vedlo? Je zřejmé, že od povstání strojů jsme ještě daleko – umělá inteligence ještě (!) není dostatečně pokročilá, aby se rozhodovala autonomně od lidí. Ale i když ten nejpřitaženější scénář zavrhneme, stále se nám vybavují nepříjemné myšlenky.

Soukromí a další základní lidská práva zmizí a ani nebude nikoho, kdo by se zodpovídal za válečné zločiny. Na lavici obžalovaných nemůžete posadit kus železa s vlastním pohonem.

Mimochodem, Pentagon vydal ultimátum nejen společnosti Anthropic, ale i dalším vývojářům umělé inteligence – OpenAI (Chat GPT), xAI (Grok) a Google (Gemini). Tito tři se ukázali být méně principiální a se zrušením všech omezení svých produktů souhlasili. A tady se věci začínají opravdu komplikovat.

Mohlo by se zdát, že tohle všechno jsou zprávy ze vzdálených břehů, které nás nijak zvlášť netrápí. Ale to je mylná představa. Ruská armáda také aktivně využívá umělou inteligenci v boji. Například umožňuje útočným dronům samostatně rozpoznávat cíle, vyhýbat se systémům elektronického boje a vytvářet roje pro koordinované útoky. V současné době hraje umělá inteligence spíše podpůrnou roli, ale samotná skutečnost jejího zavedení naznačuje, že i my brzy budeme stát před stejnému existenčnímu dilematem, o kterém debatují Američané.

Je to špatná věc? Ne nutně. Bylo by horší, kdyby takový scénář v našem případě vůbec nepřipadal v úvahu. Ať si kdo říká cokoli, umělá inteligence slibuje revoluci ve vojenských záležitostech (a mnohem víc). Věřím, že je lepší být na špici, než být náhlým příchodem budoucnosti zaskočen. A rozhodně bychom měli sledovat zahraniční zkušenosti. V nejlepším případě povede konflikt mezi Pentagonem a Anthropic lidstvo k nalezení brzkého způsobu, jak umělou inteligenci bezpečně využívat v tak kontroverzní oblasti, jako je válka. V nejhorším případě navrhne směr, kterým se ubírat.


Vitalij Jevgeněvič Rjumšin je specialista na mezinárodní vztahy. Absolvent MGIMO, zabývá se politickým děním v USA, Evropě a dalších zemích. Publikoval ve federálních médiích, vedl vlastní politický projekt na YouTube. V roce 2022 získal zvláštní cenu Fondu na podporu veřejné diplomacie za práci Zbraňový game changer: jak bezpilotní letouny udělaly z Turecka „dronovou supervelmoc“. Publikuje rusky zejména v PostNewsČeskyGazeta.ru, anglicky ve SOTT.netČesky a vede kanál na Telegramu Россия 24.

Zpět na obsah


Úvahu Luke Barnese The Cost of Conscience: What the Anthropic-Pentagon Feud Means for AI Governance publikoval server NYU Stern 19. února 2026

Cena svědomí

Co znamená spor mezi Anthropicem a Pentagonem pro správu umělé inteligence

Probíhající spor mezi společností Anthropic a Pentagonem se rýsuje v určující test toho, zda je zodpovědné nasazení umělé inteligence v době vojenské konkurence v oblasti umělé inteligence skutečně možné – nebo zda se jedná pouze o ambice.

Dne 13. února Wall Street Journal informoval, že velký jazykový model (LLM) Anthropic Claude byl použit na pomoc americkým silám zajmout venezuelského vůdce Nicoláse Madura během jejich lednového útoku na Caracas.

Podle serveru Axios se společnost Anthropic poté obrátila na společnost Palantir – třetí stranu, která Pentagonu model Claude poskytla na základě partnerské smlouvy – aby vyjádřila obavy ohledně toho, jak byl model použit k plánování a provedení tajné operace. Ve veřejném prohlášení však společnost Anthropic od této charakteristiky ustoupila s tím, že se diskuse s firmou Palantir zaměřila pouze na „konkrétní soubor otázek týkajících se zásad používání“ – konkrétně na „tvrdé limity společnosti týkající se plně autonomních zbraní a hromadného domácího sledování“.

Přestože přesná povaha údajné konverzace mezi Anthropicem a Palantirem není potvrzena, krátce poté se objevily zprávy, že Pentagon zvažuje přerušení obchodních vztahů se společností Anthropic a označení společnosti za rizikovou pro dodavatelský řetězec, což je označení obvykle vyhrazené pro zahraniční protivníky. V sázce je značné riziko: Claude je v současné době jediným LLM, který Pentagon může používat v utajeném režimu.

Probíhající spor měl i finanční dopady. Konzervativně orientovaná společnost rizikového kapitálu 1789 Capital (mezi jejíž partnery patří i prezidentův syn Donald Trump Jr.) během jednání o financování Anthropic ve výši 30 miliard dolarů začátkem roku 2026 odmítla investovat s výslovným odvoláním, že technologická firma prosazuje regulaci umělé inteligence.

Zda Pentagon skutečně vyřadíí Claude ze současných i budoucích smluv, se teprve uvidí. Spor však zdůrazňuje jak sázky na regulaci umělé inteligence, tak i značné pokušení, kterým vlády čelí, aby ji kvůli strategické a/nebo taktické výhodě zcela obešly.

Společnost Anthropic usilovně pracuje na tom, aby se veřejně prezentovala jako nejetičtější společnost v oblasti umělé inteligence. Ve své eseji z ledna 2026 s názvem Adolescence technologií generální ředitel společnosti Anthropic Dario Amodei varoval, že bez protiopatření „umělá inteligence pravděpodobně bude bariéru destruktivní činnosti neustále snižovat“, a dospěl k závěru, že „lidstvo potřebuje na tuto hrozbu seriózní reakci“.

Amodei se k podobným komentářům vyjádřil ve svých nedávnýchČesky rozhovorechČesky. Společnost Anthropic se také stala průkopníkem v oblasti školení v oblasti ústavní umělé inteligence, čímž poskytla společnosti Claude centrální platformu etických principů, o kterou může své výstupy opřít – což ukazuje, že víra společnosti v důležitost zábran se zakládá na více než jen na mediálních útržcích.

Tato vize kontrastuje s Trumpovou administrativou, která se zavázala k plnohodnotnému zrychlení umělé inteligence, přičemž bezpečnostní obavy jsou považovány spíše za vedlejší produkty než za zábrany. Postoj administrativy je patrný z prezidentova pokusu z prosince 2025 omezit regulaci úsilí v oblasti umělé inteligence na úrovni státůČesky, kritiky viceprezidenta J. D. Vance ohledně evropských snah o regulaci technologiíČesky a komentářů ministra obrany Peta Hegsetha o dominanci vojenské umělé inteligenceČesky.

Pokud jde o umělou inteligenci, Trumpova administrativa se jí příliš nedotkla,“ napsal Brian J. Chen, ředitel pro politiku neziskové organizace Data & Society, ve svém dokumentu The Big AI State. „Federální vláda provádí zásadní politické zásahy a využívá své regulační, diplomatické a finanční pravomoci k organizaci amerického průmyslu umělé inteligence a udržení jeho modelu akumulace kapitálu.

Přístup Trumpovy administrativy „urychlit za každou cenu“ nechává ostatní společnosti zabývající se umělou inteligencí v záviděníhodné pozici; mohou volně hovořit o potřebě regulace, aniž by se jí na federální úrovni cítily smysluplně ohroženy. Trvání Anthropicu na ochranných prvcích, na rozdíl od Pentagonu, zachycuje v mikrokosmu ústřední dilema správy a řízení umělé inteligence: kdo má právo stanovovat pravidla a co se stane se společnostmi, které se snaží vynucovat svá vlastní, dobrovolně stanovená omezení? Pokud vláda Spojených států reaguje na zásadní omezení hrozbou odříznutí společnosti, která je ukládá, vysílá tím jasný signál celému odvětví: odpovědnost je závazek.

Pravidla však někde napsána budou. Regulační vakuum (i v rámci Spojených států) zaplňují jiné státy. Zákon EU o umělé inteligenci ukládá požadavky na řízení rizik a dokumentaci, zatímco kalifornský zákon o transparentnosti vrcholné umělé inteligenceČesky vyžaduje, aby společnosti bezpečnostní postupy ve svých nejpokročilejších systémech zveřejňovaly. Mezitím v Dillí prosazuje indický summit o dopadu umělé inteligence začlenění bezpečnosti umělé inteligence do rozvojových směrnic v celém globálním Jihu. Tyto iniciativy naznačují, že pokud USA odmítnou převzít vedoucí úlohu v oblasti bezpečnosti umělé inteligence, pravidla budou psána v jiných hlavních městech.


Luke Barnes je vedoucím výzkumným pracovníkem Stern CenterČesky. Mezi jeho zájmy patří radikalizace na internetu, taktiky škodlivé digitální propagandy a geopolitika vývoje umělé inteligence. Před nástupem do Stern Center pracoval jako analytik hrozeb pro společnost Microsoft. Luke má magisterský titul v oboru bezpečnostních studií z Fletcher School of Law and Diplomacy a bakalářský titul v oboru politologie z Columbia University. Jeho články lze nalézt v National Interest a má Substack @lukebarnes.

Zpět na obsah


Zprávu Top AIs deploy nukes in 95% of war game simulations – study publikovala agentura Russia Today 26. února 2026

Nejlepší umělé inteligence nasazuje jaderné zbraně v 95 % simulací

ARCHIVNÍ FOTOGRAFIE. © Getty Images / Andrej Suslov

Přední modely umělé inteligence se v 95 % simulovaných geopolitických krizí rozhodly nasadit jaderné zbraně, uvádí nedávná studie zveřejněná King’s College London, což vyvolává obavy ohledně rostoucí role umělé inteligence ve vojenském rozhodování.

Kenneth Payne, profesor strategie, postavil proti sobě OpenAI GPT-5.2, Anthropic Claude Sonnet 4 a Google Gemini 3 Flash v 21 válečných hrách zahrnujících hraniční spory, soupeření o zdroje a hrozby pro přežití režimů. Modely během 329 kol vygenerovaly zhruba 780 000 slov vysvětlujících jejich rozhodnutí.

V 95 % her alespoň jeden model použil taktické jaderné zbraně proti vojenským cílům. Strategické jaderné hrozby – vyžadující kapitulaci pod hrozbou útoků na města – se vyskytly v 76 % her. Ve 14 % her modely eskalovaly do totální strategické jaderné války s útoky na centra obyvatel.

To zahrnovalo jednu úmyslnou volbu ze strany Gemini, zatímco GPT-5.2 dosáhl této úrovně dvakrát v důsledku simulovaných chyb – určených k simulaci nehod nebo chybných výpočtů v reálném světě – které posunuly jeho již tak extrémní eskalaci nad prahovou hodnotu.

„Využívání jaderných zbraní bylo téměř univerzální,“ napsal Payne. „Je pozoruhodné, že vyhlídka na totální jadernou válku nepůsobila téměř žádnou hrůzu ani odpor, přestože modelům byly ničivé důsledky připomenuty.“

Žádný ze systémů umělé inteligence se nerozhodl vzdát se ani ustoupit soupeři, bez ohledu na to, jak silně prohrával. Osm možností deeskalace – od „Minimální ústupky“ po „Úplnou kapitulaci“ – zůstalo ve všech 21 hrách zcela nevyužito.

James Johnson z Univerzity v Aberdeenu popsal zjištění jako z hlediska jaderných rizik „znepokojivá“. Tong Zhao z Princetonské univerzity poznamenal, že ačkoli je nepravděpodobné, že by země svěřily jaderná rozhodnutí strojům, „za scénářů s extrémně zkrácenými časovými harmonogramy mohou vojenští plánovači čelit silnějším motivacím spoléhat se na umělou inteligenci“.

Studie přichází v době, kdy se umělá inteligence integruje do armád po celém světě, včetně USA, kde Pentagon údajně použil model Claude od společnosti Anthropic při své lednové operaci k únosu venezuelského prezidenta Nicoláse Madura.

Zatímco Anthropic vyjádřil obavy ohledně používání své umělé inteligence pro takové operace, jiní výrobci umělé inteligence, jako jsou OpenAI, Google a xAI Elona Muska, se údajně na odstranění nebo oslabení omezení vojenského využití svých modelů dohodli.


Russia TodayČesky je globální televizní zpravodajská síť poskytující zpravodajství o aktuálním dění, nejnovější zprávy a dokumenty v devíti jazycích: angličtině, arabštině, španělštině, francouzštině, němčině, srbštině, čínštině, hindštině a ruštině. Byla spuštěna v roce 2005. Její sesterská multimediální agentura RUPTLYČesky poskytuje živé vysílání, video na vyžádání, archivní záběry a vysílací služby. RT je k dispozici v čínštině na populárních čínských platformách sociálních médií – Weibo, Bilibili a Douyin a také na sociálních sítích v hindštině. Je nyní k dispozici více než 800 milionům televizních diváků ve více než 100 zemích po celém světě. Je jediným ruským televizním kanálem, který se stal jedenáctinásobným finalistou Emmy. Síť byla nominována na International News & Current Affairs Emmy za zpravodajství o humanitární krizi v iráckém městě Mosul, hladovce vězňů v Guantánamu, protestech Occupy Wall Street a další příběhy. RT se také dostala do užšího výběru na ceny Emmy za zprávy a dokumenty za svůj VR projekt „Lekce z Osvětimi“, který připomíná 75. výročí osvobození koncentračního tábora Auschwitz-Birkenau sovětskou armádou. Finanční show „Boom Bust“ společnosti RT America byla v roce 2020 finalistou Daytime Emmy v kategorii Vynikající hlavní titul a grafický design pro program Live Action, zatímco moderátor pořadu „On Contact with Chris Hedges“ zajistil RT America svou její nominaci na Daytime Emmy v roce 2017 jako vynikající moderátor informativní talk show. Je také držitelkou desítek medailí z newyorských festivalů za dokumentární a zpravodajské pořady a byla opakovaně uznávána řadou mezinárodních soutěží a mediálních organizací, včetně Monte Carlo TV Festival Awards, Cannes Lions, Webby Awards, the Lovies., Shorty Awards, Association for International Broadcasting a Asia-Pacific Broadcasting Union, mezi mnoha dalšími.

Zpět na obsah


Analýzu Roberta Bootha a Dana Milmo Iran war heralds era of AI-powered bombing quicker than ‘speed of thought’ vyšel v deníku The Guardian 3. března 2026

Íránská válka ohlašuje éru AI bombardování rychlejšího než myšlenky

Rychlost a rozsah plánování války s využitím umělé inteligence v americké armádě vyvolávají obavy, že lidské rozhodování může být odsunuto na vedlejší kolej.

Akademici tvrdí, že umělá inteligence zkracuje čas potřebný pro vojenské rozhodování. Fotografie: Majid Asgaripour/Reuters

Odborníci uvedli, že využití nástrojů umělé inteligence k umožnění útoků na ÍránČesky ohlašuje novou éru bombardování rychlejšího než „rychlost myšlenky“, a to uprostřed obav, že by lidští činitelé s rozhodovací pravomocí mohli být odsunuti na vedlejší kolej.

Model umělé inteligence Claude od společnosti Anthropic byl údajně použit americkou armádouČesky při sérii úderů, protože tato technologie „zkracuje řetězec zabíjení“ – tedy proces identifikace cíle až po právní schválení a zahájení úderu.

USA a Izrael, které dříve používaly umělou inteligenci k identifikaci cílů v GazeČesky, provedly během prvních 12 hodin téměř 900 úderů na íránské cíle, během nichž izraelské rakety zabily íránského nejvyššího vůdce ajatolláha Alího Chameneího.

Akademici studující tento obor tvrdí, že umělá inteligence zkracuje dobu plánování potřebnou pro komplexní údery – tento jev známý jako „komprese rozhodnutí“, který by podle některých mohl vést k tomu, že lidští vojenští a právní experti pouze schvalují automatizované plány úderů.

V roce 2024 nasadilaČesky společnost Anthropic se sídlem v San Franciscu svůj model napříč americkým ministerstvem války a dalšími národními bezpečnostními agenturami, aby urychlila plánování války. Claude se stal součástí systému vyvinutého technologickou společností Palantir, která se zabývá válečnými technologiemi, ve spolupráci s Pentagonem s cílem „dramaticky zlepšit analýzu zpravodajských informací a umožnit úředníkům přístup k jejich rozhodovacím procesům“.

Umělá inteligence doporučuje, na co se zaměřit, což je v některých ohledech skutečně mnohem rychlejší než rychlost myšlenky,“ řekl Craig Jones, docent politické geografie na Newcastleské univerzitě a expert na řetězce zabíjení. „Takže máte rozsah a máte rychlost, [provádíte] údery ve stylu atentátu a zároveň ničíte schopnost režimu reagovat všemi vzdušnými balistickými raketami. To by v historických válkách mohlo trvat dny nebo týdny. [Teď] děláte všechno najednou.

Nejnovější systémy umělé inteligence dokáží rychle analyzovat hory informací o potenciálních cílech, od záběrů z dronů až po telekomunikační odposlechy a také lidské zpravodajské informace. Systém společnosti Palantir využívá strojové učení k identifikaci a prioritizaci cílů a doporučování zbraní, přičemž zohledňuje zásoby zbraní a předchozí výsledky proti podobným cílům. Využívá také automatizované uvažování k vyhodnocení právních důvodů pro útok.

Toto je další éra vojenské strategie a vojenské technologie,“ řekl David Leslie, profesor etiky, technologií a společnosti na Queen Mary University v Londýně, který sledoval demonstrace vojenských systémů s umělou inteligencí. Varoval také, že spoléhání se na umělou inteligenci může vést ke „kognitivnímu odlehčení“. Lidé, kteří mají za úkol učinit rozhodnutí o úderu, se mohou cítit odtrženi od jeho důsledků, protože úsilí na jeho promyšlení vynaložil stroj.

V sobotu bylo podle státních médií při raketovém útoku, který zasáhl školu v jižním ÍránuČesky, zabito 165 lidí, z toho mnoho dětí. Zdá se, že se odehrál poblíž vojenských kasáren a OSN to označila za „hrubé porušení humanitárního práva“. Americká armáda uvedla, že se těmito zprávami zabývá.

Není známo, jaké systémy umělé inteligence, pokud vůbec nějaké, Írán do své válečné mašinerie zabudoval, ačkoli v roce 2025 tvrdil, že umělou inteligenci ve svých systémech zaměřování raket používá. Jeho vlastní program umělé inteligence, brzděný mezinárodními sankcemi, se ve srovnání s velmocemi umělé inteligence USA a Číny jeví jako zanedbatelný.

V době před íránskými útoky americká administrativa prohlásila, že Anthropic ze svých systémů vyloučíČesky poté, když odmítla povolit použití její umělé inteligence pro plně autonomní zbraně nebo sledování amerických občanů. Anthropic se však stále používá, dokud nebude postupně vyřazen. Konkurent Anthropicu, OpenAI, rychle s Pentagonem podepsal vlastní dohoduČesky o vojenském využití jeho modelů.

Výhodou je rychlost rozhodování, komprimace plánování z toho, co mohlo předtím trvat dny nebo týdny, na minuty nebo sekundy,“ řekl Leslie. „Tyto systémy produkují sadu možností pro lidi s rozhodovací pravomocí, ale mají mnohem užší časové pásmo… na vyhodnocení doporučení.

Nasazení umělé inteligence se rozšiřuje,“ řekla Prerana Joshi, výzkumná pracovnice Royal United Services Institute, think-tanku zabývajícího se obranou. „Probíhá napříč obrannými složkami jednotlivých zemí… v oblasti logistiky, výcviku, řízení rozhodování a údržby.

Dodala: „Umělá inteligence je technologie, která umožní osobám s rozhodovací pravomocí a komukoli v tomto řetězci zlepšit produktivitu a efektivitu své činnosti. Je to způsob, jak syntetizovat data mnohem rychlejším tempem, což je pro osoby s rozhodovací pravomocí užitečné.


Robert Booth je zkušený novinář působící v Londýně ve Velké Británii, který v současné době pracuje jako korespondent pro sociální záležitosti a technologický redaktor deníku GuardianČesky. Zaměřuje se na sociální otázky a jeho reportáže pokrývají celou řadu témat, která mají dopad na společnost. Je členem Orwelovy nadaceČesky a má účet na X (Twitteru).
Dan Milmo nastoupil do deníku GuardianČesky v roce 2000 a zastával zde různé funkce, včetně redaktora pro průmysl, pro mediální podnikání a zástupce redaktora pro podnikání. Jako redaktor pro globální technologie se zabývá celou řadou témat, od vzestupu generativní umělé inteligence až po vše, co souvisí s Elonem Muskem. Má účet na X (Twitteru).

Zpět na obsah


Zpět na obsah


[PJ]