Zpět na seznam
TECH & HUMAN//2026-03-16//15 min

Jak šel Claude do války

Jak se stalo, že AI technologie vyrostla z ruky firmě, která ji vytvořila, vládě, která ji zakázala, i armádě, která ji používá.


Na začátku roku 2026 se v americké armádě stal precedent, o kterém se bude mluvit dekády. Poprvé v historii byl velký jazykový model - stejný typ AI, se kterým denně chatujete - nasazen v aktivních bojových operacích. Ne jako experiment. Ne jako simulace. Jako klíčová součást systému, který vybírá, co bombardovat.

Ten model se jmenuje Claude. Vytvořila ho firma Anthropic - společnost, která se od svého založení profiluje jako ta zodpovědná alternativa v závodě o umělou inteligenci. Firma, jejíž zakladatel Dario Amodei veřejně přirovnává vývoj AI k vytvoření atomové bomby a jeho oblíbenou knihou je The Making of the Atomic Bomb od Richarda Rhodese.

Ironie je krutá. A příběh, který následoval, je důležitější než většina věcí, o kterých se v AI komunitě mluví.


Co se stalo

Venezuela, leden 2026

  1. ledna provedla americká armáda operaci Absolute Resolve - komplexní vojenský úder zahrnující přes 150 letadel a dronů, speciální jednotky Delta Force, agenty FBI a zpravodajce CIA. Cílem bylo zadržení venezuelského prezidenta Nicoláse Madura v Caracasu. Operace si vyžádala 83 mrtvých - 47 venezuelských vojáků a 32 kubánských vojenských poradců. Maduro byl převezen na letadlovou loď USS Iwo Jima a následně do New Yorku, kde byl 5. ledna obviněn z narko-terorismu.

Wall Street Journal 13. února odhalil, že Claude byl použit přímo během operace - ne pouze při plánování, ale v reálném čase bojové akce. Claude byl v té době jediným frontier AI modelem nasazeným na utajovaných vojenských sítích, integrovaným přes partnerství Anthropic–Palantir–AWS.

Írán, únor–březen 2026

  1. února začala operace Epic Fury (poznámka autora: vážně, to pojmenovávají operace sedmiletí kluci?) - rozsáhlý americký útok na Írán, koordinovaný s izraelskou operací Roaring Lion. V prvních 12 hodinách americká armáda zasáhla přes 900 cílů. Za 24 hodin to bylo víc než 1000.

Claude hrál potvrzenou, centrální roli. Washington Post a CBS News nezávisle potvrdily, že Claude prostřednictvím Palantiru:

  • Syntetizoval zpravodajské informace - analyzoval obrovské objemy dat pro velitele CENTCOM
  • Identifikoval a prioritizoval cíle - pomáhal vybrat těch 1000+ cílů prvního dne
  • Simuloval scénáře - modeloval průběhy úderů a válečné hry
  • Optimalizoval logistiku - plánoval zásobovací řetězce

Admirál Brad Cooper uvedl, že AI technologie „efektivně zdvojnásobila tempo i intenzitu vojenských úderů."


Jak se tam Claude dostal

Partnerství s Palantir (2024)

V listopadu 2024 Anthropic, Palantir a Amazon Web Services oznámily partnerství pro nasazení Claude na utajovaných amerických obranných a zpravodajských sítích. Claude byl integrován do Palantirovy AI platformy na stupni utajení Impact Level 6 (Secret).

Už tehdy to vyvolalo interní odpor. Zaměstnanci Anthropicu vedli „mnoho velkých diskuzí na Slacku," které se staly zdrojem přetrvávajícího napětí ve firmě.

Kontrakt za 200 milionů (2025)

V červenci 2025 Pentagon udělil Anthropicu kontrakt v hodnotě až 200 milionů dolarů. Claude se stal preferovaným AI modelem armády - představitelé ho označovali za „nadřazený" konkurenci. Byl nasazen pro zpravodajskou analýzu, operační plánování, kybernetické operace a přezkum dokumentů.

Co je Maven

Maven Smart System je Palantirova platforma pro vojenské operace. Představte si ji jako centrální mozek, který v reálném čase spojuje satelitní snímky, záběry z dronů, odposlechy komunikace a přes 150 dalších datových zdrojů. Claude je jeho jazykovým a analytickým jádrem - čte data, hledá vzorce, navrhuje cíle, počítá souřadnice.

Klíčový detail: Georgetown University zjistila, že Maven umožnil 20 lidem dělat práci 2000. To zní jako triumf efektivity. Ve skutečnosti to znamená, že rozhodovací cyklus, který dříve zahrnoval stovky lidí s časem na přemýšlení, je teď komprimován do malé skupiny, která zpracovává návrhy rychleji, než je schopna skutečně posoudit.


Minab: Když efektivita zabíjí

Nejtemější stránkou celého příběhu je úder na dívčí základní školu ve městě Minab, při kterém zahynulo přes 175 civilistů - převážně dětí.

Podle analýzy Marka Milanoviće z European Journal of International Law to nebyla kolaterální škoda. Škola byla zasažena individuálně, přesnou municí - stejně jako každá další budova v přilehlém komplexu Íránských revolučních gard (IRGC). Někdo - nebo něco - ji specificky vybral jako cíl.

Nejpravděpodobnější vysvětlení: budova byla kdysi součástí areálu IRGC, než byla oddělena, obehnána zdí a přestavěna na školu. Kdo pracoval se zastaralými mapami nebo satelitními snímky, nepoznal rozdíl.

Pentagon odmítl říct, zda AI hrál roli při výběru tohoto konkrétního cíle. Ale víme, že Maven v prvních 24 hodinách navrhl přes 1000 cílů. A víme, že „human in the loop" - člověk, který měl každý cíl schválit - musel zpracovat desítky návrhů za hodinu.

Právní analýza ukazuje, že problém není v principu proporcionality (velitel neočekával civilní ztráty, protože nevěděl, že jde o školu). Problém je v principu feasible precautions - povinnosti udělat vše rozumně možné k ověření, že cíl je skutečně vojenský. Novináři z New York Times to ověřili z otevřených zdrojů relativně rychle. Armáda se všemi svými nástroji - včetně AI - to neudělala.


Double Black Box: Proč nikdo neví, co se děje

Profesorka práv Ashley Deeks z University of Virginia popsala koncept, který přesně vystihuje situaci: double black box - dvojitá černá skříňka.

Na jedné straně: technologické firmy nevidí, jak je jejich produkt používán v utajovaném prostředí. Anthropic nemá přístup na classified servery, kde Claude běží. Neví, jaká data mu tam posílají, jaké instrukce dostává, co generuje.

Na druhé straně: armáda nerozumí, jak model funguje uvnitř. Claude není deterministický program, kde vstup A vždy dá výstup B. Je to pravděpodobnostní systém s miliardami parametrů, jehož rozhodovací proces není plně vysvětlitelný ani jeho tvůrcům.

Výsledek: nikdo nemá úplný obraz. Firma nemůže kontrolovat použití. Armáda nemůže plně kontrolovat výstupy. A Kongres - podle vlastních přiznání - neví, co se vůbec děje. Demokrat Adam Smith, nejvýše postavený člen výboru pro ozbrojené síly: „Myslím, že bychom tomu měli věnovat více pozornosti." Republikán Mike Rogers, předseda výboru: „Nemám do toho takový vhled."


Anthropic vs Pentagon: Pět fází rozpadu

Vztah mezi Anthropicem a Pentagonem se rozpadl v pěti jasně čitelných fázích.

1. Partnerství (2024): Veřejné oznámení spolupráce s Palantir a AWS. Interní odpor zaměstnanců.

2. Integrace (2025): Kontrakt za $200M. Claude se stává „nepostradatelným" pro vojenské operace.

3. Napětí (leden 2026): Po odhalení role Claude ve Venezuele ministr obrany Pete Hegseth vydává memo požadující, aby AI modely neměly žádná omezení pro „zákonné vojenské aplikace." Veřejně prohlašuje: „Nebudeme nasazovat AI modely, které vám nedovolí vést války."

4. Ruptura (únor 2026): Hegseth dává CEO Anthropicu Dariu Amodeiovi deadline - 27. února, 17:01. Podmínka: neomezené vojenské použití Claude. Anthropic drží dvě červené linie: žádná masová surveillance Američanů a žádné plně autonomní zbraně. Když deadline vyprší, Trump označí Anthropic jako „supply chain risk to national security" - kategorii normálně vyhrazenou pro firmy jako Huawei - a nařídí všem federálním agenturám přestat používat jeho produkty.

5. Žaloby (březen 2026): Anthropic 9. března podává dvě federální žaloby. Tvrdí, že designace je „bezprecedentní a protiprávní" a porušuje První dodatek ústavy. CFO Krishna Rao uvádí, že vládní akce mohou snížit tržby roku 2026 o „několik miliard dolarů."


OpenAI skočil do díry - a zjistil, že je stejně hluboká

Během hodin po vypršení deadline OpenAI oznámila vlastní dohodu s Pentagonem. Sam Altman později přiznal, že to bylo „sloppy and opportunistic" - ledabylé a oportunistické.

Reakce přišla rychle a z neočekávaného směru. Přes 900 zaměstnanců Google a OpenAI podepsalo otevřený dopis podporující červené linie Anthropicu. Koalice „No Tech for Apartheid," zastupující údajně ~700 000 pracovníků Amazonu, Google, Microsoftu a dalších, vydala společné prohlášení. Caitlin Kalinowski, šéfka robotiky OpenAI, na protest rezignovala.

A pak přišla pointa celého příběhu: OpenAI v sobotu vydala prohlášení, že její dohoda s Pentagonem obsahuje „více guardrails než jakákoliv předchozí dohoda pro utajované AI nasazení, včetně dohody Anthropicu." Zákaz masové surveillance. Zákaz autonomních zbraní. Zákaz automatizovaných rozhodnutí s vysokými sázkami.

Jinými slovy: Pentagon vyhodil Anthropic za to, že držel červené linie, a pak podepsal s OpenAI dohodu se stejnými červenými liniemi.


Palantir: Ten, kdo na tom vydělává

Zatímco se Anthropic soudí a OpenAI spravuje reputaci, existuje aktér, o kterém se mluví mnohem méně: Palantir.

Byline Times publikoval investigativní článek o tom, co nazval strukturálním konfliktem zájmů. Spoluzakladatelé Palantiru - Peter Thiel a Joe Lonsdale - roky veřejně prosazovali vojenskou konfrontaci s Íránem. Lonsdale mluvil o tom, že se těší na „investice v Íránu" po změně režimu. Thiel argumentoval, že každý historický případ získání jaderných zbraní protivníkem vedl k regionální válce.

Jejich firma přitom dodávala zpravodajské analýzy, které pomáhaly válku odůvodnit. A pak na ní vydělávala prodejem targeting služeb v reálném čase.

V prvním týdnu konfliktu Palantir akcie vzrostly o ~15 %. Thiel ve stejném období prodal akcie Palantiru za 280 milionů dolarů.

CEO Alex Karp otevřeně prohlásil, že válka s Íránem prokáže hodnotu autonomních zbraňových systémů.

Tohle není AI problém. Tohle je military-industrial complex s lepší technologií a lepším PR.


Lavender: Tohle jsme už viděli

Pro ty, kdo sledovali válku v Gaze, je tenhle příběh děsivě povědomý.

Izraelská armáda v roce 2024 nasadila AI systém jménem Lavender, který profiloval přes 37 000 palestinských mužů jako potenciální cíle spojené s Hamásem. Systém měl známou chybovost kolem 10 %. Schvalování zabití trvalo přibližně 20 sekund. Organizace +972 Magazine zdokumentovala, jak armáda tuto chybovost vědomě akceptovala.

Teď stejná logika běží nad Íránem - jen s americkým modelem, americkými servery a americkými generály, kteří schvalují seznamy cílů vytvořené rychleji, než je stíhají přečíst.

Peter Asaro z The New School formuloval klíčovou otázku: „Můžete rychle vytvořit dlouhé seznamy cílů mnohem rychleji než lidé. Etická a právní otázka je: do jaké míry ti lidé skutečně přezkoumávají konkrétní cíle, ověřují jejich legálnost a vojenskou hodnotu, než je schválí?"

Brianna Rosen z Oxfordu na to odpovídá stručně: „I s člověkem plně zapojeným do procesu dochází k významnému poškozování civilistů, protože lidský přezkum strojových rozhodnutí je v podstatě formální."


Co to znamená

K 10. březnu 2026 existují vedle sebe tři reality, které spolu nesedí:

Za prvé: Frontier AI se stala operačně nepostradatelnou pro americkou armádu. Natolik, že zákaz jejího výrobce ji nedokázal odebrat z aktivních bojových systémů. Plné nahrazení Claude potrvá podle odhadů 3–6 měsíců.

Za druhé: Neexistuje žádný adekvátní rámec pro řízení komerční AI ve válce. Kongres nemá přehled. Pravidla použití jsou smluvní, ne zákonná. A hranice mezi „podporou lidských rozhodnutí" a „autonomním cílením" se rozmazává při rychlosti 1000 cílů za 24 hodin.

Za třetí: Trh odměnil odpor. Claude poprvé předstihl ChatGPT na App Store - stahování vzrostla o 240 % měsíčně. ChatGPT zaznamenal 295% nárůst odinstalací. Anthropic hlásí přes milion nových registrací denně.

Žádná z těchto realit nemá jasné řešení. Příští klíčová data jsou 17. března (soudní stání Madura v New Yorku) a rozhodnutí federálních soudů o žalobách Anthropicu. Vyjednávání mezi Amodeim a Pentagonem se údajně obnovila, ale Bloomberg uvádí „malou šanci" na dohodu po podání žalob.

A mezitím Claude dál zpracovává targeting data pro íránskou kampaň. AI, kterou její vlastní tvůrce chtěl omezit, vede válku, ze které ji vláda chtěla vyřadit - a nikdo nemá plnou kontrolu ani nad jedním z těchto výsledků.


Proč vás to zajímá

Není to příběh o špatné firmě nebo špatné AI. Je to příběh o systémovém selhání - o momentu, kdy technologie předběhla všechny instituce, které ji měly řídit. Firma nemůže kontrolovat, jak je její produkt použit. Vláda nemůže odpojit, na čem závisí. Armáda nerozumí tomu, co používá. Zákonodárci neví, co se děje.

A někde v Íránu leží rozbitá škola, kde přesná munice zasáhla budovu, kterou AI pravděpodobně identifikovala jako vojenský objekt. Ne proto, že by AI byla zlá. Ale proto, že pracovala se špatnými daty, v systému, kde nikdo neměl čas ani důvod ověřit, jestli ta budova není plná dětí.

Margaret Mitchell z Hugging Face to shrnula nejlíp: „Nechtějí nezabíjet lidi. Chtějí zabít ty správné lidi. A kdo jsou ti správní, rozhoduje vláda."

Otázka pro nás všechny: kdo rozhoduje, když rozhoduje stroj?



Co se stalo potom

  1. března Pentagon CTO Emil Michael definitivně vyloučil obnovení jednání. Na CNBC řekl "no chance." Anthropic ve stejný den podal žalobu - tvrdí, že blacklist jako "supply-chain risk" (kategorie normálně vyhrazená pro Huawei) porušuje First Amendment. Guardian reportuje, že Anthropic je zakázán ve VŠECH vládních sítích, ne jen vojenských. A od 16. března se za Anthropic začal stavět celý tech průmysl. Důvod je jasný - pokud vláda může blacklistovat AI firmu za to, že si stanoví etické limity, může to udělat komukoliv.

OpenAI mezitím tvrdí, že jejich dohoda s Pentagonem obsahuje "víc guardrails než jakákoliv předchozí dohoda, včetně Anthropicu." Zní to hezky. Ale realita je jiná - Altmanova dohoda odkazuje na "stávající americké právo a politiku Pentagonu." Jinými slovy: žádné nové standardy, jen hezčí balení existujícího stavu. Anthropic argumentovalo, že současný zákon nestačí, protože sběr "veřejně dostupných" dat je sice legální, ale v kombinaci s frontier AI se stává de facto masovým sledováním. Chtěli ochranu NAD rámec zákona. OpenAI akceptovalo status quo. Podrobnější rozbor toho, proč to není totéž, jsem psal tady.

A mezitím Claude stále běží na classified serverech. Plné nahrazení potrvá odhadem 3-6 měsíců. AI, kterou její tvůrce chtěl omezit a vláda chtěla zakázat, dál vede válku, kterou nikdo z nich nemůže zastavit.


Jakub Roh | jroh.cz | březen 2026

Zdroje: Washington Post, CBS News, Wall Street Journal, Axios, Bloomberg, The Guardian, NPR, CNBC, TechCrunch, Responsible Statecraft, EJIL Talk, Al Jazeera, France 24, Byline Times, Nature, Futurism, Business Insider, BBC, Common Dreams, Asia Times, Seznam Zprávy, Novinky.cz, iROZHLAS, ČT24