Pentagon vs. Anthropic: Spor o bezpečnost AI, který se týká nás všech
Novinky
14 min čtení
27. 2. 2026

Pentagon vs. Anthropic: Spor o bezpečnost AI, který se týká nás všech

Pentagon hrozí Anthropicu zrušením kontraktu za 200 milionů dolarů. Proč Anthropic odmítá odstranit bezpečnostní záruky z Claude AI?

Obsah článku

Rychlé akce

Ve Spojených státech amerických právě probíhá bezprecedentní střet mezi americkým ministerstvem obrany a jednou z nejvýznamnějších firem v oblasti umělé inteligence. Pentagon dal společnosti Anthropic -- tvůrci chatbota Claude -- ultimátum: buď odstraníte všechna bezpečnostní omezení ze svého AI modelu, nebo přijdete o kontrakt v hodnotě 200 milionů dolarů a budete označeni za bezpečnostní riziko v dodavatelském řetězci. Anthropic odmítá ustoupit a tvrdí, že umělá inteligence by neměla být používána k hromadnému sledování Američanů ani k plně autonomním zbraňovým systémům.

Tento konflikt není jen technický spor dvou amerických institucí. Je to zlomový okamžik, který určuje budoucnost vztahu mezi technologickými firmami a vládami po celém světě -- včetně Evropy a České republiky.

Co je Anthropic a proč je důležitý?

Pokud často sledujete svět umělé inteligence, pravděpodobně znáte ChatGPT od společnosti OpenAI. Anthropic je jeho hlavní konkurent. Jde o americkou technologickou firmu, kterou v roce 2021 založili Dario Amodei a jeho sestra Daniela Amodei -- oba bývalí vedoucí pracovníci právě v OpenAI.

Anthropic vyvinul AI chatbota jménem Claude (vyslovuje se "Klód"), který je přímý konkurent ChatGPT. Claude umí odpovídat na otázky, psát texty, analyzovat dokumenty, pomáhá s programováním a plní mnoho dalších úkolů. Pokud používáte službu ZačínámSAI.cz, možná jste se s Claude už setkali -- některé naše články vznikají právě s jeho pomocí.

Co ale Anthropic odlišuje od ostatních firem, je jeho důraz na bezpečnost AI. Firma se od počátku prezentuje jako společnost, která staví bezpečnost a zodpovědný vývoj na první místo. Má vlastní výzkumný tým zaměřený na to, aby AI systémy byly spolehlivé, predikovatelné a nepředstavovaly riziko pro lidi. Proto má Claude zabudovaná určitá omezení -- například odmítne poskytovat návody na výrobu zbraní nebo pomáhat s nezákonnými činnostmi.

A právě tato omezení se nyní stala jádrem sporu s Pentagonem.

O co jde v konfliktu?

Kořeny současného sporu sahají do ledna 2026. Americká armáda použila model Claude během vojenské operace na zatčení bývalého venezuelského prezidenta Nicoláse Madura. Claude byl nasazen prostřednictvím partnerství s datovou společností Palantir, jejíž nástroje jsou široce využívány americkým ministerstvem obrany.

Po této operaci se Anthropic dotázal Pentagonu, zda byl jeho produkt použit při této vojenské akci -- a způsobem, který naznačoval, že s tímto použitím nemůže souhlasit. Pentagon to vnímal jako zpochybnění autority americké armády a zahájil přehodnocení celého partnerství.

Jde o střet dvou základních filozofií:

  • Pentagon tvrdí, že jakýkoliv AI systém dodávaný americkému vojsku musí být použitelný "pro všechny zákonné účely" bez jakýchkoliv firemních omezení navíc.
  • Anthropic trvá na tom, že existují dvě červené čáry, které nikdy nepřekročí: Claude nesmí být používán pro hromadné sledování amerických občanů a nesmí řídit plně autonomní zbraňové systémy bez lidského dohledu.

Tento rozpor se postupně vyostřil až k ultimátu, které Pentagon vydal poslední týden února 2026.

Co požaduje Pentagon?

Požadavky amerického ministerstva obrany jsou jasné a nekompromisní:

1. Úplné odstranění bezpečnostních omezení

Pentagon požaduje, aby Anthropic umožnil používání Claude "pro všechny zákonné účely" -- bez jakýchkoliv dalších firemních omezení. To znamená, že armáda by mohla používat AI model k čemu uzná za vhodné, pokud to neporušuje americké zákony.

2. Kontrakt v hodnotě 200 milionů dolarů

V létě 2025 Pentagon uzavřel s Anthropicem kontrakt v hodnotě až 200 milionů dolarů. Claude se stal jediným AI modelem nasazeným v utajovaných sítích Pentagonu -- opět díky partnerství s firmou Palantir. Toto nasazení učinilo Claude unikátním -- žádný jiný velký jazykový model v té době nefungoval uvnitř utajovaných vojenských systémů.

3. Ultimátum s termínem do pátku

Ministr obrany Pete Hegseth dal společnosti Anthropic termín do pátku 27. února 2026, 17:01 hodin. Pokud Anthropic do té doby nevyhoví, Pentagon hrozí závažnými následky.

Emil Michael, vysoce postavený představitel Pentagonu, který zastává roli faktického ředitele pro technologie, situaci shrnul slovy: "Musíte svěřit své armádě, že udělá správnou věc." Na sociální síti X napadl šéfa Anthropicu Daria Amodeiho a označil ho za "lháře s komplexem Boha", který "chce osobně kontrolovat americkou armádu a je ochoten ohrozit bezpečnost našeho národa."

Proč Anthropic odmítá?

Postoj Anthropicu je jednoznačný a firma ho opakovaně potvrdila i pod tlakem. Generální ředitel Dario Amodei v prohlášení ze čtvrtka 26. února uvedl:

"Tyto hrozby nemění naši pozici: nemůžeme s dobrým svědomím vyhovět jejich požadavku."

Anthropic má dva konkrétní důvody:

1. Frontové AI systémy nejsou dostatečně spolehlivé pro autonomní zbraně

Amodei opakovaně upozorňuje, že současné AI modely -- včetně Claude -- nejsou dostatečně spolehlivé na to, aby samostatně rozhodovaly o nasazení smrtících zbraní. AI modely mohou "halucinovat" (vymýšlet si informace), špatně interpretovat data nebo dělat chyby, které by v kontextu vojenského nasazení mohly mít katastrofální následky. Pokud by AI systém chybně identifikoval cíl, mohlo by to vést ke smrti nevinných lidí.

2. Hromadné sledování občanů je nepřijatelné

Anthropic odmítá, aby Claude sloužil jako nástroj pro masový dohled nad americkými občany. To je základní etický princip, který firma není ochotna obětovat ani za lukrativní vládní kontrakt.

Anthropic také odmítl kompromisní formulace, které Pentagon nabídl. Firma je označila jako "právnický žargon, který by v praxi umožnil, aby bezpečnostní záruky byly ignorovány." Podle Anthropicu Pentagon ve skutečnosti nestál o skutečný kompromis, ale o formální souhlas, který by zachoval zdání bezpečnostních pravidel, aniž by měla reálný účinek.

Hrozby a ultimátum

Pentagon nehodlá spor pouze vyřešit ukončením kontraktu. Hrozby jdou mnohem dál:

1. Označení jako bezpečnostní riziko v dodavatelském řetězci

Toto označení se tradičně používá pro zahraniční nepřátele -- například čínské firmy jako Huawei. Pokud by Pentagon označil Anthropic jako bezpečnostní riziko, všechny firmy s vojenskými kontrakty by měly zakázáno používat produkty Anthropicu v jakémkoliv svém vojenském projektu. V praxi by to znamenalo, že používání Claude by se stalo vědomým rozhodnutím vzdát se jakékoliv budoucí spolupráce s americkou vládou. Pro Anthropic by to mohlo znamenat ekonomickou katastrofu a ohrožení případného vstupu na burzu.

2. Zákon o obraně výroby (Defense Production Act)

Pentagon hrozí využitím tohoto zákona, který dává vládě pravomoc přikazovat soukromým firmám konat v zájmu národní obrany. Tento zákon byl v minulosti využíván například během pandemie covidu k zajištění výroby zdravotnických potřeb. V případě Anthropicu by mohl být použit k tomu, aby firmě přikázal poskytnout své AI modely armádě bez jakýchkoliv omezení -- bez ohledu na to, zda s tím Anthropic souhlasí.

Odborníci však upozorňují, že použití tohoto zákona tímto způsobem by bylo bezprecedentní a právně napadnutelné.

3. Ztráta kontraktu za 200 milionů dolarů

Nejpřímočařejší hrozbou je samotné zrušení kontraktu, což by pro Anthropic znamenalo ztrátu jednoho z nejvýznamnějších zákazníků a přístupu k vojenským utajovaným systémům.

Co to znamená pro bezpečnost AI?

Tento spor přesahuje americké hranice a má dalekosáhlé důsledky pro celý svět. Jde o základní otázku: Kdo rozhoduje o tom, jak se bude umělá inteligence používat?

Otázka lidského dohledu nad AI

V současnosti žádná mezinárodní dohoda nestanoví jasná pravidla pro používání AI ve vojenství. Organizace spojených národů o tomto tématu jedná, ale žádné závazné dohody nebyly uzavřeny. Spor mezi Pentagonem a Anthropicem ukazuje, jak naléhavá tato otázka je.

Pokud by Anthropic ustoupil, vytvořil by precedent, že vlády mohou technologickým firmám přikázat, aby odstranily bezpečnostní mechanismy ze svých AI systémů. To by mohlo mít dopad na celý svět -- včetně autoritářských režimů, které by mohly argumentovat stejným způsobem.

Problém spolehlivosti AI

Dario Amodei neříká, že armáda by nikdy neměla používat AI. Říká, že současné AI systémy prostě nejsou dostatečně spolehlivé na to, aby samostatně rozhodovaly o životě a smrti. AI modely dělají chyby -- někdy subtilní, někdy fatální. V civilním světě to může znamenat špatnou odpověď na otázku. Ve vojenském kontextu to může znamenat smrt nevinných lidí.

Precedent pro budoucnost

To, jak se tento spor vyřeší, pravděpodobně ovlivní vztah mezi vládami a AI firmami na dalších deset let. Pokud Pentagon donutí Anthropic ustoupit, ostatní vlády na světě budou vědět, že mohou technologické firmy zastrašit do podřízení. Pokud Anthropic obstojí, stane se symbolem toho, že bezpečnostní principy mohou být dodrženy i pod extrémním tlakem.

Jak se chovají ostatní technologické firmy?

Anthropic v tomto sporu stojí prakticky osamoceně. Ostatní velké technologické firmy už dávno přišly na to, že vojenské kontrakty jsou lukrativní obchod -- a bezpečnostní omezení upravily podle toho.

OpenAI

Firma, která vyvinula ChatGPT, původně měla v podmínkách používání výslovný zákaz vojenského využití. Na začátku roku 2024 však tento zákaz tiše odstranila. V březnu 2025 OpenAI revidovalo své základní hodnoty a vojenské nasazení explicitně povolilo. Firma nyní má vlastní kontrakt s Pentagonem v hodnotě 200 milionů dolarů.

Google

Google upravil svůj rámec pro bezpečnost AI tak, aby naznačoval, že bude dodržovat bezpečnostní směrnice pouze v případě, že podobná opatření přijmou i konkurenti. Tím de facto podmínil své bezpečnostní principy trhem -- pokud ostatní omezení odstraní, Google udělá totéž.

Meta (Facebook)

Meta aktivně nabízí své AI modely pro vojenské účely a prezentuje se jako partner amerických ozbrojených sil.

Microsoft

Jako dlouholetý dodavatel vojenských technologií Microsoft není přímo součástí tohoto sporu, ale prostřednictvím své cloudové platformy Azure umožňuje mnoho z těchto partnerství.

Emil Michael z Pentagonu tuto situaci shrnul slovy, že je "nedemokratické", aby jedna firma kladla omezení nad to, co schválil Kongres. Pentagon argumentuje, že pokud všichni ostatní dodavatelé spolupracují bez omezení, Anthropic nemá právo být výjimkou.

Proč by vás to mělo zajímat?

Možná si říkáte: "Jsem v České republice, používám Claude k psaní e-mailů a učení se angličtiny. Co mě zajímá, co dělá Pentagon?" Odpověď je jednodušší, než se zdá.

1. Ovlivňuje to AI, které používáte každý den

Pokud Anthropic pod tlakem Pentagonu změní své bezpečnostní zásady, ovlivní to všechny uživatele Claude po celém světě -- včetně vás. Bezpečnostní mechanismy, které chrání před škodlivým obsahem, by mohly být oslabeny.

2. Určuje to směr vývoje AI v Evropě

Evropská unie připravila vlastní regulaci umělé inteligence (AI Act), která vstupuje v platnost postupně. Pokud americká vláda tlačí firmy k odstranění bezpečnostních záruk, vzniká napětí mezi americkým a evropským přístupem k AI. Česká republika jako člen EU je přímo součástí tohoto regulačního prostředí.

3. Jde o základní otázku lidských práv

Hromadné sledování občanů pomocí AI není teoretický problém. Je to reálná hrozba, která se může týkat jakékoliv země. Pokud americká armáda získá právo používat AI bez omezení pro sledování svých občanů, otevírá to dveře podobným praktikám kdekoliv na světě.

4. Ukazuje to, co je v sázce při komercializaci AI

Tento spor je také učebnicovým příkladem dilematu, kterému čelí všechny AI firmy: mají firmy stanovit etické hranice pro používání svých produktů, nebo mají pouze dodržovat zákony a nechat rozhodování na zákaznících? Odpověď na tuto otázku ovlivní, jak bude AI regulována globálně.

5. Typ AI modelu, který bude dominovat

Pokud firmy, které staví bezpečnost na první místo, budou za to trestány ztrátou kontraktů a označením za bezpečnostní riziko, vysílá to jasný signál celému průmyslu: bezpečnost se nevyplácí. To by mohlo vést k závodu ke dnu, kde firmy budou soutěžit o to, která nabídne co nejméně omezený AI systém.

Širší kontext: Trumpova administrativa a regulace AI

Je důležité zasadit tento spor do širšího politického kontextu. Administrativa prezidenta Donalda Trumpa se stavěla kriticky k regulaci umělé inteligence. Na rozdíl od Bidenovy administrativy, která v roce 2023 vydala výkonný příkaz ke stanovení bezpečnostních standardů pro AI, Trumpova administrativa upřednostňuje deregulaci a volný trh.

Ministr obrany Pete Hegseth veřejně prohlásil, že armáda nebude používat AI modely, "které vám nepovolí vést války." Toto prohlášení jasně naznačuje, že Pentagon vnímá bezpečnostní omezení AI jako překážku vojenské efektivity.

Pentagon také argumentuje, že americký Kongres již schválil zákony upravující vojenské použití technologií, a že soukromé firmy nemají právo přidávat další omezení nad rámec těchto zákonů. Tento argument však má svou slabinu -- zákony o AI použití ve vojenství jsou minimální a nepamatují na mnoho scénářů, které současné AI systémy umožňují.

Závěr

Spor mezi Pentagonem a společností Anthropic je mnohem víc než obchodní neshodou o podmínkách kontraktu. Je to první velký test toho, zda technologické firmy mohou -- a mají -- udržet etické standardy v oblasti umělé inteligence, i když na ně tlačí nejmocnější armáda světa.

Dario Amodei a Anthropic staví svou reputaci na principu, že bezpečnost AI není volitelný bonus, ale základní nutnost. Pentagon argumentuje, že v otázkách národní bezpečnosti musí mít poslední slovo vláda, nikoliv soukromé firmy.

Bez ohledu na to, jak tento konkrétní spor dopadne, jeho důsledky budeme pociťovat dlouho. Vytváří precedent pro vztah mezi vládami a AI firmami po celém světě. Pro nás v České republice je to připomínka, že otázky bezpečnosti umělé inteligence nejsou abstraktní akademické debaty -- jsou to reálná rozhodnutí, která ovlivňují technologie, které každý den používáme.

Situaci budeme na ZačínámSAI.cz pozorně sledovat a informovat vás o dalším vývoji.


Článek byl publikován 27. února 2026. Informace vycházejí z reportáží CNN, NPR, Axios, CBS News, Bloomberg a dalších zdrojů.

Tým začínámsAI.cz

Specializujeme se na praktické návody pro AI nástroje

Publikováno 27. 2. 2026
Sdílejte článek:

Co dál po přečtení?

Rozšiřte si znalosti o AI nástrojích a praktických technikách.

Související nástroje

Claude.AI

Inteligentní asistent od Anthropic s výjimečnými schopnostmi pro psaní, analýzu a kreativní tvorbu.

Související články

Notion Custom Agents: Autonomní AI asistenti, kteří pracují za vás 24 hodin denně

Notion představil Custom Agents – autonomní AI agenty, které si nastavíte v běžné češtině, přidělíte jim úkol a oni pracují nonstop. Vysvětlíme, co umí, jak je vytvořit a proč mění pravidla produktivity.

Pika Labs AI Selves: Vytvořte si digitálního dvojníka, který mluví a jedná za vás

Pika Labs představila AI Selves – revoluční nástroj, který vám umožní vytvořit digitálního dvojníka s vaší tváří, hlasem a osobností. Naučte se, jak funguje a proč mění pravidla hry.

Seedance 2.0: Umělá inteligence od ByteDance, která vytváří realistická videa i se zvukem

Seedance 2.0 od ByteDance je nový AI nástroj, který dokáže z textu nebo obrázku vytvořit realistické video i se zvukem. Vysvětlíme vám, jak funguje, proč vyděsil Hollywood a jak ho můžete vyzkoušet.