Anthropic vs Pentagon
Začiatkom marca 2026 sa rozpútal jeden z najvýznamnejších konfliktov medzi AI firmou a americkou vládou. Minister obrany Pete Hegseth označil Anthropic ako "supply chain risk" pre národnú bezpečnosť USA. Dôvodom? Anthropic odmietol odstrániť dve výnimky zo svojej politiky spolupráce s armádou — zákaz plne autonómnych zbraní a masového domáceho sledovania.
Chronológia udalostí
Pozadie: Spolupráca s Pentagonom
Anthropic spolupracoval s Ministerstvom obrany (Department of War) na viacerých projektoch:
- Spravodajská analýza (intelligence analysis)
- Modelovanie a simulácie
- Operačné plánovanie
- Kybernetické operácie
Spolupráca fungovala dobre a Anthropic bol na ňu hrdý. Jediné podmienky boli dve výnimky: Claude sa nesmel používať pre plne autonómne zbrane a masové domáce sledovanie.
4. marec 2026: Eskalácia
V rýchlom slede sa udiali tri veci:
- Trump na Truth Social oznámil, že Anthropic bude odstránené zo všetkých federálnych systémov
- Hegseth na X oznámil designáciu Anthropic ako "supply chain risk"
- Pentagon oznámil dohodu s OpenAI — ktorú aj samotný OpenAI neskôr označil za "confusing"
5. marec 2026: Officiálny list
Anthropic dostal oficiálny list od Department of War potvrdzujúci designáciu ako supply chain risk podľa 10 USC 3252.
Dario Amodei: Memo zamestnancom
CEO Dario Amodei napísal interné memo zamestnancom, ktoré uniklo do médií. Amodei sa za tón memo neskôr ospravedlnil — bolo napísané v stresovej situácii, niekoľko hodín po Trumpovom a Hegsethom oznámení. Kľúčové body:
- Anthropic odmietol ustúpiť zo svojich dvoch výnimiek
- Firma sa odmietla podlizovať Trumpovej administratíve
- Amodei zdôraznil, že memo nereflektuje jeho "careful or considered views"
- Anthropic neunikol memo úmyselne
Čo je "Supply Chain Risk" designácia
Právny základ: 10 USC 3252
Zákon existuje na ochranu vládneho dodávateľského reťazca, nie na trestanie dodávateľov. Kľúčové aspekty:
| Aspekt | Detail |
|---|---|
| Rozsah | Úzky — týka sa len priamych kontraktov s DoW |
| Dopad na zákazníkov | Len použitie Claude priamo v rámci DoW kontraktov |
| Ostatné použitie | Neovplyvnené — firmy môžu Claude používať na všetko ostatné |
| Požiadavka zákona | Najmenej reštriktívne opatrenia na ochranu supply chain |
Čo to NEZNAMENÁ
- ❌ Zákaz Claude pre všetkých vládnych dodávateľov
- ❌ Zákaz Claude pre komerčné použitie
- ❌ Zákaz Anthropic podnikať v USA
- ✅ Len obmedzenie priamych DoW kontraktov
Anthropic-ova pozícia
Dario Amodei vo vyhlásení zdôraznil:
"Anthropic has much more in common with the Department of War than we have differences."
Kľúčové body Anthropic-ovej pozície:
- Designácia nie je právne opodstatnená — firma ju napadne na súde
- Výnimky sú rozumné — týkajú sa len plne autonómnych zbraní a masového sledovania
- Spoločný cieľ — obe strany chcú posilniť americkú národnú bezpečnosť
- Prechodné obdobie — Anthropic ponúkol modely DoW a bezpečnostnej komunite za nominálnu cenu s pokračujúcou podporou inžinierov
- Nie je to o operačnom rozhodovaní — Anthropic nikdy netvrdil, že AI firmy by mali rozhodovať o vojenských operáciách
Širší kontext: AI a politika
Trump vs. Tech
Konflikt medzi Anthropic a Pentagonom je súčasťou širšieho trendu, kde Trumpova administratíva odmeňuje lojálnosť a trestá nezávislosť:
- OpenAI získalo preferenčnú dohodu s Pentagonom
- Anthropic bolo potrestané za odmietnutie ustúpiť z etických pozícií
- Signál pre celý tech priemysel: podlizovanie sa oplatí, princípy bolia
Reakcie defense kontraktorov
Niektorí obranní kontraktori začali opúšťať Claude — nie z technických dôvodov, ale zo strachu pred politickými dôsledkami. Supply chain risk designácia vytvára chilling effect aj nad rámec jej právneho dosahu.
Otázka pre budúcnosť
Spor otvára fundamentálne otázky:
- Majú AI firmy právo mať etické výnimky v spolupráci s armádou?
- Kde je hranica medzi národnou bezpečnosťou a politickým tlakom?
- Čo sa stane, keď vláda trestá firmy za zodpovedné správanie?
Dôsledky pre Anthropic
Krátkodobé
- Strata priamych DoW kontraktov
- Právny boj na súde
- Možná strata niektorých defense zákazníkov (chilling effect)
Dlhodobé
- Posilnenie reputácie ako principiálnej AI firmy
- Precedens pre vzťah AI firiem a vlád
- Potenciálne zmeny po ďalších voľbách
Odchod Caitlin Kalinowski z OpenAI
Stav: marec 2026
Spor medzi AI firmami a Pentagonom dostal nový rozmer, keď Caitlin Kalinowski, vedúca robotiky v OpenAI, zo spoločnosti odišla. Podľa dostupných informácií bol dôvodom jej odchodu nesúhlas s rastúcou angažovanosťou OpenAI v obranných kontraktoch — konkrétne obavy z potenciálneho využitia AI technológií pre "lethal autonomy" (smrtiaca autonómia).
Prečo je to dôležité:
- Interný odpor v OpenAI: Kalinowski nie je prvou osobou, ktorá odchádza kvôli etickým obavám z vojenskej spolupráce. Signalizuje to rastúce napätie medzi komerčnými záujmami a hodnotami zamestnancov.
- Kontrast s Anthropic: Zatiaľ čo Anthropic bol potrestaný za odmietnutie ustúpiť z etických pozícií, OpenAI získal preferenčnú dohodu s Pentagonom — no za cenu straty kľúčových ľudí.
- Otázka "lethal autonomy": Diskusia o tom, či AI systémy môžu byť zapojené do rozhodovania o použití sily bez ľudského dohľadu, je jednou z najdôležitejších etických otázok v AI priemysle.
- Širší trend: Odchody seniorných zamestnancov kvôli etickým obavám sa stávajú bežným javom v AI firmách, čo môže dlhodobo ovplyvniť schopnosť týchto firiem prilákať top talent.
Zdroje a odkazy
- Anthropic: Where things stand with the Department of War
- Anthropic: Statement on comments from Secretary of War
- 10 USC 3252 — Supply chain risk
Zhrnutie
Pentagon označil Anthropic ako "supply chain risk" po tom, čo firma odmietla ustúpiť zo svojich dvoch etických výnimiek — zákazu plne autonómnych zbraní a masového domáceho sledovania. Dario Amodei oznámil, že firma designáciu napadne na súde, pričom ponúkol prechodné služby armáde za nominálnu cenu. Spor je precedensom pre vzťah medzi AI firmami a vládami v otázke etiky vs. politickej lojality.