Anthropic vs Pentagon

Začiatkom marca 2026 sa rozpútal jeden z najvýznamnejších konfliktov medzi AI firmou a americkou vládou. Minister obrany Pete Hegseth označil Anthropic ako "supply chain risk" pre národnú bezpečnosť USA. Dôvodom? Anthropic odmietol odstrániť dve výnimky zo svojej politiky spolupráce s armádou — zákaz plne autonómnych zbraní a masového domáceho sledovania.


Chronológia udalostí

Pozadie: Spolupráca s Pentagonom

Anthropic spolupracoval s Ministerstvom obrany (Department of War) na viacerých projektoch:

  • Spravodajská analýza (intelligence analysis)
  • Modelovanie a simulácie
  • Operačné plánovanie
  • Kybernetické operácie

Spolupráca fungovala dobre a Anthropic bol na ňu hrdý. Jediné podmienky boli dve výnimky: Claude sa nesmel používať pre plne autonómne zbrane a masové domáce sledovanie.

4. marec 2026: Eskalácia

V rýchlom slede sa udiali tri veci:

  1. Trump na Truth Social oznámil, že Anthropic bude odstránené zo všetkých federálnych systémov
  2. Hegseth na X oznámil designáciu Anthropic ako "supply chain risk"
  3. Pentagon oznámil dohodu s OpenAI — ktorú aj samotný OpenAI neskôr označil za "confusing"

5. marec 2026: Officiálny list

Anthropic dostal oficiálny list od Department of War potvrdzujúci designáciu ako supply chain risk podľa 10 USC 3252.

Dario Amodei: Memo zamestnancom

CEO Dario Amodei napísal interné memo zamestnancom, ktoré uniklo do médií. Amodei sa za tón memo neskôr ospravedlnil — bolo napísané v stresovej situácii, niekoľko hodín po Trumpovom a Hegsethom oznámení. Kľúčové body:

  • Anthropic odmietol ustúpiť zo svojich dvoch výnimiek
  • Firma sa odmietla podlizovať Trumpovej administratíve
  • Amodei zdôraznil, že memo nereflektuje jeho "careful or considered views"
  • Anthropic neunikol memo úmyselne

Čo je "Supply Chain Risk" designácia

Právny základ: 10 USC 3252

Zákon existuje na ochranu vládneho dodávateľského reťazca, nie na trestanie dodávateľov. Kľúčové aspekty:

Aspekt Detail
Rozsah Úzky — týka sa len priamych kontraktov s DoW
Dopad na zákazníkov Len použitie Claude priamo v rámci DoW kontraktov
Ostatné použitie Neovplyvnené — firmy môžu Claude používať na všetko ostatné
Požiadavka zákona Najmenej reštriktívne opatrenia na ochranu supply chain

Čo to NEZNAMENÁ

  • ❌ Zákaz Claude pre všetkých vládnych dodávateľov
  • ❌ Zákaz Claude pre komerčné použitie
  • ❌ Zákaz Anthropic podnikať v USA
  • ✅ Len obmedzenie priamych DoW kontraktov

Anthropic-ova pozícia

Dario Amodei vo vyhlásení zdôraznil:

"Anthropic has much more in common with the Department of War than we have differences."

Kľúčové body Anthropic-ovej pozície:

  1. Designácia nie je právne opodstatnená — firma ju napadne na súde
  2. Výnimky sú rozumné — týkajú sa len plne autonómnych zbraní a masového sledovania
  3. Spoločný cieľ — obe strany chcú posilniť americkú národnú bezpečnosť
  4. Prechodné obdobie — Anthropic ponúkol modely DoW a bezpečnostnej komunite za nominálnu cenu s pokračujúcou podporou inžinierov
  5. Nie je to o operačnom rozhodovaní — Anthropic nikdy netvrdil, že AI firmy by mali rozhodovať o vojenských operáciách

Širší kontext: AI a politika

Trump vs. Tech

Konflikt medzi Anthropic a Pentagonom je súčasťou širšieho trendu, kde Trumpova administratíva odmeňuje lojálnosť a trestá nezávislosť:

  • OpenAI získalo preferenčnú dohodu s Pentagonom
  • Anthropic bolo potrestané za odmietnutie ustúpiť z etických pozícií
  • Signál pre celý tech priemysel: podlizovanie sa oplatí, princípy bolia

Reakcie defense kontraktorov

Niektorí obranní kontraktori začali opúšťať Claude — nie z technických dôvodov, ale zo strachu pred politickými dôsledkami. Supply chain risk designácia vytvára chilling effect aj nad rámec jej právneho dosahu.

Otázka pre budúcnosť

Spor otvára fundamentálne otázky:

  • Majú AI firmy právo mať etické výnimky v spolupráci s armádou?
  • Kde je hranica medzi národnou bezpečnosťou a politickým tlakom?
  • Čo sa stane, keď vláda trestá firmy za zodpovedné správanie?

Dôsledky pre Anthropic

Krátkodobé

  • Strata priamych DoW kontraktov
  • Právny boj na súde
  • Možná strata niektorých defense zákazníkov (chilling effect)

Dlhodobé

  • Posilnenie reputácie ako principiálnej AI firmy
  • Precedens pre vzťah AI firiem a vlád
  • Potenciálne zmeny po ďalších voľbách

Odchod Caitlin Kalinowski z OpenAI

Stav: marec 2026

Spor medzi AI firmami a Pentagonom dostal nový rozmer, keď Caitlin Kalinowski, vedúca robotiky v OpenAI, zo spoločnosti odišla. Podľa dostupných informácií bol dôvodom jej odchodu nesúhlas s rastúcou angažovanosťou OpenAI v obranných kontraktoch — konkrétne obavy z potenciálneho využitia AI technológií pre "lethal autonomy" (smrtiaca autonómia).

Prečo je to dôležité:

  • Interný odpor v OpenAI: Kalinowski nie je prvou osobou, ktorá odchádza kvôli etickým obavám z vojenskej spolupráce. Signalizuje to rastúce napätie medzi komerčnými záujmami a hodnotami zamestnancov.
  • Kontrast s Anthropic: Zatiaľ čo Anthropic bol potrestaný za odmietnutie ustúpiť z etických pozícií, OpenAI získal preferenčnú dohodu s Pentagonom — no za cenu straty kľúčových ľudí.
  • Otázka "lethal autonomy": Diskusia o tom, či AI systémy môžu byť zapojené do rozhodovania o použití sily bez ľudského dohľadu, je jednou z najdôležitejších etických otázok v AI priemysle.
  • Širší trend: Odchody seniorných zamestnancov kvôli etickým obavám sa stávajú bežným javom v AI firmách, čo môže dlhodobo ovplyvniť schopnosť týchto firiem prilákať top talent.

Zdroje a odkazy


Zhrnutie

Pentagon označil Anthropic ako "supply chain risk" po tom, čo firma odmietla ustúpiť zo svojich dvoch etických výnimiek — zákazu plne autonómnych zbraní a masového domáceho sledovania. Dario Amodei oznámil, že firma designáciu napadne na súde, pričom ponúkol prechodné služby armáde za nominálnu cenu. Spor je precedensom pre vzťah medzi AI firmami a vládami v otázke etiky vs. politickej lojality.