DOGE a ChatGPT
DOGE (Department of Government Efficiency) pod vedením Elona Muska použil ChatGPT na analýzu a systematické rušenie štátnych grantov v hodnote miliárd dolárov. Tento bezprecedentný krok — kde AI model rozhoduje (alebo pomáha rozhodovať) o osude vedeckého výskumu, sociálnych programov a neziskových organizácií — vyvolal jednu z najväčších kontroverzií na priesečníku AI a verejnej politiky.
1. Čo sa stalo
Po nástupe Donalda Trumpa do úradu v januári 2025 bol DOGE poverený „zefektívnením" federálneho rozpočtu. Jednou z hlavných aktivít bolo prehodnotenie existujúcich štátnych grantov — financovania vedeckého výskumu, zdravotníckych programov, vzdelávacích iniciatív a sociálnych služieb.
Postup:
- DOGE získal prístup k databázam federálnych grantov
- Grantové žiadosti a popisy boli hromadne spracované cez ChatGPT
- AI model hodnotil granty podľa kritérií ako „efektivita", „relevancia" a „priorita"
- Na základe AI hodnotenia boli granty označené na zrušenie alebo zníženie
- Tisíce grantov boli zrušené alebo zmrazené — často bez individuálneho ľudského preskúmania
Rozsah:
- Ovplyvnené granty v hodnote desiatok miliárd dolárov
- Tisíce výskumných projektov, neziskových organizácií a programov
- Oblasti: zdravotnícky výskum (NIH), veda (NSF), vzdelávanie, sociálne služby, klimatický výskum
2. Ako bol ChatGPT použitý
Na základe dostupných informácií DOGE používal ChatGPT na:
- Sumarizáciu grantov — automatické zhrnutia tisícov žiadostí
- Kategorizáciu — zaradenie grantov podľa témy a priority
- Hodnotenie relevantnosti — AI skóre „užitočnosti" grantu
- Identifikáciu „duplicít" — hľadanie prekrývajúcich sa programov
- Generovanie odôvodnení — texty vysvetľujúce prečo bol grant zrušený
Problém: ChatGPT nie je nástroj na hodnotenie vedeckého výskumu. Je to jazykový model, ktorý:
- Nemá prístup k aktuálnym vedeckým dátam a citáciám
- Nerozumie nuancám grantového procesu
- Nepozná kontext — prečo bol grant schválený, aké výsledky priniesol
- Generuje presvedčivo znejúce, ale potenciálne nesprávne hodnotenia
3. Konkrétne prípady
Zdravotnícky výskum (NIH):
- Zrušené granty na výskum rakoviny, HIV, zriedkavých chorôb
- AI označil niektoré projekty ako „nízka priorita" bez pochopenia ich vedeckého významu
- Výskumníci s rozbehnutými klinickými štúdiami prišli o financovanie uprostred experimentov
Klimatický výskum:
- Systematické zrušenie grantov na klimatickú vedu
- Kritici argumentujú, že toto nebolo „efektivita" ale politické rozhodnutie maskované AI
- AI poskytol zdanlivú objektivitu politicky motivovanému procesu
Sociálne programy:
- Programy na pomoc bezdomovcom, mentálne zdravie, detskú výživu
- AI hodnotil „efektivitu" bez pochopenia sociálneho kontextu
- Niektoré programy zrušené napriek preukázateľným výsledkom
4. Etické otázky
AI ako štít pre politické rozhodnutia:
- Najvážnejšia kritika: DOGE použil AI na legitimizáciu rozhodnutí, ktoré boli politicky motivované
- „AI to odporučil" znie objektívnejšie než „rozhodli sme sa zrušiť klimatický výskum"
- Algoritmické rozhodovanie vytvára ilúziu nestrannosti
Transparentnosť:
- Aké prompty boli použité? Aké kritériá? Aký model?
- DOGE odmietol zverejniť detaily AI procesu
- Bez transparentnosti nie je možný audit ani odvolanie
Due process:
- Príjemcovia grantov nemali možnosť odpovedať na AI hodnotenie
- Žiadny formálny odvolací proces
- Rozhodnutia za miliardy dolárov bez individuálneho preskúmania
Kompetentnosť:
- ChatGPT nie je navrhnutý na hodnotenie vedeckého výskumu
- Použitie generického LLM na špecializované rozhodovanie je ako použiť kalkulačku na diagnostiku pacienta
- AI konfabulácie (hallucinations) v takýchto rozhodnutiach sú nebezpečné
Konflikt záujmov:
- Elon Musk vlastní xAI (Grok) — priameho konkurenta OpenAI
- Používanie ChatGPT na vládne rozhodovanie vytvára otázky o výbere technológie
- Musk má finančné záujmy, ktoré môžu byť v konflikte s objektívnym hodnotením
5. Reakcie
Vedecká komunita:
- Masívne protesty organizácií ako AAAS, American Chemical Society a ďalších
- Petícia s desaťtisícami podpisov výskumníkov
- Niektorí špičkoví vedci odišli z USA do Európy a Kanady (brain drain)
Právne kroky:
- Viacero žalôb spochybňujúcich legálnosť procesu
- Súdy v niektorých prípadoch nariadili obnovenie grantov
- Otázka: je AI-asistované rozhodovanie o verejných fondoch legálne bez due process?
Technologická komunita:
- OpenAI sa dištancovalo — ChatGPT nebol navrhnutý na takéto použitie
- Odborníci na AI etiku varovali pred nebezpečným precedensom
- Debata o zodpovednosti: poskytovateľ AI vs. užívateľ AI
Politická reakcia:
- Demokrati kritizovali proces ako zneužitie AI
- Niektorí republikáni podporovali „efektivitu"
- Bipartizánne obavy o precedens pre budúce administratívy
6. Širšie implikácie
Tento prípad otvára zásadné otázky:
- Má AI rozhodovať o verejných fondoch? — Ak áno, za akých podmienok?
- Aká transparentnosť je potrebná? — Minimálne: zverejnenie promptov, kritérií a modelu
- Kto nesie zodpovednosť? — AI model? Operátor? Politický líder?
- Precedens — ak je OK použiť AI na granty, čo ďalšie? Dane? Sociálne dávky? Trestné stíhanie?
- Regulácia — potrebujeme špecifickú legislatívu pre AI vo verejnej správe?
7. Poučenie pre AI komunitu
- AI nie je neutrálny — obsahuje biasy tréningových dát a je formovaný promptami
- Kontext je kľúčový — generický LLM nemôže nahradiť doménovú expertízu
- Transparentnosť je nevyhnutná — najmä pri rozhodnutiach ovplyvňujúcich ľudí
- Human-in-the-loop — pri vysokorizikovom rozhodovaní musí byť človek nielen „in the loop", ale zodpovedný
- Zneužiteľnosť — každý mocný nástroj sa dá zneužiť; AI komunita musí aktívne bojovať proti zneužívaniu
Zhrnutie
Prípad DOGE a ChatGPT je varovným príbehom o tom, čo sa stane, keď sa AI použije na rozhodovanie bez správnych guardrails, transparentnosti a ľudského dohľadu. Nie je to zlyhanie technológie — ChatGPT robil to, na čo bol požiadaný. Je to zlyhanie procesu a zodpovednosti. Ako sa AI stáva mocnejším, otázky okolo jeho použitia vo verejnej správe sa stanú jednou z najdôležitejších tém najbližších rokov.