AI Etika
Umelá inteligencia mení svet rýchlejšie, než stihneme premýšľať o dôsledkoch. Etické otázky okolo AI nie sú akademické — priamo ovplyvňujú miliardy ľudí. Tento článok sa pozerá na najdôležitejšie etické výzvy AI z praktického aj filozofického pohľadu.
1. Bias v AI — Predsudky v dátach
AI modely sa učia z dát vytvorených ľuďmi — a ľudia majú predsudky. Výsledkom sú systémy, ktoré reprodukujú a zosilňujú existujúce nerovnosti.
Prípadové štúdie:
- Amazon hiring AI (2018) — systém na výber zamestnancov penalizoval životopisy žien, pretože tréningové dáta obsahovali prevažne mužských kandidátov
- COMPAS (USA) — algoritmus na predikciu recidívy systematicky nadhodnocoval riziko u afroamerických obvinených
- Zdravotný algoritmus (2019) — systém používaný v USA na prideľovanie zdravotnej starostlivosti uprednostňoval bielych pacientov, pretože náklady na liečbu (nie závažnosť ochorenia) boli proxy pre „potrebu"
Typy bias:
- Selection bias — tréningové dáta nereprezentujú populáciu
- Measurement bias — nepresné alebo nekonzistentné meranie
- Confirmation bias — model potvrdzuje existujúce presvedčenia
- Historical bias — dáta odrážajú historickú diskrimináciu
Riešenia:
- Auditovanie datasetov pred tréningom
- Testovanie na rôznych demografických skupinách
- Transparentné metriky fairness
- Diverzita v tímoch, ktoré AI vyvíjajú
2. Transparentnosť a vysvetliteľnosť
Väčšina moderných AI modelov sú „čierne skrinky" — vedia dať odpoveď, ale nevedia vysvetliť prečo. To je problém v oblastiach, kde rozhodnutia menia životy.
Prečo na tom záleží:
- Lekár potrebuje vedieť, prečo AI navrhuje diagnózu
- Súd potrebuje zdôvodniť, prečo bol niekto odmietnutý pre pôžičku
- Občan má právo vedieť, ako o ňom algoritmus rozhodol
Prístupy k vysvetliteľnosti:
- LIME — lokálne vysvetlenie jednotlivých predikcií
- SHAP — dôležitosť features pre konkrétne rozhodnutie
- Attention visualization — čo model „videl" pri rozhodovaní
- Chain-of-thought — model vysvetľuje svoje uvažovanie
Dilema: Najvýkonnejšie modely sú najmenej vysvetliteľné. Existuje trade-off medzi výkonom a transparentnosťou.
3. EU AI Act — Prvá komplexná regulácia
EU AI Act (v platnosti od 2025) je prvý komplexný zákon regulujúci AI na svete. Zavádza risk-based prístup:
| Kategória rizika | Príklady | Požiadavky |
|---|---|---|
| Neprijateľné | Social scoring, manipulácia | Zakázané |
| Vysoké | Zdravotníctvo, súdnictvo, HR | Certifikácia, audit, dokumentácia |
| Obmedzené | Chatboty, deepfakes | Označenie ako AI |
| Minimálne | Spam filtre, hry | Žiadne špeciálne |
Kľúčové požiadavky pre high-risk AI:
- Povinný risk assessment
- Ľudský dohľad (human-in-the-loop)
- Technická dokumentácia a logovanie
- Transparentnosť voči používateľom
- Pokuty do 35 mil. € alebo 7% obratu
Dopad na firmy: Každá firma používajúca AI v EÚ musí klasifikovať svoje systémy a dodržať príslušné požiadavky.
4. Deepfakes — Keď nemôžete veriť vlastným očiam
Deepfakes sú AI-generované videá, audio alebo obrázky, kde ľudia robia alebo hovoria veci, ktoré nikdy nerobili.
Riziká:
- Dezinformácie — falošné videá politikov pred voľbami
- Podvody — deepfake hlas CEO autorizuje prevod peňazí (reálny prípad, 2024: $25 mil.)
- Kyberšikana — pornografické deepfakes bez súhlasu
- Podkopanie dôvery — „liar's dividend" — skutočné záznamy sa dajú odmietnuť ako deepfake
Detekcia a obrana:
- Watermarking — SynthID (Google), C2PA metadata
- Detekčné nástroje — Microsoft Video Authenticator, Sensity
- Legislatíva — EU AI Act vyžaduje označenie AI obsahu
- Mediálna gramotnosť — kritické myslenie pri konzumácii obsahu
5. Copyright a AI
Otázka autorských práv v kontexte AI je jednou z najkomplexnejších právnych výziev súčasnosti.
Kľúčové otázky:
- Tréningové dáta — Je trénovanie na copyrighted dátach fair use?
- Výstupy AI — Kto vlastní obrázok vygenerovaný Midjourney?
- Plagiát vs. transformácia — Kedy AI „kopíruje" a kedy „tvorí"?
Súdne spory (2024-2026):
- NY Times vs. OpenAI — NYT žaluje za trénovanie na článkoch
- Getty vs. Stability AI — za použitie fotografií na tréning
- Autori vs. Meta/OpenAI — skupinová žaloba autorov kníh
Súčasný stav:
- USA — Copyright Office: čisto AI výstupy nie sú copyrightovateľné
- EU — AI Act požaduje transparentnosť ohľadom tréningových dát
- Opt-out mechanizmy — niektoré platformy umožňujú autorom vylúčiť svoje diela
6. Zodpovedné používanie AI
Princípy zodpovedného AI:
- Transparentnosť — povedzte ľuďom, keď interagujú s AI
- Ľudský dohľad — AI navrhuje, človek schvaľuje (v kritických oblastiach)
- Ochrana súkromia — minimalizujte zber osobných dát
- Inkluzivita — testujte na diverzných skupinách
- Zodpovednosť — jasné určenie, kto je zodpovedný za AI rozhodnutia
Praktické rady:
- Nepoužívajte AI na rozhodnutia, kde zlyhanie ohrozuje životy — bez ľudského overenia
- Buďte transparentní — ak AI generovalo text, povedzte to
- Chráňte dáta — neposkytujte citlivé informácie do verejných AI chatov
- Overujte výstupy — AI konfabuluje (hallucinates), vždy fact-checkujte
7. Kedy AI zlyhala — Poučné príbehy
| Rok | Prípad | Čo sa stalo | Poučenie |
|---|---|---|---|
| 2016 | Microsoft Tay | Chatbot sa naučil rasistické výroky za 24h | Guardrails sú nevyhnutné |
| 2018 | Uber autonómne auto | Smrteľná nehoda — systém nerozpoznal chodkyňu | Human-in-the-loop je kritický |
| 2020 | UK A-level algoritmus | AI znížil známky študentom z chudobnejších oblastí | Historický bias v dátach |
| 2023 | Lawyer + ChatGPT | Právnik citoval neexistujúce prípady z ChatGPT | Vždy overujte AI výstupy |
| 2024 | Air Canada chatbot | AI sľúbil zľavu, ktorá neexistovala — súd dal za pravdu zákazníkovi | AI = zodpovednosť firmy |
8. Filozofický pohľad
Otázky, na ktoré nemáme odpovede:
- Vedomie — Môže AI niekedy „cítiť"? Ak áno, aké má práva?
- Autonómia — Koľko rozhodnutí by sme mali delegovať na AI?
- Nerovnosť — AI zvyšuje produktivitu — ale komu idú zisky?
- Existenčné riziko — Je superinteligencia reálna hrozba?
- Ľudskosť — Ak AI píše básne, diagnostikuje choroby a skladá hudbu — čo zostáva výlučne ľudské?
Dva filozofické tábory:
- AI optimisti (Dario Amodei, Marc Andreessen) — AI je nástroj, ktorý vyrieši veľké problémy ľudstva
- AI pesimisti (Eliezer Yudkowsky, Geoffrey Hinton) — bez extrémnej opatrnosti riskujeme stratu kontroly
Stredná cesta: Väčšina expertov sa zhoduje, že AI je mocný nástroj, ktorý potrebuje múdru reguláciu, transparentnosť a ľudský dohľad.
9. Záver
AI etika nie je luxus — je to nevyhnutnosť. Ako spoločnosť musíme riešiť bias, transparentnosť, copyright a bezpečnosť teraz, kým je AI ešte pod našou kontrolou. Najdôležitejší krok je informovanosť — čím viac ľudí rozumie rizikám a príležitostiam AI, tým lepšie rozhodnutia urobíme.
Odporúčané ďalšie čítanie: Constitutional AI, Guardrails, Human-in-the-Loop, Anthropic vs Pentagon