EU AI Act — Európa píše pravidlá pre umelú inteligenciu

Európska únia urobila v roku 2024 historický krok: schválila AI Act — prvý komplexný zákon na svete, ktorý reguluje umelú inteligenciu. Od februára 2025 začali platiť prvé ustanovenia a do augusta 2026 budú účinné takmer všetky. Čo to znamená pre vývojárov, firmy a bežných používateľov?

Prečo regulovať AI?

Umelá inteligencia nie je len chatbot, ktorý píše básničky. AI systémy dnes:

  • Rozhodujú o pôžičkách — kto dostane hypotéku a kto nie
  • Triedia životopisy — kto sa dostane na pohovor
  • Diagnostikujú choroby — čo ukáže röntgen
  • Monitorujú verejný priestor — kamerové systémy s rozpoznávaním tvárí
  • Ovplyvňujú spravodajstvo — čo sa ti zobrazí v newsfeed

Keď AI robí chyby v týchto oblastiach, dôsledky sú reálne: odmietnutá pôžička, prehliadnutý nádor, nespravodlivé prepustenie. EÚ sa rozhodla, že takéto systémy potrebujú pravidlá.

Pyramída rizika

AI Act kategorizuje AI systémy podľa úrovne rizika. Čím vyššie riziko, tým prísnejšie pravidlá.

🔴 Zakázané systémy (Neprijateľné riziko)

Niektoré aplikácie AI sú v EÚ úplne zakázané:

  • Social scoring — hodnotenie občanov na základe správania (ako čínsky systém sociálneho kreditu)
  • Masové biometrické sledovanie v reálnom čase na verejných priestranstvách (s výnimkami pre políciu pri závažných trestných činoch)
  • Manipulatívne techniky — AI systémy navrhnuté na podprahové ovplyvňovanie ľudí
  • Emocionálne rozpoznávanie na pracovisku a v školách
  • Prediktívne policajné profilovanie jednotlivcov na základe osobných charakteristík

Tieto zákazy platia od februára 2025.

🟠 Vysokorizikové systémy

Systémy, ktoré majú významný dopad na ľudí, musia spĺňať prísne požiadavky:

Oblasti:

  • Biometrická identifikácia
  • Kritická infraštruktúra (energetika, doprava, voda)
  • Vzdelávanie (prijímacie konania, hodnotenie)
  • Zamestnanosť (nábor, hodnotenie výkonu)
  • Prístup k službám (úvery, poistenie, sociálne dávky)
  • Presadzovanie práva
  • Migrácia a hraničná kontrola
  • Správa spravodlivosti

Požiadavky:

  • Hodnotenie rizík pred uvedením na trh
  • Kvalitné tréningové dáta — dokumentované, bez diskriminačných biasov
  • Transparentnosť — ľudia musia vedieť, že interagujú s AI
  • Ľudský dohľad — možnosť zásahu človeka
  • Technická dokumentácia — detailný popis systému
  • Logging — zaznamenávanie rozhodnutí pre audit
  • Registrácia v EU databáze vysokorizikových AI systémov

🟡 Obmedzené riziko — Povinnosť transparentnosti

Sem patria systémy ako chatboty a deepfakes. Hlavná požiadavka: používateľ musí vedieť, že interaguje s AI alebo že obsah bol vygenerovaný AI.

Konkrétne:

  • Chatboty musia informovať, že odpoveď generuje AI
  • AI-generovaný obsah (text, obraz, video) musí byť označený — technicky (watermark) aj viditeľne
  • Deepfake videá musia byť jasne identifikované

🟢 Minimálne riziko

Väčšina AI systémov spadá sem — spamové filtre, odporúčacie systémy v hrách, AI v priemyselnej automatizácii. Na tieto sa AI Act prakticky nevzťahuje.

GPAI — Pravidlá pre veľké modely

AI Act zavádza špeciálnu kategóriu pre General-Purpose AI (GPAI) — veľké základné modely ako GPT, Claude, Gemini alebo Llama.

Povinnosti pre všetky GPAI modely:

  • Technická dokumentácia — opis architektúry, tréningu, hodnotenia
  • Informácie o tréningových dátach — vrátane súladu s autorskými právami
  • Pravidlá používania pre downstream vývojárov
  • Súhrnná správa o tréningových dátach

Dodatočné povinnosti pre modely so „systémovým rizikom":

Model má systémové riziko, ak jeho tréning prekročil 10²⁵ FLOP výpočtového výkonu (alebo ak ho Komisia označí). To zahŕňa najväčšie modely od OpenAI, Google, Anthropic a Meta.

Tieto modely musia navyše:

  • Vykonať adversariálne testovanie (red teaming)
  • Sledovať a hlásiť závažné incidenty
  • Zabezpečiť primeranú kybernetickú bezpečnosť
  • Reportovať energetickú spotrebu

Časový harmonogram

Dátum Čo nadobúda účinnosť
Február 2025 Zákazy (neprijateľné riziko)
August 2025 Povinnosti pre GPAI modely, pokuty
August 2026 Väčšina ustanovení vrátane vysokorizikových systémov
August 2027 Plná účinnosť pre všetky systémy

Pokuty

AI Act má zuby. Pokuty sú navrhnuté tak, aby boleli aj najväčšie technologické firmy:

  • Porušenie zákazov: do 35 miliónov € alebo 7% celosvetového obratu
  • Nesúlad s požiadavkami: do 15 miliónov € alebo 3% obratu
  • Poskytnutie nepravdivých informácií: do 7,5 milióna € alebo 1,5% obratu

Pre porovnanie: 7% obratu Googlu by bolo viac ako 20 miliárd dolárov.

Ako to ovplyvní bežného používateľa?

Pozitíva

  • Viac transparentnosti — budeš vedieť, kedy rozhoduje AI
  • Menej diskriminácie — požiadavky na férovosť tréningových dát
  • Právo na vysvetlenie — pri vysokorizikových rozhodnutiach
  • Označený AI obsah — ľahšie rozpoznáš deepfakes

Obavy

  • Spomalenie inovácií — európske startupy môžu byť v nevýhode
  • Compliance náklady — menšie firmy nemusia mať kapacity
  • Regulačná arbitráž — firmy sa môžu presunúť mimo EÚ
  • Enforcement — bude EÚ schopná reálne vynucovať pravidlá?

Globálny dopad — „Brussels Effect"

EÚ nie je najväčší AI trh, ale má regulačný vplyv neúmerný svojej veľkosti. Podobne ako GDPR sa stalo de facto globálnym štandardom pre ochranu dát, AI Act môže nastaviť globálne normy pre reguláciu AI.

Už teraz pozorujeme:

  • USA zvažuje federálnu AI reguláciu inšpirovanú AI Act
  • Kanada pripravuje AIDA (Artificial Intelligence and Data Act)
  • Brazília a India študujú európsky model
  • Veľké tech firmy implementujú AI Act požiadavky globálne — je lacnejšie mať jeden štandard

Kritika

AI Act nie je bez kontroverzií:

  • Príliš široký: Niektorí tvrdia, že reguluje aj neškodné aplikácie
  • Príliš úzky: Iní poukazujú na medzery, napríklad vojenské AI systémy sú vyňaté
  • Zastaraný pri schválení: Regulácia nevie držať krok s tempom inovácií
  • Open-source výnimka: GPAI povinnosti sú miernejšie pre open-source modely — je to správne?

Čo to znamená pre vývojárov?

Ak vyvíjaš AI systémy pre európsky trh:

  1. Klasifikuj svoj systém podľa úrovne rizika
  2. Dokumentuj tréningové dáta, architektúru a hodnotenia
  3. Implementuj požadované bezpečnostné opatrenia
  4. Registruj vysokorizikové systémy
  5. Monitoruj výkon a hláš incidenty

Pre väčšinu vývojárov (hry, odporúčacie systémy, kreatívne nástroje) bude dopad minimálny. Ale ak tvoj AI systém rozhoduje o ľuďoch — priprav sa na papierovanie.

AI Act nie je dokonalý. Je to prvý pokus regulovať niečo, čo sa mení rýchlejšie než legislatívny proces. Ale stanovuje dôležitý princíp: AI musí slúžiť ľuďom, nie naopak. A to je základ, na ktorom sa dá stavať.