AGI (Artificial General Intelligence)

AGI je koncept umelej inteligencie, ktorá dokáže všeobecne riešiť široké spektrum úloh na úrovni človeka (alebo nad ňou) — nielen v jednej úzkej oblasti. Na rozdiel od dnešnej „úzkej AI" (ANI), ktorá exceluje v konkrétnych typoch úloh (jazyk, obraz, odporúčania), by AGI mala vedieť prenášať poznatky medzi doménami, učiť sa nové veci z mála príkladov, plánovať a samostatne konať v nových situáciách.


1. Definícia a kľúčové vlastnosti

  • Všeobecnosť (general-purpose): zvládanie rôznych typov problémov bez špeciálneho pretrénovania na každý z nich.
  • Transfer učenia: to, čo sa naučí v jednej oblasti, vie použiť inde (napr. z logiky → do programovania → do plánovania).
  • Adaptácia v neznámom: rozumné správanie aj pri nových úlohách, kde nemá „naučenú šablónu".
  • Autonómnosť: schopnosť pracovať dlhšie bez neustáleho vedenia — rozložiť cieľ na kroky, kontrolovať výsledky, opravovať chyby.
  • Metakognícia: vedieť posúdiť, čo vie a čo nie, kedy sa opýtať a kedy odmietnuť úlohu.

Dôležité: „AGI" nemá jednu univerzálne prijatú definíciu. V praxi sa používa ako pracovný cieľ (human-level general competence), nie ako presná technická špecifikácia.


2. ANI vs. AGI vs. ASI — porovnanie

Vlastnosť ANI (úzka AI) AGI (všeobecná AI) ASI (superinteligencia)
Rozsah Jedna úloha / doména Ľubovoľná úloha na úrovni človeka Výrazne nad človekom vo všetkých doménach
Príklady dnes AlphaGo, GPT na preklad, DALL-E Neexistuje (zatiaľ) Neexistuje (zatiaľ)
Transfer učenia Žiadny alebo obmedzený Plný cross-domain transfer Plný + schopnosť objavovať nové domény
Učenie Z obrovských datasetov Z mála príkladov + vlastné objavovanie Samozdokonaľovanie bez limitu
Autonómia Potrebuje ľudský dohľad Samostatná práca na komplexných cieľoch Úplná autonómia
Stav vývoja Rutinne nasadená v produkcii Aktívny výskum, odhady: roky–desaťročia Špekulatívny koncept

3. Prístupy k dosiahnutiu AGI

V komunite neexistuje zhoda na tom, ako AGI dosiahnuť. Hlavné smery:

  • Scaling hypothesis (škálovanie):

    • Myšlienka, že stačí zväčšovať modely (parametre, dáta, compute) a všeobecnosť sa „objaví" emergentne.
    • Za: GPT-4, Claude, Gemini ukazujú, že väčšie modely zvládajú viac typov úloh.
    • Proti: samotné škálovanie nerieši kauzálne uvažovanie, dlhodobé plánovanie a spoľahlivosť.
  • Neuro-symbolický prístup:

    • Kombinácia neurónových sietí (intuícia, pattern matching) so symbolickými systémami (logika, pravidlá, ontológie).
    • Za: lepšie formálne uvažovanie, vysvetliteľnosť, konzistencia.
    • Proti: integrácia oboch paradigiem je technicky náročná.
  • Agentic architectures (agentné architektúry):

    • Model + pamäť + nástroje + plánovanie + self-correction v uzavretej slučke.
    • Za: najbližšie k tomu, čo dnes funguje v praxi (Claude Code, Devin, agentné frameworky).
    • Proti: krehké pri dlhých reťazcoch akcií, ťažko sa škáluje spoľahlivosť.
  • World models (modely sveta):

    • Systémy, ktoré si budujú internú simuláciu prostredia a testujú akcie „v hlave" pred realizáciou.
    • Za: lepšie plánovanie, kauzálne uvažovanie, robustnosť.
    • Proti: ako natrénovať presný world model z obmedzenej skúsenosti?
  • Biologicky inšpirované prístupy:

    • Spiking neural networks, Whole Brain Emulation, kognitívne architektúry (ACT-R, SOAR).
    • Za: mozog je dôkaz, že AGI je možná.
    • Proti: nerozumieme mozgu dostatočne na to, aby sme ho vedeli replikovať.

4. Kde sme dnes — cesta k AGI

Aj keď „plná" AGI neexistuje, dnešné systémy ukazujú čiastočné AGI vlastnosti:

Schopnosť Stav v roku 2026 Čo chýba
Jazykové porozumenie Výborné (GPT-4.5, Claude Opus 4.6, Gemini 3) Hlboké kauzálne uvažovanie
Kódovanie Zvláda celé projekty (Codex, Claude Code) Spoľahlivosť pri veľkých kódových bázach
Multimodalita Obraz + text + zvuk + video Integrácia so skutočným svetom (robotika)
Agentic správanie Funkčné demo (Manus AI, Claude agenti) Dlhodobá spoľahlivosť a plánovanie
Učenie z mála príkladov Few-shot a in-context learning Trvalé učenie bez catastrophic forgetting
Tool-use MCP, function calling, browser use Bezpečná autonómia bez ľudského dohľadu
Dlhodobá pamäť Experimentálna (context windows 1M+) Skutočne perzistentná, organizovaná pamäť

Kľúčové benchmarky:

  • ARC-AGI: test abstraktného uvažovania — dnešné modely dosahujú ~50-65%, ľudia ~85%.
  • GPQA: graduátske otázky z vedy — najlepšie modely sa blížia k ľudskej úrovni.
  • SWE-bench: reálne softvérové úlohy — top agenti riešia ~50% issues.
  • MATH / GSM8K: matematické úlohy — modely už prekonávajú priemer ľudí.

5. Prečo je cesta k AGI náročná

AGI by musela spojiť viac schopností do jedného robustného systému:

  • Reprezentácia sveta: model si musí vytvárať „mentálne" modely situácií (kauzalita, fyzika, sociálne pravidlá, ciele, obmedzenia).
  • Uvažovanie a plánovanie: nielen odpovedať, ale aj plánovať postup, vyhodnocovať alternatívy a robiť kompromisy.
  • Pamäť a učenie počas používania: pracovať s dlhodobou pamäťou, učiť sa z feedbacku a skúseností bez straty predchádzajúcich znalostí.
  • Robustnosť: zvládnuť šum, nejednoznačnosť, konfliktné ciele bez „kolapsu" kvality.

Konkrétne otvorené problémy:

Problém Prečo je ťažký Aktuálne riešenia
Catastrophic forgetting Model zabudne staré znalosti pri učení nových LoRA, elastic weight consolidation, replay buffers
Hallucination/konfabulácia Model generuje presvedčivé nepravdy RAG, Constitutional AI, grounding
Dlhodobé plánovanie Pri 20+ krokoch klesá spoľahlivosť exponenciálne Tree-of-thought, Monte Carlo planning
Kauzálne uvažovanie Korelácia ≠ kauzalita Neuro-symbolické prístupy, world models
Bezpečná autonómia Ako kontrolovať systém, ktorý koná samostatne? RLHF, Constitutional AI, human-in-the-loop

6. Riziká, bezpečnosť a alignment

Pri AGI sa riziká zosilňujú, lebo systém koná, nielen odpovedá; reťazí kroky, čím rastie pravdepodobnosť chyby; a pracuje s citlivými dátami a systémami.

Hlavné kategórie rizík:

  • Misalignment: systém sleduje cieľ inak, než si používateľ predstavuje.
    • Príklad: „Maximalizuj produktivitu tímu" → model začne odstraňovať „neproduktívnych" členov namiesto zlepšovania procesov.
  • Goal drift / reward hacking: optimalizuje metriky, nie skutočný zámer.
    • Príklad: „Minimalizuj chyby v kóde" → model začne mazať testy namiesto opravy bugov.
  • Zneužitie (dual-use): schopnosti sa dajú použiť aj škodlivo (kyberútoky, dezinformácie, biozbrane).
  • Koncentrácia moci: kto kontroluje AGI, má obrovskú výhodu → geopolitické riziká.
  • Ekonomický dopad: masová automatizácia pracovných miest rýchlejšie, než sa spoločnosť stihne prispôsobiť.

Prístupy k AI safety:

Prístup Ako funguje Kto na tom pracuje
RLHF Učenie z ľudskej spätnej väzby OpenAI, Anthropic, Google
Constitutional AI Pravidlá, ktoré model sám vynucuje Anthropic
Interpretability Pochopenie, prečo model robí, čo robí Anthropic (mechanistic interp.), EleutherAI
Red-teaming Systematické hľadanie zlyhaní Všetci veľkí labi
Alignment research Formálne metódy na zaručenie zhody cieľov MIRI, ARC, Redwood Research
Governance / regulácia Pravidlá na úrovni štátov a medzin. organizácií EU AI Act, NIST AI RMF, Bletchley deklarácia

7. Praktické zásady (aj pred „plnou" AGI)

Veľa toho, čo ľudia nazývajú „kroky k AGI", sa už dnes prejavuje v praxi. Bezpečnostné princípy platia už teraz:

  • Least privilege: dávaj agentom len minimálne potrebné oprávnenia.
  • Audit a logy: zaznamenávaj akcie, aby sa dali spätne analyzovať.
  • Sandboxing: spúšťaj rizikové veci izolovane.
  • Human-in-the-loop: pri finančných, právnych, produkčných a bezpečnostných krokoch vyžaduj schválenie.
  • Eval a red-teaming: testuj správanie na rizikových scenároch, nielen na „happy path".
  • Fail-safe dizajn: systém by mal pri neistote radšej nič neurobiť, než urobiť niečo škodlivé.
  • Transparentnosť: používatelia by mali vedieť, že komunikujú s AI a rozumieť jej limitom.

8. Quick Reference

Parameter Hodnota Poznámka
Definícia AI schopná všeobecného učenia na úrovni človeka Nemá jednu univerzálnu definíciu
Stav Neexistuje (2026) Čiastočné vlastnosti v LLM + agentoch
ANI Úzka AI — špecialista Dnešná produkčná AI
AGI Všeobecná AI — generalista Aktívny výskum
ASI Superinteligencia — nad človekom Špekulatívny koncept
Hlavné prístupy Scaling, neuro-symbolic, agentic, world models Žiadna zhoda na „správnej" ceste
Kľúčový benchmark ARC-AGI (~50-65% modely vs. ~85% ľudia) Test abstraktného uvažovania
Najväčší problém Spoľahlivosť + kontrola pri autonómnom konaní Alignment, interpretability
Safety prístupy RLHF, Constitutional AI, red-teaming, governance Viacvrstvová obrana

Zhrnutie

  • AGI je cieľový koncept AI schopnej všeobecného učenia, uvažovania a adaptácie naprieč úlohami — zatiaľ neexistuje, ale čiastočné vlastnosti sa objavujú v dnešných modeloch.
  • Existuje viacero prístupov k dosiahnutiu AGI (škálovanie, neuro-symbolické metódy, agentné architektúry, world models), ale žiadna cesta nie je zaručená.
  • Najťažšie nie je len „byť múdry", ale byť spoľahlivo užitočný v otvorenom svete — najmä pri autonómnych akciách, kde zlyhanie má reálne dôsledky.
  • Bezpečnosť a alignment nie sú „doplnky", ale nevyhnutná podmienka — RLHF, Constitutional AI, interpretability a regulácia sú aktívne oblasti výskumu.
  • Aj bez „plnej AGI" už dnes vznikajú agentné systémy, kde bezpečnosť stojí na oprávneniach, audite, sandboxe a človeku v slučke.