AGI (Artificial General Intelligence)
AGI je koncept umelej inteligencie, ktorá dokáže všeobecne riešiť široké spektrum úloh na úrovni človeka (alebo nad ňou) — nielen v jednej úzkej oblasti. Na rozdiel od dnešnej „úzkej AI" (ANI), ktorá exceluje v konkrétnych typoch úloh (jazyk, obraz, odporúčania), by AGI mala vedieť prenášať poznatky medzi doménami, učiť sa nové veci z mála príkladov, plánovať a samostatne konať v nových situáciách.
1. Definícia a kľúčové vlastnosti
- Všeobecnosť (general-purpose): zvládanie rôznych typov problémov bez špeciálneho pretrénovania na každý z nich.
- Transfer učenia: to, čo sa naučí v jednej oblasti, vie použiť inde (napr. z logiky → do programovania → do plánovania).
- Adaptácia v neznámom: rozumné správanie aj pri nových úlohách, kde nemá „naučenú šablónu".
- Autonómnosť: schopnosť pracovať dlhšie bez neustáleho vedenia — rozložiť cieľ na kroky, kontrolovať výsledky, opravovať chyby.
- Metakognícia: vedieť posúdiť, čo vie a čo nie, kedy sa opýtať a kedy odmietnuť úlohu.
Dôležité: „AGI" nemá jednu univerzálne prijatú definíciu. V praxi sa používa ako pracovný cieľ (human-level general competence), nie ako presná technická špecifikácia.
2. ANI vs. AGI vs. ASI — porovnanie
| Vlastnosť | ANI (úzka AI) | AGI (všeobecná AI) | ASI (superinteligencia) |
|---|---|---|---|
| Rozsah | Jedna úloha / doména | Ľubovoľná úloha na úrovni človeka | Výrazne nad človekom vo všetkých doménach |
| Príklady dnes | AlphaGo, GPT na preklad, DALL-E | Neexistuje (zatiaľ) | Neexistuje (zatiaľ) |
| Transfer učenia | Žiadny alebo obmedzený | Plný cross-domain transfer | Plný + schopnosť objavovať nové domény |
| Učenie | Z obrovských datasetov | Z mála príkladov + vlastné objavovanie | Samozdokonaľovanie bez limitu |
| Autonómia | Potrebuje ľudský dohľad | Samostatná práca na komplexných cieľoch | Úplná autonómia |
| Stav vývoja | Rutinne nasadená v produkcii | Aktívny výskum, odhady: roky–desaťročia | Špekulatívny koncept |
3. Prístupy k dosiahnutiu AGI
V komunite neexistuje zhoda na tom, ako AGI dosiahnuť. Hlavné smery:
Scaling hypothesis (škálovanie):
- Myšlienka, že stačí zväčšovať modely (parametre, dáta, compute) a všeobecnosť sa „objaví" emergentne.
- Za: GPT-4, Claude, Gemini ukazujú, že väčšie modely zvládajú viac typov úloh.
- Proti: samotné škálovanie nerieši kauzálne uvažovanie, dlhodobé plánovanie a spoľahlivosť.
Neuro-symbolický prístup:
- Kombinácia neurónových sietí (intuícia, pattern matching) so symbolickými systémami (logika, pravidlá, ontológie).
- Za: lepšie formálne uvažovanie, vysvetliteľnosť, konzistencia.
- Proti: integrácia oboch paradigiem je technicky náročná.
Agentic architectures (agentné architektúry):
- Model + pamäť + nástroje + plánovanie + self-correction v uzavretej slučke.
- Za: najbližšie k tomu, čo dnes funguje v praxi (Claude Code, Devin, agentné frameworky).
- Proti: krehké pri dlhých reťazcoch akcií, ťažko sa škáluje spoľahlivosť.
World models (modely sveta):
- Systémy, ktoré si budujú internú simuláciu prostredia a testujú akcie „v hlave" pred realizáciou.
- Za: lepšie plánovanie, kauzálne uvažovanie, robustnosť.
- Proti: ako natrénovať presný world model z obmedzenej skúsenosti?
Biologicky inšpirované prístupy:
- Spiking neural networks, Whole Brain Emulation, kognitívne architektúry (ACT-R, SOAR).
- Za: mozog je dôkaz, že AGI je možná.
- Proti: nerozumieme mozgu dostatočne na to, aby sme ho vedeli replikovať.
4. Kde sme dnes — cesta k AGI
Aj keď „plná" AGI neexistuje, dnešné systémy ukazujú čiastočné AGI vlastnosti:
| Schopnosť | Stav v roku 2026 | Čo chýba |
|---|---|---|
| Jazykové porozumenie | Výborné (GPT-4.5, Claude Opus 4.6, Gemini 3) | Hlboké kauzálne uvažovanie |
| Kódovanie | Zvláda celé projekty (Codex, Claude Code) | Spoľahlivosť pri veľkých kódových bázach |
| Multimodalita | Obraz + text + zvuk + video | Integrácia so skutočným svetom (robotika) |
| Agentic správanie | Funkčné demo (Manus AI, Claude agenti) | Dlhodobá spoľahlivosť a plánovanie |
| Učenie z mála príkladov | Few-shot a in-context learning | Trvalé učenie bez catastrophic forgetting |
| Tool-use | MCP, function calling, browser use | Bezpečná autonómia bez ľudského dohľadu |
| Dlhodobá pamäť | Experimentálna (context windows 1M+) | Skutočne perzistentná, organizovaná pamäť |
Kľúčové benchmarky:
- ARC-AGI: test abstraktného uvažovania — dnešné modely dosahujú ~50-65%, ľudia ~85%.
- GPQA: graduátske otázky z vedy — najlepšie modely sa blížia k ľudskej úrovni.
- SWE-bench: reálne softvérové úlohy — top agenti riešia ~50% issues.
- MATH / GSM8K: matematické úlohy — modely už prekonávajú priemer ľudí.
5. Prečo je cesta k AGI náročná
AGI by musela spojiť viac schopností do jedného robustného systému:
- Reprezentácia sveta: model si musí vytvárať „mentálne" modely situácií (kauzalita, fyzika, sociálne pravidlá, ciele, obmedzenia).
- Uvažovanie a plánovanie: nielen odpovedať, ale aj plánovať postup, vyhodnocovať alternatívy a robiť kompromisy.
- Pamäť a učenie počas používania: pracovať s dlhodobou pamäťou, učiť sa z feedbacku a skúseností bez straty predchádzajúcich znalostí.
- Robustnosť: zvládnuť šum, nejednoznačnosť, konfliktné ciele bez „kolapsu" kvality.
Konkrétne otvorené problémy:
| Problém | Prečo je ťažký | Aktuálne riešenia |
|---|---|---|
| Catastrophic forgetting | Model zabudne staré znalosti pri učení nových | LoRA, elastic weight consolidation, replay buffers |
| Hallucination/konfabulácia | Model generuje presvedčivé nepravdy | RAG, Constitutional AI, grounding |
| Dlhodobé plánovanie | Pri 20+ krokoch klesá spoľahlivosť exponenciálne | Tree-of-thought, Monte Carlo planning |
| Kauzálne uvažovanie | Korelácia ≠ kauzalita | Neuro-symbolické prístupy, world models |
| Bezpečná autonómia | Ako kontrolovať systém, ktorý koná samostatne? | RLHF, Constitutional AI, human-in-the-loop |
6. Riziká, bezpečnosť a alignment
Pri AGI sa riziká zosilňujú, lebo systém koná, nielen odpovedá; reťazí kroky, čím rastie pravdepodobnosť chyby; a pracuje s citlivými dátami a systémami.
Hlavné kategórie rizík:
- Misalignment: systém sleduje cieľ inak, než si používateľ predstavuje.
- Príklad: „Maximalizuj produktivitu tímu" → model začne odstraňovať „neproduktívnych" členov namiesto zlepšovania procesov.
- Goal drift / reward hacking: optimalizuje metriky, nie skutočný zámer.
- Príklad: „Minimalizuj chyby v kóde" → model začne mazať testy namiesto opravy bugov.
- Zneužitie (dual-use): schopnosti sa dajú použiť aj škodlivo (kyberútoky, dezinformácie, biozbrane).
- Koncentrácia moci: kto kontroluje AGI, má obrovskú výhodu → geopolitické riziká.
- Ekonomický dopad: masová automatizácia pracovných miest rýchlejšie, než sa spoločnosť stihne prispôsobiť.
Prístupy k AI safety:
| Prístup | Ako funguje | Kto na tom pracuje |
|---|---|---|
| RLHF | Učenie z ľudskej spätnej väzby | OpenAI, Anthropic, Google |
| Constitutional AI | Pravidlá, ktoré model sám vynucuje | Anthropic |
| Interpretability | Pochopenie, prečo model robí, čo robí | Anthropic (mechanistic interp.), EleutherAI |
| Red-teaming | Systematické hľadanie zlyhaní | Všetci veľkí labi |
| Alignment research | Formálne metódy na zaručenie zhody cieľov | MIRI, ARC, Redwood Research |
| Governance / regulácia | Pravidlá na úrovni štátov a medzin. organizácií | EU AI Act, NIST AI RMF, Bletchley deklarácia |
7. Praktické zásady (aj pred „plnou" AGI)
Veľa toho, čo ľudia nazývajú „kroky k AGI", sa už dnes prejavuje v praxi. Bezpečnostné princípy platia už teraz:
- Least privilege: dávaj agentom len minimálne potrebné oprávnenia.
- Audit a logy: zaznamenávaj akcie, aby sa dali spätne analyzovať.
- Sandboxing: spúšťaj rizikové veci izolovane.
- Human-in-the-loop: pri finančných, právnych, produkčných a bezpečnostných krokoch vyžaduj schválenie.
- Eval a red-teaming: testuj správanie na rizikových scenároch, nielen na „happy path".
- Fail-safe dizajn: systém by mal pri neistote radšej nič neurobiť, než urobiť niečo škodlivé.
- Transparentnosť: používatelia by mali vedieť, že komunikujú s AI a rozumieť jej limitom.
8. Quick Reference
| Parameter | Hodnota | Poznámka |
|---|---|---|
| Definícia | AI schopná všeobecného učenia na úrovni človeka | Nemá jednu univerzálnu definíciu |
| Stav | Neexistuje (2026) | Čiastočné vlastnosti v LLM + agentoch |
| ANI | Úzka AI — špecialista | Dnešná produkčná AI |
| AGI | Všeobecná AI — generalista | Aktívny výskum |
| ASI | Superinteligencia — nad človekom | Špekulatívny koncept |
| Hlavné prístupy | Scaling, neuro-symbolic, agentic, world models | Žiadna zhoda na „správnej" ceste |
| Kľúčový benchmark | ARC-AGI (~50-65% modely vs. ~85% ľudia) | Test abstraktného uvažovania |
| Najväčší problém | Spoľahlivosť + kontrola pri autonómnom konaní | Alignment, interpretability |
| Safety prístupy | RLHF, Constitutional AI, red-teaming, governance | Viacvrstvová obrana |
Zhrnutie
- AGI je cieľový koncept AI schopnej všeobecného učenia, uvažovania a adaptácie naprieč úlohami — zatiaľ neexistuje, ale čiastočné vlastnosti sa objavujú v dnešných modeloch.
- Existuje viacero prístupov k dosiahnutiu AGI (škálovanie, neuro-symbolické metódy, agentné architektúry, world models), ale žiadna cesta nie je zaručená.
- Najťažšie nie je len „byť múdry", ale byť spoľahlivo užitočný v otvorenom svete — najmä pri autonómnych akciách, kde zlyhanie má reálne dôsledky.
- Bezpečnosť a alignment nie sú „doplnky", ale nevyhnutná podmienka — RLHF, Constitutional AI, interpretability a regulácia sú aktívne oblasti výskumu.
- Aj bez „plnej AGI" už dnes vznikajú agentné systémy, kde bezpečnosť stojí na oprávneniach, audite, sandboxe a človeku v slučke.