Konfabulácia
Konfabulácia je fenomén, kedy AI model vygeneruje informáciu, ktorá znie presvedčivo a gramaticky správne, ale je fakticky nesprávna alebo úplne vymyslená. Je to ako keď ti niekto s absolútnou istotou tvrdí, že Napoleon vyhral bitku pri Waterloo — znie to autenticky, ale je to nepravda.
1. Definícia a kontext
Technická definícia: Model generuje výstup, ktorý nie je podložený tréningovými dátami ani faktami, ale je štatisticky pravdepodobný v danom kontexte
Prečo „konfabulácia" a nie „halucinácia": V psychológii konfabulácia označuje neúmyselné vytváranie falošných spomienok — presne to, čo robí AI. Halucinácia implikuje zmyslové vnemy, ktoré AI nemá.
Aktuálny stav: Podľa štúdie Stanford HAI (2024) aj najlepšie modely konfabulujú v 3-8% odpovedí, pri špecializovaných témach až 15-20%
2. Ako to funguje a prečo k tomu dochádza
Mechanizmus vzniku:
- Model dostane otázku, na ktorú „nepozná" odpoveď
- Vyberie štatisticky najpravdepodobnejšie pokračovanie textu
- Generuje plynulý, koherentný výstup bez faktického základu
- Pridáva detaily pre vyššiu vierohodnosť
Hlavné príčiny:
- Štatistická predikcia: LLM nefungujú ako databázy faktov, ale ako prediktory nasledujúceho tokenu
- Prílišná ochota pomôcť: Modely sú trénované byť nápomocné, radšej „vymyslia" než priznajú nevedomosť
- Medzery v tréningu: Ak model nevidel dostatok príkladov k téme, interpoluje z podobných kontextov
- Rozmazané hranice: Model nevie rozlíšiť medzi „možno pravda" a „určite pravda"
3. Hlavné prejavy v praxi
| Typ konfabulácie | Príklad | Frekvencia |
|---|---|---|
| Vymyslené zdroje | Cituje neexistujúcu štúdiu "Smith et al., 2023" | Veľmi častá |
| Falošné URL | Generuje odkazy ako www.example.com/fake-article | Častá |
| Zmiešané biografie | Spája fakty o dvoch rôznych osobách | Stredná |
| Nesprávne čísla | Uvádza presné dátumy/čísla ktoré nikdy neexistovali | Častá |
| Právne precedensy | Cituje vymyslené súdne prípady | Nebezpečne častá |
- Reálny príklad: Právnik v New Yorku použil ChatGPT na prípravu podania a citoval 6 prípadov — všetky boli vymyslené. Dostal pokutu $5000.
4. Prečo je to problém a riziká
Medicína: Nesprávne dávkovanie liekov alebo vymyslené vedľajšie účinky
Právo: Falošné precedensy môžu zničiť právnu argumentáciu
Vzdelávanie: Študenti si osvoja nesprávne informácie
Žurnalistika: Šírenie dezinformácií pod rúškom AI autority
Biznis: Strategické rozhodnutia na základe vymyslených trhových dát
Najväčšie riziko: Konfabulácie sú často nerozpoznateľné bez overenia — model ich prezentuje s rovnakou istotou ako fakty.
5. Ako konfabulácie detekovať a merať
Detekčné metódy:
- Fact-checking: Overenie každého tvrdenia voči dôveryhodným zdrojom
- Citation verification: Kontrola, či citované zdroje existujú
- Consistency checking: Či model dáva rovnakú odpoveď opakovane
- Uncertainty sampling: Požiadať model o „confidence score"
Metriky:
- Factual accuracy: Percento správnych tvrdení (benchmark: TruthfulQA)
- Hallucination rate: Počet konfabulácií na 100 výstupov
- Source grounding: Koľko tvrdení má overiteľný zdroj
Nástroje na detekciu:
- FActScore (Meta) — automatické hodnotenie faktickej presnosti
- HELM (Stanford) — komplexný benchmark vrátane truthfulness
- SelfCheckGPT — model si sám overuje konzistenciu
6. Ako konfabulácie zmierniť
| Technika | Ako funguje | Účinnosť |
|---|---|---|
| RAG (Retrieval-Augmented Generation) | Model čerpá z overenej databázy dokumentov | 60-80% redukcia |
| Prompt engineering | "Ak nevieš, povedz 'neviem'" v prompte | 20-30% redukcia |
| Temperature tuning | Zníženie kreativity (temp 0.1-0.3) | 30-40% redukcia |
| Constitutional AI | Model si sám overuje faktickosť | 40-50% redukcia |
| Chain-of-thought | Núti model "ukázať prácu" | 25-35% redukcia |
| Fine-tuning na faktoch | Dotrénovanie na overených dátach | 50-70% redukcia |
- Najlepšia prax: Kombinácia RAG + nízka teplota + explicitný prompt = až 85% redukcia konfabulácií
7. Praktické odporúčania
Pre vývojárov:
- Vždy implementuj RAG pre faktické domény
- Nastav temperature na 0.3 alebo menej pre faktické úlohy
- Pridaj "confidence threshold" — model neodpovedá ak si nie je istý na 80%+
Pre používateľov:
- Nikdy never AI pri: právnych dokumentoch, medicínskych radách, finančných rozhodnutiach
- Vždy over: dátumy, čísla, mená, citácie, URL
- Používaj krížovú kontrolu: Pýtaj sa rovnakú vec inak a porovnaj odpovede
Red flags — kedy je konfabulácia najpravdepodobnejšia:
- Veľmi špecifické otázky o niche témach
- Žiadosť o presné čísla/dátumy z minulosti
- Kombinácia viacerých neznámych entít
- Otázky o udalostiach po training cutoff
Zhrnutie
- Konfabulácia je inherentná vlastnosť súčasných LLM — nie bug, ale dôsledok architektúry založenej na štatistickej predikcii
- Frekvencia 3-20% v závislosti od témy robí z toho vážny problém pre produkčné nasadenie
- Najúčinnejšia mitigácia: RAG + kontrolované promptovanie, ale 100% eliminácia nie je možná
- Zlaté pravidlo: AI output je východiskový bod, nie finálna pravda — vždy over kritické informácie