Konfabulácia

Konfabulácia je fenomén, kedy AI model vygeneruje informáciu, ktorá znie presvedčivo a gramaticky správne, ale je fakticky nesprávna alebo úplne vymyslená. Je to ako keď ti niekto s absolútnou istotou tvrdí, že Napoleon vyhral bitku pri Waterloo — znie to autenticky, ale je to nepravda.


1. Definícia a kontext

  • Technická definícia: Model generuje výstup, ktorý nie je podložený tréningovými dátami ani faktami, ale je štatisticky pravdepodobný v danom kontexte

  • Prečo „konfabulácia" a nie „halucinácia": V psychológii konfabulácia označuje neúmyselné vytváranie falošných spomienok — presne to, čo robí AI. Halucinácia implikuje zmyslové vnemy, ktoré AI nemá.

  • Aktuálny stav: Podľa štúdie Stanford HAI (2024) aj najlepšie modely konfabulujú v 3-8% odpovedí, pri špecializovaných témach až 15-20%


2. Ako to funguje a prečo k tomu dochádza

  • Mechanizmus vzniku:

    1. Model dostane otázku, na ktorú „nepozná" odpoveď
    2. Vyberie štatisticky najpravdepodobnejšie pokračovanie textu
    3. Generuje plynulý, koherentný výstup bez faktického základu
    4. Pridáva detaily pre vyššiu vierohodnosť
  • Hlavné príčiny:

    • Štatistická predikcia: LLM nefungujú ako databázy faktov, ale ako prediktory nasledujúceho tokenu
    • Prílišná ochota pomôcť: Modely sú trénované byť nápomocné, radšej „vymyslia" než priznajú nevedomosť
    • Medzery v tréningu: Ak model nevidel dostatok príkladov k téme, interpoluje z podobných kontextov
    • Rozmazané hranice: Model nevie rozlíšiť medzi „možno pravda" a „určite pravda"

3. Hlavné prejavy v praxi

Typ konfabulácie Príklad Frekvencia
Vymyslené zdroje Cituje neexistujúcu štúdiu "Smith et al., 2023" Veľmi častá
Falošné URL Generuje odkazy ako www.example.com/fake-article Častá
Zmiešané biografie Spája fakty o dvoch rôznych osobách Stredná
Nesprávne čísla Uvádza presné dátumy/čísla ktoré nikdy neexistovali Častá
Právne precedensy Cituje vymyslené súdne prípady Nebezpečne častá
  • Reálny príklad: Právnik v New Yorku použil ChatGPT na prípravu podania a citoval 6 prípadov — všetky boli vymyslené. Dostal pokutu $5000.

4. Prečo je to problém a riziká

  • Medicína: Nesprávne dávkovanie liekov alebo vymyslené vedľajšie účinky

  • Právo: Falošné precedensy môžu zničiť právnu argumentáciu

  • Vzdelávanie: Študenti si osvoja nesprávne informácie

  • Žurnalistika: Šírenie dezinformácií pod rúškom AI autority

  • Biznis: Strategické rozhodnutia na základe vymyslených trhových dát

  • Najväčšie riziko: Konfabulácie sú často nerozpoznateľné bez overenia — model ich prezentuje s rovnakou istotou ako fakty.


5. Ako konfabulácie detekovať a merať

  • Detekčné metódy:

    • Fact-checking: Overenie každého tvrdenia voči dôveryhodným zdrojom
    • Citation verification: Kontrola, či citované zdroje existujú
    • Consistency checking: Či model dáva rovnakú odpoveď opakovane
    • Uncertainty sampling: Požiadať model o „confidence score"
  • Metriky:

    • Factual accuracy: Percento správnych tvrdení (benchmark: TruthfulQA)
    • Hallucination rate: Počet konfabulácií na 100 výstupov
    • Source grounding: Koľko tvrdení má overiteľný zdroj
  • Nástroje na detekciu:

    • FActScore (Meta) — automatické hodnotenie faktickej presnosti
    • HELM (Stanford) — komplexný benchmark vrátane truthfulness
    • SelfCheckGPT — model si sám overuje konzistenciu

6. Ako konfabulácie zmierniť

Technika Ako funguje Účinnosť
RAG (Retrieval-Augmented Generation) Model čerpá z overenej databázy dokumentov 60-80% redukcia
Prompt engineering "Ak nevieš, povedz 'neviem'" v prompte 20-30% redukcia
Temperature tuning Zníženie kreativity (temp 0.1-0.3) 30-40% redukcia
Constitutional AI Model si sám overuje faktickosť 40-50% redukcia
Chain-of-thought Núti model "ukázať prácu" 25-35% redukcia
Fine-tuning na faktoch Dotrénovanie na overených dátach 50-70% redukcia
  • Najlepšia prax: Kombinácia RAG + nízka teplota + explicitný prompt = až 85% redukcia konfabulácií

7. Praktické odporúčania

  • Pre vývojárov:

    • Vždy implementuj RAG pre faktické domény
    • Nastav temperature na 0.3 alebo menej pre faktické úlohy
    • Pridaj "confidence threshold" — model neodpovedá ak si nie je istý na 80%+
  • Pre používateľov:

    • Nikdy never AI pri: právnych dokumentoch, medicínskych radách, finančných rozhodnutiach
    • Vždy over: dátumy, čísla, mená, citácie, URL
    • Používaj krížovú kontrolu: Pýtaj sa rovnakú vec inak a porovnaj odpovede
  • Red flags — kedy je konfabulácia najpravdepodobnejšia:

    • Veľmi špecifické otázky o niche témach
    • Žiadosť o presné čísla/dátumy z minulosti
    • Kombinácia viacerých neznámych entít
    • Otázky o udalostiach po training cutoff

Zhrnutie

  • Konfabulácia je inherentná vlastnosť súčasných LLM — nie bug, ale dôsledok architektúry založenej na štatistickej predikcii
  • Frekvencia 3-20% v závislosti od témy robí z toho vážny problém pre produkčné nasadenie
  • Najúčinnejšia mitigácia: RAG + kontrolované promptovanie, ale 100% eliminácia nie je možná
  • Zlaté pravidlo: AI output je východiskový bod, nie finálna pravda — vždy over kritické informácie