No Free Lunch Theorem
No Free Lunch Theorem hovorí (zjednodušene), že ak spriemeruješ výkon algoritmov cez všetky možné problémy, žiadny nemá výhodu. Inými slovami: ak niečo vyhráva často, je to preto, že „hrá“ na konkrétny typ úloh — nie preto, že je univerzálne najlepšie.
1. Definícia
Jadro myšlienky: Neexistuje algoritmus, ktorý by bol nadpriemerne dobrý na všetky možné úlohy, ak nemáš žiadne predpoklady o tom, aké úlohy ťa čakajú.
Prečo sa o tom hovorí: Lebo v AI často hľadáme „silver bullet“: jeden model, jeden tréningový trik, jeden optimalizátor. NFL ti pripomenie, že bez štruktúry problému to nejde.
Analógia – univerzálny kľúč: Kľúč, ktorý „ako-tak“ pasuje do všetkých zámkov, bude pri konkrétnom zámku často horší než kľúč vyrobený presne naň.
2. Ako to funguje / prečo k tomu dochádza
Priemerovanie cez všetko: Teória pracuje s predstavením, že „všetky problémy“ sú rovnako pravdepodobné. Vtedy sa výhody a nevýhody algoritmov vyrušia.
Skryté predpoklady: Ak algoritmus funguje výborne na nejakej triede úloh, implicitne to znamená, že má inductive bias na túto triedu.
Optimalizácia vs. učenie: NFL sa objavuje aj v optimalizácii (hľadanie minima funkcie), aj v učení (generalizácia z dát). Pointa je rovnaká: bez štruktúry nevieš byť systematicky lepší.
3. Hlavné prejavy (čo si všimneš v praxi)
„Vyhral benchmark“ ≠ „vyhrá u teba“: Model môže dominovať na sade testov, ale mimo tejto distribúcie výkon padá.
Hyperparametre ako lotéria: Keď ladíš nastavenia naslepo, často narazíš na bod, kde zlepšenie v jednej metrike zhorší inú.
Doménová znalosť sa vracia zadnými dverami: Aj keď tvrdíš, že „nepredpokladáš nič“, už len výber dát, metrík a architektúry sú predpoklady.
4. Prečo je to dôležité (dôsledky)
Realistické očakávania: NFL ťa drží pri zemi: výsledok je vždy kombinácia dát, biasu, metrík a domény.
Riziko preberania cudzích receptov: „Použi tento model + tento prompt“ bez porozumenia doméne vedie k sklamaniu, lebo recept je bias na niečo iné.
Bezpečnosť a dôveryhodnosť: Ak nevieš, v akých režimoch model zlyháva, môžeš mu dať úlohy, kde bude presne najhorší (a ty si to nevšimneš).
Krátke „mýty vs realita“:
| Častá predstava | Čo NFL vlastne hovorí |
|---|---|
| Existuje „najlepší model“ | Najlepší je vždy na nejakú distribúciu úloh |
| Stačí viac dát | Aj viac dát je predpoklad (aké dáta? z akej domény?) |
| Stačí tuning | Tuning je hľadanie biasu, ktorý sedí tvojej úlohe |
| Benchmarky rozhodnú | Benchmarky sú len proxy pre tvoju realitu |
5. Ako sa to meria / rieši
Out-of-domain testy: Neostaň pri jednej testovacej sade — skús dáta z iných zdrojov, iných časových období, iných štýlov.
Ablácie a porovnania: Zisti, čo naozaj pomáha (architektúra, dáta, regularizácia, prompting), nie len „celý balík naraz“.
Zarovnanie na cieľ: Definuj, čo je úspech: presnosť, robustnosť, náklady, bezpečnosť, interpretovateľnosť — a podľa toho vyberaj nástroj.
Vedome voľ bias: NFL nie je dôvod na rezignáciu. Je to návod: urob predpoklady explicitné a vyber model, ktorý s nimi ladí.
6. Zhrnutie
No Free Lunch Theorem hovorí, že bez predpokladov o probléme neexistuje univerzálne najlepší algoritmus.
V praxi to znamená: víťaz na benchmarku vyhráva najmä tam, kde benchmark pripomína tvoju realitu.
Riešenie nie je „hľadať zázrak“, ale vedome voliť bias, testovať mimo domény a merať to, čo ti naozaj záleží.
NFL pekne zapadá do reality AI: výkon je vždy „dohoda“ medzi modelom, dátami a tým, čo od úlohy očakávaš.