Umělá inteligence (AI) je dnes běžnou součástí práce i každodenního fungování. Používáme ji při psaní textů, hledání řešení, analýze dat nebo při programování. Odpovídá okamžitě a většinou tak, že to dává smysl. Právě proto snadno vzniká dojem, že problémům rozumí podobně jako člověk.

Tenhle dojem je ale zavádějící. To, jak AI působí navenek, nemá s jejím skutečným fungováním moc společného. Jazykové modely realitě ani faktům nerozumí v lidském smyslu. Neověřují si správnost odpovědí a nepoznají, že jim něco chybí. Jen odhadují, jaký text má s největší pravděpodobností následovat. Výsledkem jsou odpovědi, které znějí přesvědčivě, ale nemusí být správné, úplné ani ověřené. Pokud je zadání nejasné nebo neúplné, model to neoznačí, ale mezeru vyplní.

V tomto článku si proto vysvětlíme, jaký je rozdíl mezi tím, jak AI působí, a tím, jak skutečně funguje, a proč je tenhle rozdíl v praxi důležitější, než se může na první pohled zdát.

Jak umělá inteligence skutečně funguje (a proč na tom záleží)

Největší omyl při práci s AI je myslet si, že chápe problém stejně jako člověk. Ve skutečnosti jen kombinuje jazyk podle naučených vzorů a snaží se vytvořit odpověď, která dává smysl.

Jsou natrénované na obrovském množství textových dat. Z těchto dat si ale neodnášejí „porozumění světu“, nýbrž pravděpodobnostní vztahy mezi slovy, větami a pojmy. Jejich hlavním úkolem je odhadnout, jaký text má s největší pravděpodobností následovat na základě vstupu a dostupného kontextu.

Z tohoto principu přímo vyplývají silné i slabé stránky jazykových modelů. Nejlépe fungují v úlohách, které pracují výhradně s jazykem. Typicky při vysvětlování složitých konceptů, strukturování informací, formulaci textu, návrhu argumentace nebo při generování kódu na úrovni architektury a logiky.

Kontext rozhoduje o kvalitě odpovědi

Při práci s AI hraje zásadní roli kontext. Model neví, co je vaším cílem ani kde budete výstup používat. Má k dispozici jen to, co mu napíšete. Všechno ostatní buď vůbec nebere v potaz, nebo si to nějak domyslí.

Pokud AI jasně neřeknete, co je pro vás důležité, nemá šanci to sama poznat. Každá chybějící informace pak otevírá prostor pro interpretaci a s tím roste i riziko, že výsledek bude mimo realitu, ve které ho chcete použít.

Je také potřeba myslet na to, že model nemá nekonečnou kapacitu pro kontext (limitovaný počtem tokenů). Když je zadání dlouhé, roztříštěné nebo míchá víc věcí najednou, část informací se ztratí — jednoduše proto, že se už nevejde do kontextu, se kterým model dokáže pracovat.

👉 Čím méně relevantních informací AI dostane, tím víc musí hádat. Lepší odpověď začíná u jasného a cíleného kontextu.

Jinak řečeno: garbage in, garbage out. 😉

Proč většina promptů selhává

Když už víte, jak zásadní roli kontext hraje, vyvstává další otázka: jak s tím v praxi pracovat? Odpověď je jednodušší, než se může zdát. Nejde o složité techniky ani o „dokonalé“ prompty, ale o to přestat brát zadání jako otázku a začít ho psát jako stručné zadání práce.

Jak by měl vypadat správný prompt

Při zadávání úkolu člověku byste také neposlali jednu větu a nečekali hotový výsledek. Popsali byste, co má udělat, proč to dělá, v jakém kontextu a jak má výstup vypadat. U AI platí úplně stejný princip.

Typ zadáníPromptProč (ne)funguje
Příliš obecné zadáníNavrhni mi marketingovou strategii.Zadání je vágní. AI nezná produkt, cílovku ani cíl.
Základní kontextNapiš mi marketingovou strategii pro online produkt. Cílová skupina jsou podnikatelé.Kontext je lepší, ale stále chybí fáze produktu, cíl a forma výstupu.
Jasný cíl a omezeníPřiprav marketingovou strategii pro nový online produkt pro začínající podnikatele. Cílem je ověřit poptávku, ne škálovat prodej. Navrhni základní kroky.AI má jasně daný cíl i rozsah. Výstup bude konkrétnější a použitelný jako první návrh.
Role + strukturaPředstav si, že jsi zkušený marketingový expert. Připravuju nový online produkt pro začínající podnikatele a chci ověřit, jestli o něj bude zájem. Navrhni marketingovou strategii zaměřenou na ověření poptávky. Odpověď rozděl do konkrétních kroků a u každého stručně vysvětli, proč dává smysl.Role a struktura výrazně zvyšují kvalitu výstupu. AI ví, jak přemýšlet.
Reálný scénář z praxeJsi marketingový konzultant pro malé firmy. Klient má nový online produkt pro začínající podnikatele, nemá žádný rozpočet a chce během 30 dnů zjistit, jestli má smysl pokračovat. Navrhni konkrétní postup a upozorni na hlavní rizika.Prompt simuluje reálnou situaci. Výstup je praktický, rozhodovací a přímo použitelný v praxi.
Iterační práceTohle je návrh marketingové strategie: [vložený text]. Podívej se na něj kriticky. Najdi slabá místa, navrhni konkrétní úpravy a u každé vysvětli, proč by pomohla.AI se používá jako nástroj pro revizi a zlepšování, ne jako autor. Výsledek má výrazně vyšší kvalitu.

Je dobré počítat s tím, že první odpověď AI slouží hlavně k orientaci. Ukáže směr a naznačí, co v zadání chybí, ale málokdy je hotovým řešením. Použitelný výsledek vzniká až ve chvíli, kdy na výstup reagujete a necháváte ho postupně zpřesňovat.

AI není univerzální nástroj

S rostoucími zkušenostmi s umělou inteligencí je přirozené, že ji lidé začínají používat častěji a na širší spektrum úloh. Pokud dobře funguje při psaní textů, návrhu řešení nebo generování kódu, vzniká dojem, že může být univerzálním nástrojem pro řešení problémů obecně. Právě tady ale dochází k zásadnímu nepochopení jejích možností a limitů.

Velké jazykové modely (LLM) jsou optimalizované především na práci s textem. Jejich silou je práce s významem, strukturou a formulací informací. Typicky excelují v oblastech jako:

  • shrnování a vysvětlování textu,
  • strukturování informací a myšlenek,
  • návrh variant řešení nebo postupů,
  • generování kódu na úrovni návrhu a logiky,
  • přepisování a zjednodušování složitých témat.

Problém nastává ve chvíli, kdy po AI chcete výsledek, který musí být jednoznačně správný. Jazykový model nemá přehled o realitě ani možnost si odpověď ověřit. Pokud mu chybí informace, nepozná to a odpoví tak, aby výstup působil smysluplně.

Typicky se AI nehodí pro úlohy jako:

  • přesné výpočty a matematické úlohy (pokud není výslovně vedena k použití kódu),
  • právní nebo zdravotní rozhodování,
  • práci s aktuálními nebo živými daty,
  • bezpečnostně citlivé scénáře,
  • situace, kde chyba nemá prostor pro toleranci.

Používejte AI jako oponenta, ne jako podporu

AI má přirozenou tendenci přizpůsobovat se tomu, jak s ní mluvíte. Často přebírá předpoklady, které do zadání vložíte, a přitakává vašim názorům. Ne proto, že by vám chtěla dát za pravdu, ale proto, že je navržená pro srozumitelnou a vstřícnou komunikaci. V kombinaci s produktovým tlakem na „příjemnou“ interakci to vede k tomu, že s vámi spíš souhlasí, než aby vás sama zpochybňovala.

V praxi to bývá nenápadné. Když se zeptáte: „Tenhle kód je bezpečný, že?“, AI často odpoví kladně, i když v něm chyba je. Jakmile ale stejný kód zadáte s instrukcí „Najdi v tomhle kódu bezpečnostní problémy“, odpověď je najednou výrazně kritičtější a použitelnější.

Nejlépe proto AI funguje ve chvíli, kdy ji používáte jako oponenta, ne jako nástroj pro potvrzení vlastních závěrů. Stačí si výslovně říct o kritiku a nechat model hledat slabá místa. V tu chvíli začne být skutečně užitečný.

Halucinace a falešná jistota: proč si AI někdy vymýšlí

Jedním z nejčastějších zdrojů nedorozumění při práci s AI jsou takzvané halucinace. Nejde o chybu v klasickém smyslu, ale o přirozený důsledek fungování jazykových modelů. LLM negenerují odpovědi na základě znalosti reality, ale podle pravděpodobnosti, jaký text má následovat.

Pokud modelu chybí informace, nevyhodnotí situaci jako „nevím“. Místo toho mezeru vyplní tak, aby výstup působil smysluplně a konzistentně. Halucinace proto nejčastěji vznikají u neúplných, příliš obecných zadání nebo tam, kde neexistuje jednoznačná odpověď.

S tím souvisí další vlastnost jazykových modelů: jen zřídka samy přiznají nejistotu. Vlivem ladění pomocí RLHF jsou optimalizované na plynulou a užitečně působící odpověď, ne na zdrženlivost. V praxi to znamená, že model raději nabídne plausibilní odpověď než žádnou.

Důležité je proto brát výstupy AI ne jako fakta, ale jako návrhy. Jakmile s touto vlastností počítáte a začnete AI cíleně vyzývat k označení nejistých míst a předpokladů, výrazně se sníží riziko, že převezmete chybný závěr jen proto, že zněl přesvědčivě.

Základní hygiena práce s AI

Při každodenní práci s AI se snadno zapomene, že odpovědi nevznikají v prázdnu. Model si pamatuje kontext a postupně se přizpůsobuje vašemu stylu i tématům, která řešíte. To je praktické, ale může to vést k tomu, že se pohled časem zužuje a některé úhly zůstávají stranou.

Další důležitá věc je práce s citlivými informacemi. Interní data, osobní údaje nebo obchodní strategie do běžných chatů nepatří. Když potřebujete objektivní pohled nebo analýzu bez vlivu předchozí konverzace, vyplatí se použít dočasné nebo anonymní režimy, které začínají bez kontextu a paměti.

Některé modely navíc mohou používat data z konverzací ke zlepšování systému, pokud jim to výslovně nezakážete. Pokud AI používáte pro práci, dává smysl projít nastavení a zkontrolovat Data Controls, aby se vaše data nepoužívala k tréninku.

Závěr

AI sama o sobě není ani chytrá, ani hloupá. Neví, co je správně, ani co by mělo být důležité. Prostě vezme to, co jí dáte, a zkusí z toho složit odpověď, která dává smysl. Jestli je pak výsledek opravdu užitečný, nebo vás naopak zavede někam vedle, záleží většinou víc na vás než na modelu.

Nejde tedy tolik o to, jaký nástroj použijete nebo jak si pohrajete s promptem. Podstatné je, co s odpovědí uděláte dál. Jestli se u ní zastavíte, začnete se doptávat a necháte si ji rozebrat, nebo jestli ji vezmete jako hotovou věc a jdete dál.

A možná si na závěr stačí položit jednoduchou otázku. Chcete, aby AI přemýšlela místo vás, nebo aby vám pomohla přemýšlet líp?