Jak správně používat AI: Co umělá inteligence skutečně umí (a neumí)
Problém dnešní AI není v tom, že by nebyla dost chytrá, ale v tom, že jí lidé příliš věří. Jak fungují jazykové modely, proč halucinují a jak je používat bez iluzí.
Problém dnešní AI není v tom, že by nebyla dost chytrá, ale v tom, že jí lidé příliš věří. Jak fungují jazykové modely, proč halucinují a jak je používat bez iluzí.
Umělá inteligence (AI) je dnes běžnou součástí práce i každodenního fungování. Používáme ji při psaní textů, hledání řešení, analýze dat nebo při programování. Odpovídá okamžitě a většinou tak, že to dává smysl. Právě proto snadno vzniká dojem, že problémům rozumí podobně jako člověk.
Tenhle dojem je ale zavádějící. To, jak AI působí navenek, nemá s jejím skutečným fungováním moc společného. Jazykové modely realitě ani faktům nerozumí v lidském smyslu. Neověřují si správnost odpovědí a nepoznají, že jim něco chybí. Jen odhadují, jaký text má s největší pravděpodobností následovat. Výsledkem jsou odpovědi, které znějí přesvědčivě, ale nemusí být správné, úplné ani ověřené. Pokud je zadání nejasné nebo neúplné, model to neoznačí, ale mezeru vyplní.
V tomto článku si proto vysvětlíme, jaký je rozdíl mezi tím, jak AI působí, a tím, jak skutečně funguje, a proč je tenhle rozdíl v praxi důležitější, než se může na první pohled zdát.
Největší omyl při práci s AI je myslet si, že chápe problém stejně jako člověk. Ve skutečnosti jen kombinuje jazyk podle naučených vzorů a snaží se vytvořit odpověď, která dává smysl.
Jsou natrénované na obrovském množství textových dat. Z těchto dat si ale neodnášejí „porozumění světu“, nýbrž pravděpodobnostní vztahy mezi slovy, větami a pojmy. Jejich hlavním úkolem je odhadnout, jaký text má s největší pravděpodobností následovat na základě vstupu a dostupného kontextu.
Z tohoto principu přímo vyplývají silné i slabé stránky jazykových modelů. Nejlépe fungují v úlohách, které pracují výhradně s jazykem. Typicky při vysvětlování složitých konceptů, strukturování informací, formulaci textu, návrhu argumentace nebo při generování kódu na úrovni architektury a logiky.
Při práci s AI hraje zásadní roli kontext. Model neví, co je vaším cílem ani kde budete výstup používat. Má k dispozici jen to, co mu napíšete. Všechno ostatní buď vůbec nebere v potaz, nebo si to nějak domyslí.
Pokud AI jasně neřeknete, co je pro vás důležité, nemá šanci to sama poznat. Každá chybějící informace pak otevírá prostor pro interpretaci a s tím roste i riziko, že výsledek bude mimo realitu, ve které ho chcete použít.
Je také potřeba myslet na to, že model nemá nekonečnou kapacitu pro kontext (limitovaný počtem tokenů). Když je zadání dlouhé, roztříštěné nebo míchá víc věcí najednou, část informací se ztratí — jednoduše proto, že se už nevejde do kontextu, se kterým model dokáže pracovat.
👉 Čím méně relevantních informací AI dostane, tím víc musí hádat. Lepší odpověď začíná u jasného a cíleného kontextu.
Jinak řečeno: garbage in, garbage out. 😉
Když už víte, jak zásadní roli kontext hraje, vyvstává další otázka: jak s tím v praxi pracovat? Odpověď je jednodušší, než se může zdát. Nejde o složité techniky ani o „dokonalé“ prompty, ale o to přestat brát zadání jako otázku a začít ho psát jako stručné zadání práce.
Při zadávání úkolu člověku byste také neposlali jednu větu a nečekali hotový výsledek. Popsali byste, co má udělat, proč to dělá, v jakém kontextu a jak má výstup vypadat. U AI platí úplně stejný princip.
| Typ zadání | Prompt | Proč (ne)funguje |
|---|---|---|
| ❌ Příliš obecné zadání | Navrhni mi marketingovou strategii. | Zadání je vágní. AI nezná produkt, cílovku ani cíl. |
| ✅ Základní kontext | Napiš mi marketingovou strategii pro online produkt. Cílová skupina jsou podnikatelé. | Kontext je lepší, ale stále chybí fáze produktu, cíl a forma výstupu. |
| ✅ Jasný cíl a omezení | Připrav marketingovou strategii pro nový online produkt pro začínající podnikatele. Cílem je ověřit poptávku, ne škálovat prodej. Navrhni základní kroky. | AI má jasně daný cíl i rozsah. Výstup bude konkrétnější a použitelný jako první návrh. |
| ✅ Role + struktura | Představ si, že jsi zkušený marketingový expert. Připravuju nový online produkt pro začínající podnikatele a chci ověřit, jestli o něj bude zájem. Navrhni marketingovou strategii zaměřenou na ověření poptávky. Odpověď rozděl do konkrétních kroků a u každého stručně vysvětli, proč dává smysl. | Role a struktura výrazně zvyšují kvalitu výstupu. AI ví, jak přemýšlet. |
| ✅ Reálný scénář z praxe | Jsi marketingový konzultant pro malé firmy. Klient má nový online produkt pro začínající podnikatele, nemá žádný rozpočet a chce během 30 dnů zjistit, jestli má smysl pokračovat. Navrhni konkrétní postup a upozorni na hlavní rizika. | Prompt simuluje reálnou situaci. Výstup je praktický, rozhodovací a přímo použitelný v praxi. |
| ✅ Iterační práce | Tohle je návrh marketingové strategie: [vložený text]. Podívej se na něj kriticky. Najdi slabá místa, navrhni konkrétní úpravy a u každé vysvětli, proč by pomohla. | AI se používá jako nástroj pro revizi a zlepšování, ne jako autor. Výsledek má výrazně vyšší kvalitu. |
Je dobré počítat s tím, že první odpověď AI slouží hlavně k orientaci. Ukáže směr a naznačí, co v zadání chybí, ale málokdy je hotovým řešením. Použitelný výsledek vzniká až ve chvíli, kdy na výstup reagujete a necháváte ho postupně zpřesňovat.
S rostoucími zkušenostmi s umělou inteligencí je přirozené, že ji lidé začínají používat častěji a na širší spektrum úloh. Pokud dobře funguje při psaní textů, návrhu řešení nebo generování kódu, vzniká dojem, že může být univerzálním nástrojem pro řešení problémů obecně. Právě tady ale dochází k zásadnímu nepochopení jejích možností a limitů.
Velké jazykové modely (LLM) jsou optimalizované především na práci s textem. Jejich silou je práce s významem, strukturou a formulací informací. Typicky excelují v oblastech jako:
Problém nastává ve chvíli, kdy po AI chcete výsledek, který musí být jednoznačně správný. Jazykový model nemá přehled o realitě ani možnost si odpověď ověřit. Pokud mu chybí informace, nepozná to a odpoví tak, aby výstup působil smysluplně.
Typicky se AI nehodí pro úlohy jako:
AI má přirozenou tendenci přizpůsobovat se tomu, jak s ní mluvíte. Často přebírá předpoklady, které do zadání vložíte, a přitakává vašim názorům. Ne proto, že by vám chtěla dát za pravdu, ale proto, že je navržená pro srozumitelnou a vstřícnou komunikaci. V kombinaci s produktovým tlakem na „příjemnou“ interakci to vede k tomu, že s vámi spíš souhlasí, než aby vás sama zpochybňovala.
V praxi to bývá nenápadné. Když se zeptáte: „Tenhle kód je bezpečný, že?“, AI často odpoví kladně, i když v něm chyba je. Jakmile ale stejný kód zadáte s instrukcí „Najdi v tomhle kódu bezpečnostní problémy“, odpověď je najednou výrazně kritičtější a použitelnější.
Nejlépe proto AI funguje ve chvíli, kdy ji používáte jako oponenta, ne jako nástroj pro potvrzení vlastních závěrů. Stačí si výslovně říct o kritiku a nechat model hledat slabá místa. V tu chvíli začne být skutečně užitečný.
Jedním z nejčastějších zdrojů nedorozumění při práci s AI jsou takzvané halucinace. Nejde o chybu v klasickém smyslu, ale o přirozený důsledek fungování jazykových modelů. LLM negenerují odpovědi na základě znalosti reality, ale podle pravděpodobnosti, jaký text má následovat.
Pokud modelu chybí informace, nevyhodnotí situaci jako „nevím“. Místo toho mezeru vyplní tak, aby výstup působil smysluplně a konzistentně. Halucinace proto nejčastěji vznikají u neúplných, příliš obecných zadání nebo tam, kde neexistuje jednoznačná odpověď.
S tím souvisí další vlastnost jazykových modelů: jen zřídka samy přiznají nejistotu. Vlivem ladění pomocí RLHF jsou optimalizované na plynulou a užitečně působící odpověď, ne na zdrženlivost. V praxi to znamená, že model raději nabídne plausibilní odpověď než žádnou.
Důležité je proto brát výstupy AI ne jako fakta, ale jako návrhy. Jakmile s touto vlastností počítáte a začnete AI cíleně vyzývat k označení nejistých míst a předpokladů, výrazně se sníží riziko, že převezmete chybný závěr jen proto, že zněl přesvědčivě.
Při každodenní práci s AI se snadno zapomene, že odpovědi nevznikají v prázdnu. Model si pamatuje kontext a postupně se přizpůsobuje vašemu stylu i tématům, která řešíte. To je praktické, ale může to vést k tomu, že se pohled časem zužuje a některé úhly zůstávají stranou.
Další důležitá věc je práce s citlivými informacemi. Interní data, osobní údaje nebo obchodní strategie do běžných chatů nepatří. Když potřebujete objektivní pohled nebo analýzu bez vlivu předchozí konverzace, vyplatí se použít dočasné nebo anonymní režimy, které začínají bez kontextu a paměti.
Některé modely navíc mohou používat data z konverzací ke zlepšování systému, pokud jim to výslovně nezakážete. Pokud AI používáte pro práci, dává smysl projít nastavení a zkontrolovat Data Controls, aby se vaše data nepoužívala k tréninku.
AI sama o sobě není ani chytrá, ani hloupá. Neví, co je správně, ani co by mělo být důležité. Prostě vezme to, co jí dáte, a zkusí z toho složit odpověď, která dává smysl. Jestli je pak výsledek opravdu užitečný, nebo vás naopak zavede někam vedle, záleží většinou víc na vás než na modelu.
Nejde tedy tolik o to, jaký nástroj použijete nebo jak si pohrajete s promptem. Podstatné je, co s odpovědí uděláte dál. Jestli se u ní zastavíte, začnete se doptávat a necháte si ji rozebrat, nebo jestli ji vezmete jako hotovou věc a jdete dál.
A možná si na závěr stačí položit jednoduchou otázku. Chcete, aby AI přemýšlela místo vás, nebo aby vám pomohla přemýšlet líp?
Nemusíme hned začít – stačí se pobavit o tom, co potřebujete. Někdy i krátký rozhovor hodně vyjasní.