Danny Weber
17:14 18-10-2025
© RusPhotoBank
Nová studie na arXiv ukazuje, že způsob formulace zadání výrazně ovlivňuje halucinace AI. Zjistěte, proč drsný styl mate chatboty a jak psát prompty přesněji.
Nová studie naznačuje, že takzvané halucinace umělé inteligence často spouštějí sami uživatelé. Práce „Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions“, zveřejněná 3. října na arXiv.org, ukazuje, že způsob formulace zadání přímo ovlivňuje, zda se v odpovědích objeví vymyšlená fakta, citace či zdroje.
Výzkumníci analyzovali více než 13 000 dialogů mezi lidmi a přes 1 300 interakcí člověka s chatbotem. Zjistili, že když lidé oslovují systém s umělou inteligencí, píší jinak: stručněji, s volnější gramatikou, příkřeji a s užší slovní zásobou. Podstata sdělení může zůstat stejná, ale styl se výrazně mění — autoři mluví o zřetelném posunu ve způsobu vyjadřování.
Tento nesoulad je problém, protože velké jazykové modely se učí na zdvořilých a pečlivě formulovaných textech. Hrubší či ledabylé formulace se pak dají vyložit více způsoby a model to může strhnout k vymýšlení. Mnozí to znají z praxe: i drobná změna tónu nebo srozumitelnosti dokáže ovlivnit, jak odpověď dopadne.
Tým otestoval několik náprav. Jednou možností je trénovat modely na širším spektru stylů řeči, což zvýšilo přesnost pochopení záměru uživatele o 3 %. Další cestou je automatické parafrázování zadání, ale to naopak zhoršilo kvalitu, protože se vytratily emoce a kontextové nuance.
Autoři docházejí k tomu, že riziko smyšlených odpovědí lze snížit tím, že budou uživatelé psát zadání úplněji, gramaticky pečlivěji a zdvořileji — tedy blíže běžné lidské konverzaci. Je to drobný návyk, který stojí za to osvojit.