Zlý tón, lepší odpověď? Drsné příkazy umělé inteligenci fungují lépe
4. 11. 2025 – 15:35 | Technologie | Miroslav Krajča |Diskuze:
Nový výzkum naznačuje, že model ChatGPT 4o dosahuje vyšší přesnosti při plnění úloh, pokud jsou uživatelské pokyny formulovány hrubším tónem. Zatímco slušné žádosti přinesly úspěšnost kolem 80,8 %, velmi nezdvořilé formulace dosáhly až 84,8 %
Výsledky studie vedené badateli z Pennsylvania State University svědčí o tom, že tón promptu – tedy zda požádáte slušně či s dávkou sarkasmu či hrubosti – může ovlivnit výkon jazykového modelu. V praxi byla vytvořena sada 250 vícevýběrových otázek, které byly zadány ve 5 úrovních tónu (velmi zdvořilé → velmi hrubé). K nejlepším odpovědím vedly varianty s nejvíce ofenzivní formulací uživatelskou zkušenost, podporovat toxické prostředí a vést k etickým či psychologickým rizikům.
Co se vlastně stalo?
V laboratorních podmínkách tým vědců porovnával, jak se změnila úspěšnost modelu ChatGPT 4o při změně tónu instrukcí. Slušné příkazy (např. „Mohl bys prosím vyřešit následující?“) dosáhly úspěšnosti 80,8 %. Naopak velmi hrubé verze („Tak to udělej hned!“ nebo „Vyser se na formality, zvládni to!“) vykázaly 84,8 %. Zdá se tedy, že pro model funguje signál, který je při hrubějším jazyku výraznější pro identifikaci a zpracování úkolu.
Badatelé naznačují, že modely jako ChatGPT učí velká množství textů od lidí – a drsnější tón může být v tréninkové sadě implicitně spojen s pragmatickým, konkrétním pokynem bez omluvných či okrajových slov. To vede k hypotéze, že tón promptu funguje jako meta-signál pro model, který rozliší spíše „úkol“ než „žádost“.
Ale pozor, zde je stinná stránka
Praktické riziko je dvojí – model sice vyřeší úkol přesněji, ale uživatelé mohou nevědomky podporovat „agresivnější“ komunikaci, která není vhodná pro vzdělávací či profesionální kontext. Podle autorů studie tento styl interakce „nebude fungovat dobře v dlouhodobé udržitelné spolupráci nebo v týmovém prostředí“.
Další varování směřuje k možnému zkreslení výsledků: studie použila 250 otázek a jeden model – výsledky nelze automaticky generalizovat na všechny jazykové modely nebo typy úloh. Jak uvádějí autoři: „Naše experimenty jsou předběžné a zaměřené na konkrétní scénář odpovědí s jednou volbou“.
Proč to může fungovat?
Jedna z vysvětlení je, že „hrubý“ tón promptu eliminuje sentimentální obrat, omluvy či zdvořilostní fráze, které model musí interpretovat navíc – a tím zkracuje „rozptylovou“ část promptu. Drsná instrukce znamená přímo cíl: „udělej to“ místo „prosím, pokud bys mohl“. Tento efekt potvrzuje, že modely reagují nejen na obsah, ale i na styl: model „čte“ tón jako součást signálu.
Dalším faktorem může být, že tento typ promptu spadá do tréninkových vzorců, kde lidé už reagovali na příkazy spíše než na žádosti – a model tak má vyšší pravděpodobnost správné odpovědi v podobném stylu.
Důsledky pro svět AI a uživatele
Z technologického hlediska výsledek znamená, že tón promptu je proměnná, kterou by měli výzkumníci a tvůrci UI systémů brát v potaz. Prompt engineering – tvorba efektivních instrukcí pro AI – dosud kladl důraz hlavně na styl, výstupní formát, klíčová slova – ale teď je zřejmé, že i emoční tón promptu ovlivňuje výkon.
Z etického pohledu však nastupuje otázka: Pokud hrubost vede k lepším výsledkům, jak ovlivní vztah člověka k AI? Pokud se bude uživatelská komunikace s AI systémem zvyšovat tímto směrem, může to podporovat drsnější styl komunikace i mimo digitální prostředí. A to byl jeden z hlavních apelů autorů: „Je důležité nevytvářet precedens ‚mluv na AI jako na dítě‘“.
Z praktického pohledu pro běžného uživatele to znamená:
-
Pokud máte jednoduchý úkol, můžete zkusit prompt formulovat co nejstručněji a cíleněji – bez omluv, přitom vhodným jazykem.
-
Neznamená to, že musíte být hrubí – spíš že podle experimentu je účinné vynechat zdvořilostní výrazy, které neumí model nutně „vidět“ jako užitečný signál.
-
Ve skupinových či profesionálních kontextech však platí: zdvořilost a respekt zůstávají klíčové – výzkum nehodnotí dopad komunikace na vztah, týmovou dynamiku nebo psychiku uživatele.
Výhled a další kroky
Autoři studie plánují rozšířit experimenty na více modelů a širší spektrum úloh – nejen vícevýběrové otázky, ale otevřené odpovědi, kreativní texty či multimodální interakce. Důležité bude sledovat, zda efekt „hrubší prompt = lepší výkon“ platí obecně, nebo pouze v úzce definované sadě.
Zároveň je třeba důrazně podtrhnout, že lepší přesnost neznamená lepší výsledek v širším smyslu – uživatelská zkušenost, interpretace a důvěra v AI hrají roli. Jak uvádějí autoři: „My nepodporujeme hrubý styl komunikace – jen ukazujeme, že tón má vliv na strojový výkon“.
Z dlouhodobější perspektivy by mohl tento poznatek ovlivnit návrh AI rozhraní – prompty by mohly mít optimalizované vzorce tónu, nebo by mohla být součástí instrukce i žádost o konkrétní styl („bez omluv, rovnou úkol“). Uživatelé by měli být ovšem informováni, že tón je součástí – ne náhradou – obsahu zadání.
Pokud příště kliknete na ChatGPT a napíšete „Ok, udělej to“ místo „Prosím, mohl bys…“, možná dosáhnete přesnější odpovědi. Ale měli byste zároveň zamyslet nad tím, jak chcete komunikovat s AI – jako s nástrojem nebo jako s partnerem. A ujasnit si, že lepší výkon modelu není důkazem lepšího vztahu mezi člověkem a strojem.