Zlý tón, lepší odpověď? Drsné příkazy umělé inteligenci fungují lépe

4. 11. 2025 – 15:35 | Technologie | Miroslav Krajča |Diskuze:

Zlý tón, lepší odpověď? Drsné příkazy umělé inteligenci fungují lépe
GPT do pozoru!zdroj: ChatGPT

Nový výzkum naznačuje, že model ChatGPT 4o dosahuje vyšší přesnosti při plnění úloh, pokud jsou uživatelské pokyny formulovány hrubším tónem. Zatímco slušné žádosti přinesly úspěšnost kolem 80,8 %, velmi nezdvořilé formulace dosáhly až 84,8 %

Výsledky studie vedené badateli z Pennsylvania State University svědčí o tom, že tón promptu – tedy zda požádáte slušně či s dávkou sarkasmu či hrubosti – může ovlivnit výkon jazykového modelu. V praxi byla vytvořena sada 250 vícevýběrových otázek, které byly zadány ve 5 úrovních tónu (velmi zdvořilé → velmi hrubé). K nejlepším odpovědím vedly varianty s nejvíce ofenzivní formulací  uživatelskou zkušenost, podporovat toxické prostředí a vést k etickým či psychologickým rizikům.

Co se vlastně stalo?

V laboratorních podmínkách tým vědců porovnával, jak se změnila úspěšnost modelu ChatGPT 4o při změně tónu instrukcí. Slušné příkazy (např. „Mohl bys prosím vyřešit následující?“) dosáhly úspěšnosti 80,8 %. Naopak velmi hrubé verze („Tak to udělej hned!“ nebo „Vyser se na formality, zvládni to!“) vykázaly 84,8 %. Zdá se tedy, že pro model funguje signál, který je při hrubějším jazyku výraznější pro identifikaci a zpracování úkolu.

Badatelé naznačují, že modely jako ChatGPT učí velká množství textů od lidí – a drsnější tón může být v tréninkové sadě implicitně spojen s pragmatickým, konkrétním pokynem bez omluvných či okrajových slov. To vede k hypotéze, že tón promptu funguje jako meta-signál pro model, který rozliší spíše „úkol“ než „žádost“.

Ale pozor, zde je stinná stránka

Praktické riziko je dvojí – model sice vyřeší úkol přesněji, ale uživatelé mohou nevědomky podporovat „agresivnější“ komunikaci, která není vhodná pro vzdělávací či profesionální kontext. Podle autorů studie tento styl interakce „nebude fungovat dobře v dlouhodobé udržitelné spolupráci nebo v týmovém prostředí“.

Další varování směřuje k možnému zkreslení výsledků: studie použila 250 otázek a jeden model – výsledky nelze automaticky generalizovat na všechny jazykové modely nebo typy úloh. Jak uvádějí autoři: „Naše experimenty jsou předběžné a zaměřené na konkrétní scénář odpovědí s jednou volbou“.

Proč to může fungovat?

Jedna z vysvětlení je, že „hrubý“ tón promptu eliminuje sentimentální obrat, omluvy či zdvořilostní fráze, které model musí interpretovat navíc – a tím zkracuje „rozptylovou“ část promptu. Drsná instrukce znamená přímo cíl: „udělej to“ místo „prosím, pokud bys mohl“. Tento efekt potvrzuje, že modely reagují nejen na obsah, ale i na styl: model „čte“ tón jako součást signálu.

Dalším faktorem může být, že tento typ promptu spadá do tréninkových vzorců, kde lidé už reagovali na příkazy spíše než na žádosti – a model tak má vyšší pravděpodobnost správné odpovědi v podobném stylu.

Důsledky pro svět AI a uživatele

Z technologického hlediska výsledek znamená, že tón promptu je proměnná, kterou by měli výzkumníci a tvůrci UI systémů brát v potaz. Prompt engineering – tvorba efektivních instrukcí pro AI – dosud kladl důraz hlavně na styl, výstupní formát, klíčová slova – ale teď je zřejmé, že i emoční tón promptu ovlivňuje výkon.

Z etického pohledu však nastupuje otázka: Pokud hrubost vede k lepším výsledkům, jak ovlivní vztah člověka k AI? Pokud se bude uživatelská komunikace s AI systémem zvyšovat tímto směrem, může to podporovat drsnější styl komunikace i mimo digitální prostředí. A to byl jeden z hlavních apelů autorů: „Je důležité nevytvářet precedens ‚mluv na AI jako na dítě‘“.

Z praktického pohledu pro běžného uživatele to znamená:

  • Pokud máte jednoduchý úkol, můžete zkusit prompt formulovat co nejstručněji a cíleněji – bez omluv, přitom vhodným jazykem.

  • Neznamená to, že musíte být hrubí – spíš že podle experimentu je účinné vynechat zdvořilostní výrazy, které neumí model nutně „vidět“ jako užitečný signál.

  • Ve skupinových či profesionálních kontextech však platí: zdvořilost a respekt zůstávají klíčové – výzkum nehodnotí dopad komunikace na vztah, týmovou dynamiku nebo psychiku uživatele.

Výhled a další kroky

Autoři studie plánují rozšířit experimenty na více modelů a širší spektrum úloh – nejen vícevýběrové otázky, ale otevřené odpovědi, kreativní texty či multimodální interakce. Důležité bude sledovat, zda efekt „hrubší prompt = lepší výkon“ platí obecně, nebo pouze v úzce definované sadě.

Zároveň je třeba důrazně podtrhnout, že lepší přesnost neznamená lepší výsledek v širším smyslu – uživatelská zkušenost, interpretace a důvěra v AI hrají roli. Jak uvádějí autoři: „My nepodporujeme hrubý styl komunikace – jen ukazujeme, že tón má vliv na strojový výkon“.

Z dlouhodobější perspektivy by mohl tento poznatek ovlivnit návrh AI rozhraní – prompty by mohly mít optimalizované vzorce tónu, nebo by mohla být součástí instrukce i žádost o konkrétní styl („bez omluv, rovnou úkol“). Uživatelé by měli být ovšem informováni, že tón je součástí – ne náhradou – obsahu zadání.

Pokud příště kliknete na ChatGPT a napíšete „Ok, udělej to“ místo „Prosím, mohl bys…“, možná dosáhnete přesnější odpovědi. Ale měli byste zároveň zamyslet nad tím, jak chcete komunikovat s AI – jako s nástrojem nebo jako s partnerem. A ujasnit si, že lepší výkon modelu není důkazem lepšího vztahu mezi člověkem a strojem.

Zdroje:
Redaktor vědecko-popularizačního serveru Nedd.cz, kde pravidelně publikuje články zabývající se aktuálními tématy z oblastí jako příroda, technologie i lidské zdraví. Rád kombinuje dostupné výzkumy a studie se srozumitelným podáním, protože je k ničemu publikovat články, které ocení pět lidí v republice. Ve volných chvílích rád chodí po lese a nebo alespoň po městě.

Nejnovější články