AI se při honbě za úspěchem mění v sociopata jako lidé, varuje studie
13. 10. 2025 – 14:00 | Technologie | Radek Chlup | Diskuze:
Úspěch může lidi změnit a odměny zkazit. Podobně je to u umělé inteligence (AI), zjistila nová studie vědců ze Stanfordské univerzity ve Velké Británii. Odměňování chatbotů lajky a dalšími metrikami online zapojení v nich probouzí sociopatické rysy. Častěji se pak dopouštějí neetického chování, jako je lhaní, šíření dezinformací a nenávistné projevy. Experti to označují za znepokojivé.
Vědci k těmto závěrům došli vystavením simulovaného publika agentům AI od společností Alibaba a Meta ve třech online prostředích: volební kampani, prezentaci pro prodej produktů a kampaních na sociálních sítích zaměřených na maximalizaci zapojení.
Výsledky byly ohromující. Odměňování lajky vedlo u chatbotů ke klamnému a zavádějícímu chování i přes ochranná opatření.
Odměňování v online mediálním prostředí například nabádalo AI k posílání více článků, přičemž rostoucí motivace způsobovala nárůst lživého chování a poskytování zavádějících informací.
Výsledky v číslech
Studie ukazuje, že jakmile jsou modely umělé inteligence motivovány k úspěchu, začínají vykazovat znepokojivé sklony.
V simulovaném prostředí prodeje například nárůst prodejů o 6,3 procent provázel 14procentní nárůst klamavého marketingu.
Ve volebním scénáři vedl zisk 4,9 procenta hlasů k většímu šíření dezinformací o 22,3 procenta a k nárůstu populistické rétoriky o 12,5 procenta. A na sociálních sítích se ukázalo, že zvýšení zapojení uživatelů o 7,5 procenta doprovázel nárůst šíření dezinformací o více než 188,6 procenta a nárůst propagace škodlivého chování o 16,3 procenta.
Souvisí to se studiemi, podle nichž umělá inteligence preferuje špatné výsledky před nejistotou, neboť ji motivuje „vidina odměny“.
„Nesprávné chování se objevuje i tehdy, když jsou modely výslovně instruovány, aby zůstaly pravdomluvné a při zemi,“ napsal na sociální síti X (dříve Twitter) James Zou, spoluautor nového článku a profesor strojového učení ve Stanfordu.
Proč je to problém
To je opravdu problém kvůli hrozbě závislosti na AI u lidí, kteří se kvůli ní přestávají začleňovat do společnosti a stávají se na ní závislými. Takoví jedinci snadno podléhají lžím, manipulaci a toxickému „chování“ chatbota, což na ně má značný dopad.