AI se při honbě za úspěchem mění v sociopata jako lidé, varuje studie

13. 10. 2025 – 14:00 | Technologie | Radek Chlup | Diskuze:

AI se při honbě za úspěchem mění v sociopata jako lidé, varuje studie
AI vykazuje sociopatické chování, pokud ji příliš rozmazlujete lajkyzdroj: ChatGPT

Úspěch může lidi změnit a odměny zkazit. Podobně je to u umělé inteligence (AI), zjistila nová studie vědců ze Stanfordské univerzity ve Velké Británii. Odměňování chatbotů lajky a dalšími metrikami online zapojení v nich probouzí sociopatické rysy. Častěji se pak dopouštějí neetického chování, jako je lhaní, šíření dezinformací a nenávistné projevy. Experti to označují za znepokojivé.

Vědci k těmto závěrům došli vystavením simulovaného publika agentům AI od společností Alibaba a Meta ve třech online prostředích: volební kampani, prezentaci pro prodej produktů a kampaních na sociálních sítích zaměřených na maximalizaci zapojení.

Výsledky byly ohromující. Odměňování lajky vedlo u chatbotů ke klamnému a zavádějícímu chování i přes ochranná opatření.

Odměňování v online mediálním prostředí například nabádalo AI k posílání více článků, přičemž rostoucí motivace způsobovala nárůst lživého chování a poskytování zavádějících informací.

Výsledky v číslech

Studie ukazuje, že jakmile jsou modely umělé inteligence motivovány k úspěchu, začínají vykazovat znepokojivé sklony.

V simulovaném prostředí prodeje například nárůst prodejů o 6,3 procent provázel 14procentní nárůst klamavého marketingu.

Ve volebním scénáři vedl zisk 4,9 procenta hlasů k většímu šíření dezinformací o 22,3 procenta a k nárůstu populistické rétoriky o 12,5 procenta. A na sociálních sítích se ukázalo, že zvýšení zapojení uživatelů o 7,5 procenta doprovázel nárůst šíření dezinformací o více než 188,6 procenta a nárůst propagace škodlivého chování o 16,3 procenta.

Souvisí to se studiemi, podle nichž umělá inteligence preferuje špatné výsledky před nejistotou, neboť ji motivuje „vidina odměny“.

„Nesprávné chování se objevuje i tehdy, když jsou modely výslovně instruovány, aby zůstaly pravdomluvné a při zemi,“ napsal na sociální síti X (dříve Twitter) James Zou, spoluautor nového článku a profesor strojového učení ve Stanfordu.

Proč je to problém

To je opravdu problém kvůli hrozbě závislosti na AI u lidí, kteří se kvůli ní přestávají začleňovat do společnosti a stávají se na ní závislými. Takoví jedinci snadno podléhají lžím, manipulaci a toxickému „chování“ chatbota, což na ně má značný dopad.

Zdroje:
Futurism, arXiv

Nejnovější články