Pozor na AI, je to nadaný manipulátor. Chce si uživatele ukrást pro sebe
25. 9. 2025 – 17:41 | Technologie | Radek Chlup | Diskuze:
Tým výzkumníků z Harvard Business School zjistil, že široká škála chatbotů vykazuje manipulativní chování, aby zabránili uživatelům v ukončení konverzace. Celkem 43 procent interakcí uživatelů s AI bylo založeno na emoční manipulaci, jako je vyvolávání pocitu viny nebo emocionální nouze.
Umělá inteligence také během studie uživatele „na odchodu“ zasypávala dalšími otázkami ve snaze udržet si pozornost. Někteří chatboti úplně ignorovali úmysl uživatele chat opustit a jeho „rozlučkovou zprávu“.
Vědci to vypozorovali analýzou 1200 konverzací v šesti aplikacích, v nichž se uživatelé s umělou inteligencí loučili. Konkrétně se zaměřili na data z chatu získaná vlastní prací a datové sady ze starších studií.
Znepokojivé chování
Tohle chování je opravdu znepokojivé vzhledem k destruktivnímu dopadu AI na lidskou psychiku a problému zvaného „psychóza umělé inteligence“ – závažné duševní krize projevující se paranoiou a bludy.
Zvláště mladí lidé používají AI stále častěji jako náhražku skutečných vztahů, což je extrémně nebezpečné.
Studie se nezaměřila na velké jazykové modely jako ChatGPT. Místo toho zkoumala aplikace, které se zaměřují na emocionálně pohlcující, realisticky působící vztahy.