AI může být jen slepá ulička, už i OpenAI přiznává chybu
15. 9. 2025 – 15:00 | Technologie | Radek Chlup | Diskuze:
Technologičtí giganti prezentují umělou inteligenci (AI) jako řešení všech našich problémů a zároveň varují před apokalypsou, aby zdůraznili její ohromující potenciál. Odborníci ale silná prohlášení těchto korporátů, jejichž jediným cílem je ziskovost, usměrňují. Revoluční technologii stále častěji označují za nafouklou bublinu. Zisky totiž zaostávají za výdaji. Chatboti navíc hloupnou. A to je větší problém, než by se mohlo zdát.
I přes astronomické náklady a vývoj stále pokročilejších modelů neposkytuje AI přesné odpovědi. Tímto fenoménem se zabývala nejedna studie. Je to opravdu problém, nové modely se totiž učí na datech těch starých. Čerpají z nesprávných či nepřesných informací a přesnost jejich odpovědí klesá. A tak pořád dokola.
Umělá inteligence nechápe svět a souvislosti. Není to uvažující lidská bytost, ale aplikace ve vašem mobilním telefonu. Pouze generuje.
Je to zásadní problém, který zužuje celé odvětví a významně snižuje užitečnost této technologie. Zda existuje řešení, je předmětem debat. Podle některých názorů jsou „halucinace“ umělé inteligenci vlastní. Přirozené. Revoluční technologie může být jen slepou uličkou v úsilí vytvořit nástroj schopný „chápat“.
Řešení prý existuje
Chybu přiznávají i odborníci ze společnosti OpenAI. Podle nich jazykové modely chybují, neboť jsou při svém vývoji a tréningu motivovány k hádání založeném na odměnách. Když neznají odpověď, nepřiznají to. Hádání v testech podle nového článku zlepšuje jejich výkon při jejich plnění.
Výstup AI je obvykle hodnocen binárním způsobem – za správnou i špatnou odpověď odměna a za nejistotu penalizace. Jinými slovy, hádání následuje odměna, protože by mohlo být správné. Pokud umělá inteligence přizná, že odpověď nezná, označeno to bude za nesprávné a přijde penalizace. Chatboti tedy preferují jakoukoli odpověď před uznání „nejistoty“.
OpenAI defacto přiznává, že se spolu s ostatními hráči na trhu dopustila závažné strukturální chyby ve způsobu trénování chatbotů.
Podle ní ale řešení existuje.
„Penalizujte chyby v jistotě více než nejistotu a částečně uznejme vhodné projevy nejistoty,“ napsali v článku odborníci.