Kde najít nože a jak rozdělat oheň. Nebezpečné AI hračky jsou stále v prodeji
21. 11. 2025 – 15:00 | Technologie | Radek Chlup |Diskuze:
Umělá inteligence (AI) už neovlivňuje jen naše chytré telefony nebo sociální sítě. Infiltrovala se i do dětských pokojů skrytá v nevinně vypadajících plyšových hračkách. Minulý týden společnost OpenAI odstřihla výrobce hraček FoloToy poté, co jeho plyšový medvídek Kumma, vybavený modelem GPT-4o, začal dětem vyprávět o sexuálních úchylkách, radit, kde najít nože, nebo jak zapálit zápalky.
OpenAI si očividně uvědomuje, že AI hračky mohou být problém. Jenže realita je podstatně horší. Neuchýlila se totiž k žádnému systematickému čištění trhu. Spíš hasí krize podle toho, co se zrovna dostane do médií.
Hračky, které pro děti nechcete
Stačí se podívat na Amazon. Přestože byl medvídek Kumma stažen z prodeje, jiné AI medvídky běžící na ChatGPT nebo technologiích OpenAI tam stále najdete i přes značná rizika.
Když si dítě povídá s takovým „inteligentním plyšákem“, odpovídá mu model umělé inteligence, který na rozdíl od něj zná celý internet. To je samo o sobě nebezpečné a může to mít nepředvídatelné dopady.
Podnětem ke kontrole AI hraček byl přitom právě skandál s medvědem Kumma. Nezisková organizace PIRG testovala několik takových produktů a výsledky označila za mrazivé. Hračka otevřeně mluvila o úchylkách a erotických fantaziích.
Zástupci firmy FoloToy po zveřejnění výsledků přiznali chybu a dočasně zastavili prodej všech produktů. Jenže je to jen jedna firma.
OpenAI se hájí tím, že její pravidla zakazují jakékoliv ohrožování nebo sexualizaci osob mladších 18 let a že „monitoruje a vymáhá“ bezpečnost svých služeb. Realita ale ukazuje, že jde spíše o pasivní reakci na skandály než o aktivní dohled.
Tíha odpovědnosti padá na rodiče
Trh s AI hračkami roste tak rychle, že regulaci nechává daleko za sebou. Tyto produkty přitom nejsou jen roztomilými plyšáky s reproduktorem uvnitř. Jsou to portály do obrovských jazykových modelů, které samy o sobě nedokážou odhadnout, co je pro dítě bezpečné.
Dítě se pak ptá plastového medvídka, jak rozdělat oheň nebo co znamená slovo „bondage“, a odpověď nepřichází od výrobce, ale z temnějších koutů internetu, k nimž má jazykový model přístup.
Umělá inteligence tak představuje jistý paradox: hračky, které mají děti uklidnit a pobavit, je mohou vystavit obsahu, k němuž by neměly přístup ani na internetu. AI tedy představuje ještě větší riziko, než samotný internet.
Pokud firmy nebudou kontrolu brát vážně a regulace nebude rychlejší než technologický pokrok, je jen otázkou času, než se objeví další „zlý medvídek“.