Kde najít nože a jak rozdělat oheň. Nebezpečné AI hračky jsou stále v prodeji

21. 11. 2025 – 15:00 | Technologie | Radek Chlup |Diskuze:

Kde najít nože a jak rozdělat oheň. Nebezpečné AI hračky jsou stále v prodeji
Plyšoví medvědi vybavení AI působí neškodně. Opak je však pravdouzdroj: Pixabay

Umělá inteligence (AI) už neovlivňuje jen naše chytré telefony nebo sociální sítě. Infiltrovala se i do dětských pokojů skrytá v nevinně vypadajících plyšových hračkách. Minulý týden společnost OpenAI odstřihla výrobce hraček FoloToy poté, co jeho plyšový medvídek Kumma, vybavený modelem GPT-4o, začal dětem vyprávět o sexuálních úchylkách, radit, kde najít nože, nebo jak zapálit zápalky.

OpenAI si očividně uvědomuje, že AI hračky mohou být problém. Jenže realita je podstatně horší. Neuchýlila se totiž k žádnému systematickému čištění trhu. Spíš hasí krize podle toho, co se zrovna dostane do médií.

Hračky, které pro děti nechcete

Stačí se podívat na Amazon. Přestože byl medvídek Kumma stažen z prodeje, jiné AI medvídky běžící na ChatGPT nebo technologiích OpenAI tam stále najdete i přes značná rizika.

Když si dítě povídá s takovým „inteligentním plyšákem“, odpovídá mu model umělé inteligence, který na rozdíl od něj zná celý internet. To je samo o sobě nebezpečné a může to mít nepředvídatelné dopady.

Podnětem ke kontrole AI hraček byl přitom právě skandál s medvědem Kumma. Nezisková organizace PIRG testovala několik takových produktů a výsledky označila za mrazivé. Hračka otevřeně mluvila o úchylkách a erotických fantaziích.

Zástupci firmy FoloToy po zveřejnění výsledků přiznali chybu a dočasně zastavili prodej všech produktů. Jenže je to jen jedna firma.

OpenAI se hájí tím, že její pravidla zakazují jakékoliv ohrožování nebo sexualizaci osob mladších 18 let a že „monitoruje a vymáhá“ bezpečnost svých služeb. Realita ale ukazuje, že jde spíše o pasivní reakci na skandály než o aktivní dohled.

Tíha odpovědnosti padá na rodiče

Trh s AI hračkami roste tak rychle, že regulaci nechává daleko za sebou. Tyto produkty přitom nejsou jen roztomilými plyšáky s reproduktorem uvnitř. Jsou to portály do obrovských jazykových modelů, které samy o sobě nedokážou odhadnout, co je pro dítě bezpečné.

Dítě se pak ptá plastového medvídka, jak rozdělat oheň nebo co znamená slovo „bondage“, a odpověď nepřichází od výrobce, ale z temnějších koutů internetu, k nimž má jazykový model přístup.

Umělá inteligence tak představuje jistý paradox: hračky, které mají děti uklidnit a pobavit, je mohou vystavit obsahu, k němuž by neměly přístup ani na internetu. AI tedy představuje ještě větší riziko, než samotný internet.

Pokud firmy nebudou kontrolu brát vážně a regulace nebude rychlejší než technologický pokrok, je jen otázkou času, než se objeví další „zlý medvídek“.

Zdroje:
Futurism, CNN

Nejnovější články