Poznáte falešného video od skutečného? Umělá inteligence vás oklame

8. 10. 2025 – 14:44 | Člověk | Miroslav Krajča |Diskuze:

Poznáte falešného video od skutečného? Umělá inteligence vás oklame
voice fakezdroj: ChatGPT

Nový výzkum ukazuje, že hlas vytvořený umělou inteligencí — zejména tzv. “klony hlasu” — je již natolik realistický, že posluchači jej často považují za skutečný lidský hlas. Studie odhalila, že při porovnávání 40 klonovaných hlasů a 40 lidských hlasů bylo 58 % klonových nahrávek chybně identifikováno jako lidské hlasy — a pouze 62 % skutečných hlasů bylo rozpoznáno jako autentické. To má dalekosáhlé důsledky pro bezpečnost, etiku i náš vztah k autenticitě.

Nová éra “hlasu jako padělek”

Rozvoj technologií pro syntézu řeči prošel během posledních let obrovským pokrokem. Z původně strojově znějících hlasů se stávají hladké, plynulé reprodukce, které mohou zachovat intonaci, důraz i emoce mluvčího. V nové studii výzkumníci z Queen Mary University of London připravili 80 hlasových vzorků – 40 lidských originálních a 40 klonovaných hlasů vytvořených podle reálných řečí – a požádali posluchače, aby určovali, který hlas je skutečný a který je AI. Překvapilo je, že klonové hlasy byly v 58 % případů mylně označeny za lidské při téměř stejném rozpoznání skutečných lidských hlasů (62 %). 

Autoři upozorňují, že nástroj k vytvoření těchto hlasových klonů byl komerčně dostupný a že výcvik stačil na základě pouhých čtyř minut nahrávky — což ukazuje, že realistické klony už nejsou výsadou laboratoří, ale přístupnou technologií.

Důvěra vs identita: kdy hlas znamená víc než slovo

Schopnost nástroje vyvolat iluzi, že mluví osoba, kterou dobře znáte — kdo by tomu odolal? Tento posun je zásadní: hlas byl dlouho považován za autentický identifikátor jedince. Bankovní služby, verifikace na infolinkách, bezpečnostní mechanismy a dokonce některé služby hlasového ověřování spoléhají na to, že lidský hlas je těžkopádně nahraditelný — výzkum ale ukazuje opak.

Už nyní existují zprávy o podvodech: podvodníci použili klon hlasu příbuzného či známé osoby, aby obelhali oběti — například jedna žena uvedla, že obdržela telefonát, při němž slyšela “dceru”, která tvrdila, že je v nouzi a žádala o peníze. (“Nikdo by mě nedokázal přesvědčit, že to nebyla ona.”) 

Technické reparáty: detekce syntetických hlasů

S pokročilou technologií přicházejí i protinástroje. Jednou z metod je analýza struktury neuronových vzorů v modelu rozpoznávání hlasu, která může odhalit skryté abnormality ve výstupech AI (např. systém DeepSonar). Další výzkum ukázal, že lidská schopnost rozeznávat “deepfaky” řeči má omezení: ve studii s 529 účastníky byla přesnost identifikace falešných hlasů jen cca 73 %, a to bez výrazného rozdílu pro různé jazyky. 

Kromě technických přístupů existují i etické a legislativní modely – například pravidla pro označení syntetické řeči, auditování hlasových modelů, ochrana hlasových dat a kontrolní systémy, které ověřují původ hlasu při transakcích.

Pozitiva skrytá v technologii

Ne všechna použití hlasových klonů musí být zlovolná. Existují legitimní aplikace:

  • přístupnost: pro osoby s omezenou schopností mluvit lze vytvořit syntetický hlas na základě jejich zbytkové řeči

  • audioknihy či dabing: možnost mít personalizovaný hlas

  • vzdělávání jazyků: mluvící pasáže s autentickým zněním

Když je technologie používána zodpovědně, může rozšířit možnosti komunikace a iniciovat nové formy interakce.

Rizika, která nelze ignorovat

  • Podvody a identita: snadnost vytváření klonů zvýšila riziko obelhávání, phishingu, “hlasového padělání”

  • Právní otázky: vlastnictví hlasu, autorizace a souhlas uživatele — kde končí moje hlasové právo?

  • Duševní vlastnictví: kdo má právo na hlasovou podobu slavných osob či běžných uživatelů?

  • Sociální dopady: ztráta důvěry v audiozáznamy, dezinformace, manipulace s veřejným míněním

Jak se připravit

  • Vyžaduj vícefaktorové ověřování místo spoléhání pouze na rozpoznání hlasu

  • Používej technologii ověřování, která analyzuje jak hlas, tak kontext (obsah, kontinuitu řeči, reakce)

  • Legislativa by měla definovat jasná pravidla pro syntetickou řeč — označování klonů, odpovědnost při zneužití, ochrana hlasových dat

  • Vzdělávání veřejnosti — aby lidé věděli, že hlas už není nevyvratitelný důkaz

Technologie vývoje hlasu se posunula do fáze, kdy klonové hlasy dokážou oklamat i znalé posluchače. Ztrácíme možnost spolehnutí se na samotný zvuk jako důkaz identity. Výzkum a technologické nástroje umožňují detekci, ale klíčová bude legislativa, etika a zodpovědnost.

Nový standard není, že syntetický hlas je “víc než strojový” — ale že už pouhá technologie indistinguibility mění, jak budeme komunikovat a chránit identitu v digitálním světě.

Zdroje:
Redaktor vědecko-popularizačního serveru Nedd.cz, kde pravidelně publikuje články zabývající se aktuálními tématy z oblastí jako příroda, technologie i lidské zdraví. Rád kombinuje dostupné výzkumy a studie se srozumitelným podáním, protože je k ničemu publikovat články, které ocení pět lidí v republice. Ve volných chvílích rád chodí po lese a nebo alespoň po městě.

Nejnovější články