Poznáte falešného video od skutečného? Umělá inteligence vás oklame
8. 10. 2025 – 14:44 | Člověk | Miroslav Krajča |Diskuze:
Nový výzkum ukazuje, že hlas vytvořený umělou inteligencí — zejména tzv. “klony hlasu” — je již natolik realistický, že posluchači jej často považují za skutečný lidský hlas. Studie odhalila, že při porovnávání 40 klonovaných hlasů a 40 lidských hlasů bylo 58 % klonových nahrávek chybně identifikováno jako lidské hlasy — a pouze 62 % skutečných hlasů bylo rozpoznáno jako autentické. To má dalekosáhlé důsledky pro bezpečnost, etiku i náš vztah k autenticitě.
Nová éra “hlasu jako padělek”
Rozvoj technologií pro syntézu řeči prošel během posledních let obrovským pokrokem. Z původně strojově znějících hlasů se stávají hladké, plynulé reprodukce, které mohou zachovat intonaci, důraz i emoce mluvčího. V nové studii výzkumníci z Queen Mary University of London připravili 80 hlasových vzorků – 40 lidských originálních a 40 klonovaných hlasů vytvořených podle reálných řečí – a požádali posluchače, aby určovali, který hlas je skutečný a který je AI. Překvapilo je, že klonové hlasy byly v 58 % případů mylně označeny za lidské při téměř stejném rozpoznání skutečných lidských hlasů (62 %).
Autoři upozorňují, že nástroj k vytvoření těchto hlasových klonů byl komerčně dostupný a že výcvik stačil na základě pouhých čtyř minut nahrávky — což ukazuje, že realistické klony už nejsou výsadou laboratoří, ale přístupnou technologií.
Důvěra vs identita: kdy hlas znamená víc než slovo
Schopnost nástroje vyvolat iluzi, že mluví osoba, kterou dobře znáte — kdo by tomu odolal? Tento posun je zásadní: hlas byl dlouho považován za autentický identifikátor jedince. Bankovní služby, verifikace na infolinkách, bezpečnostní mechanismy a dokonce některé služby hlasového ověřování spoléhají na to, že lidský hlas je těžkopádně nahraditelný — výzkum ale ukazuje opak.
Už nyní existují zprávy o podvodech: podvodníci použili klon hlasu příbuzného či známé osoby, aby obelhali oběti — například jedna žena uvedla, že obdržela telefonát, při němž slyšela “dceru”, která tvrdila, že je v nouzi a žádala o peníze. (“Nikdo by mě nedokázal přesvědčit, že to nebyla ona.”)
Technické reparáty: detekce syntetických hlasů
S pokročilou technologií přicházejí i protinástroje. Jednou z metod je analýza struktury neuronových vzorů v modelu rozpoznávání hlasu, která může odhalit skryté abnormality ve výstupech AI (např. systém DeepSonar). Další výzkum ukázal, že lidská schopnost rozeznávat “deepfaky” řeči má omezení: ve studii s 529 účastníky byla přesnost identifikace falešných hlasů jen cca 73 %, a to bez výrazného rozdílu pro různé jazyky.
Kromě technických přístupů existují i etické a legislativní modely – například pravidla pro označení syntetické řeči, auditování hlasových modelů, ochrana hlasových dat a kontrolní systémy, které ověřují původ hlasu při transakcích.
Pozitiva skrytá v technologii
Ne všechna použití hlasových klonů musí být zlovolná. Existují legitimní aplikace:
-
přístupnost: pro osoby s omezenou schopností mluvit lze vytvořit syntetický hlas na základě jejich zbytkové řeči
-
audioknihy či dabing: možnost mít personalizovaný hlas
-
vzdělávání jazyků: mluvící pasáže s autentickým zněním
Když je technologie používána zodpovědně, může rozšířit možnosti komunikace a iniciovat nové formy interakce.
Rizika, která nelze ignorovat
-
Podvody a identita: snadnost vytváření klonů zvýšila riziko obelhávání, phishingu, “hlasového padělání”
-
Právní otázky: vlastnictví hlasu, autorizace a souhlas uživatele — kde končí moje hlasové právo?
-
Duševní vlastnictví: kdo má právo na hlasovou podobu slavných osob či běžných uživatelů?
-
Sociální dopady: ztráta důvěry v audiozáznamy, dezinformace, manipulace s veřejným míněním
Jak se připravit
-
Vyžaduj vícefaktorové ověřování místo spoléhání pouze na rozpoznání hlasu
-
Používej technologii ověřování, která analyzuje jak hlas, tak kontext (obsah, kontinuitu řeči, reakce)
-
Legislativa by měla definovat jasná pravidla pro syntetickou řeč — označování klonů, odpovědnost při zneužití, ochrana hlasových dat
-
Vzdělávání veřejnosti — aby lidé věděli, že hlas už není nevyvratitelný důkaz
Technologie vývoje hlasu se posunula do fáze, kdy klonové hlasy dokážou oklamat i znalé posluchače. Ztrácíme možnost spolehnutí se na samotný zvuk jako důkaz identity. Výzkum a technologické nástroje umožňují detekci, ale klíčová bude legislativa, etika a zodpovědnost.
Nový standard není, že syntetický hlas je “víc než strojový” — ale že už pouhá technologie indistinguibility mění, jak budeme komunikovat a chránit identitu v digitálním světě.