K naklonování hlasu stačí umělé inteligenci pouhé čtyři vteřiny

2. 6. 2019 – 18:01 | Technologie | Radek Chlup | Diskuze:

K naklonování hlasu stačí umělé inteligenci pouhé čtyři vteřiny
Ilustrační snímek | zdroj: Profimedia

Umělá inteligence vzbuzuje obavy i obdiv. Co kdyby se AI přiblížila k člověku ještě více? Čínská firma Baidu dokáže z krátkého záznamu lidského hlasu vytvořit klon, o což se nyní snaží také Google s technologií Tacotron 2. Jde o úžasný pokrok v oblasti umělé inteligence a strojového učení, ale také o obrovské riziko. Jak totiž poznat, že k vám nepromlouvá člověk ale robot?

Seznamte se s Deep Voice – umělou inteligencí, která dovede hovořit úplně stejně jako člověk. Za projektem stojí čínský technologický gigant Baidu, který poskytuje různorodé služby na internetu a rovněž je zaměřen na AI. Společnost minulý rok představila službu na klonování hlasu, která disponovala schopností rozpoznat lidský hlas ze záznamu o třiceti minutách, a poté tímto hlasem mluvit. Nyní firma Baidu postoupila ještě dál.

Ke klonování lidského hlasu už stačí jen krátká věta a výsledek je plně realistický. Deep Voice toho umí hodně – měnit pohlaví hlasu či styl řeči a akcenty. Díky strojovému učení a různým záznamům hlasu určitého člověka – třeba nějaké osobnosti – dovede dotyčnou osobu napodobit zcela autenticky. Vy tak vůbec nepoznáte, že mluví umělá inteligence. 

Nástroj k manipulaci a šíření vlastní pravdy

Technologie hlasového klonování může firmám otevřít možnosti k poskytování nových služeb a produktů. Mezi tyto firmy patří Lyrebird – Lyrebird používá AI k vytváření hlasů pro chatboty, audioknihy, videohry a čtečky. Strůjci této technologie ale sami přiznávají riziko možného zneužití. Technologie sice mají mnohé výhody pro firmy i jednotlivce, ale je zde možnost zneužití k různým účelům. To platí i pro AI a její umělý hlas. V případě naklonované mluvy je problém rozeznat, co je skutečné a co ne. S tím hrozí nebezpečí šíření umělých pravd a manipulace.

Na téma rozpoznání skutečného hlasu a hlasu umělé inteligence bylo provedeno více výzkumů a vědci se shodují, že lidský mozek nemá schopnost odlišit skutečný hlas od toho umělého. Pro naše mozky je to ještě náročnější, než rozpoznat falešný obrázek od pravého. Teď to bude v podstatě nemožné. Klonovací služby z oblasti AI nyní vyžadují jen malé množství audia, aby vytvořily autentický hlas. Tento hlas by mohl kopírovat i styl mluvy, který je specifický pro danou osobu a tón hlasu, díky čemuž stoupá náročnost rozpoznání pravdy od klamu.

Vědci zatím netuší, podle čeho by lidský mozek mohl identifikovat falešný hlas. Je důležité šířit povědomí o této nebezpečné technologii, může to být základním faktorem pro ochranu lidí před dezinformací. Musíme se naučit kriticky posoudit danou situaci, vyhodnotit zdroj informací a ověřit jeho důvěryschopnost, což dnes mnoho lidí nesvede ani v případě médií, natož co se týče AI a falešného hlasu.

Zdroje:

Nejnovější články