Počítač dovede v mozku rozeznat mluvená slova
27. 4. 2019 – 17:42 | Technologie | Ladislav Loukota | Diskuze:
Jak dlouho zůstanou naše myšlenky známé jenom nám? Okamžik do možného nahlédnutí do lidské mysli se možná krátí - již druhý tým neurovědců totiž v posledních měsících přišel na způsob, jak v mozkové aktivitě "přečíst" mluvená slova. Výzkum, který by mohl pomoct lidem upoutaným na lůžko, je zatím čistě experimentálního charakteru. Nad jeho přísliby se však tají dech.
Již v lednu byla práce týmu Nimi Mesgaraniho, neurovědce z Kolumbijské univerzity, svého druhu revoluční. Vědci tehdy vyvinuli speciální algoritmus pro strojové učení, který se naučil z mozkové aktivity dekódovat jednotlivá slova. Pokud program věděl, co člověk slyší - a pokud zároveň viděl mozkovou aktivitu v okamžiku, kdy mysl zpracovává sluchový vjem - naučil se algoritmus rozklíčovat elektrické impulzy v naší hlavě do jednotlivých slov. Nakonec byl program s to s poměrně velkou přesností přeložit, co mozek slyšel, aniž by program měl přístup k audio souboru.
Byl to dechberoucí úspěch, nynější studie Gopaly Anumanchipalliho z UCSF však šla ještě o krok dál. Tentokrát se totiž podobný algoritmus naučil "číst mysl" bez zvukové berličky. Anumanchipalliho program umí "číst mysl" na základě signálů vyslaných mozkem do hlasových orgánů. Také tentokrát se algoritmus musel tuto schopnost nejprve naučit - vědci tak museli program nechat sledovat mozkovou činnost v okamžiku, kdy skupina participantů zároveň předčítá vybraná slova. Pohyby jejich hlasových orgánů (jazyk, hlasivky a další části) byly také zaznamenávány.
Výsledek je však nejen o něco lepší než Mesgaraniho dekódování mozkové aktivity do slov, ale také o něco praktičtější pro klinické použití. Zatímco starší práce totiž řešila jenom recepci přijímaného zvuku, Anumanchipalliho práce se zabývá reprodukcí. Lednová studie se zabývala tím, co člověk slyší - novější ale zkoumá, co chce sám říct. Potenciální aplikace pro pacienty s omezenou nebo žádnou možností běžného ústního projevu se tedy sama nabízí. A je o to překvapivější, že na pokrok mezi oběma studiemi došlo v řádu několika měsíců.
Ještě není vyhráno
Jedním dechem je však třeba dodat, že tlumočení mozkové aktivity do slov a vět zdaleka není připraveno na klinické použití. Důvodů je vícero, a tím prvním je už skutečnost, že oba algoritmy z nynějších prací se musely naučit "číst mysl" (resp. jen jednu její část) prostřednictvím srovnání její aktivity při nějaké činnosti (poslechu, mluvě). Pro pacienta, který například vlivem amyotrofické laterální sklerózy přišel o schopnost mluvit již dříve, je tato metoda k ničemu. Program se v jeho případě nemá jak naučit přiřadit mozkové impulzy k vyslovovaným slovům.
Ze stejného důvodu je otázkou, zdali podobné algoritmy (které zjevně nejsou zase tak těžké na vývoj) mohou nahlédnout a dekódovat niternější myšlenky, které žádný fyzický projev nemají. Například sny. Je možné, že v dostatečném množství dat od dostatečného množství lidí by algoritmy mohly nakonec začít vytvářet jakýsi slovník pro překlad mozkové činnosti. Pak by mohly s jistou úspěšností číst i v hlavách lidí se sklerózou nebo se naučit dekódovat sny.
Vzhledem k tomu, že třeba Anumanchipalliho práce ale operovala jenom s pěti účastníky, je taková úvaha momentálně čirou spekulací. Bude ještě třeba hodně dalšího výzkumu, než se taková teze bude moct potvrdit či vyvrátit.
V neposlední řadě navíc aplikaci komplikuje i současná povaha čtení mozkových signálů. Jak Anumanchipalliho, tak i Mesgaraniho studie totiž využívala pacienty s epilepsií, jímž byly v rámci jejich léčby do mozku implantovány mikroelektrody. Taková metoda je sice poměrně přesná, jde však také o riskantní a komplikovaný zásah do těla - nelze od něj tedy očekávat masovou aplikaci. Reálně tedy budeme muset spíše počkat, zdali se objeví nové metody čtení mozkové aktivity, které by byly stejně přesné, ale zároveň i neinvazivní.
Než se tak technologie objeví v běžném světě, může to stále zabrat pěkných pár desetiletí.
Studie byla otisknuta v Nature.