Pomůže umělá inteligence v budoucnu předcházet sebevraždám?
3. 12. 2017 – 16:51 | Technologie | Ladislav Loukota | Diskuze:
Co si slibujete od příchodu umělé inteligence? Kromě pesimistické představy o nadvládě strojů a konci lidského druhu se nabízí bezpočet optimistických scénářů, jak mohou lidé stroje využít ku svému prospěchu. Jednu z možností naznačuje i studie, podle které nová strojová inteligence úspěšně identifikovala mozkové vzorce naznačující sebevražedné myšlenky. Je na obzoru stroj, který bude umět sebevraždám předcházet?
Sebevražda je ve vyspělém světě jednou z nejčastějších příčin předčasného úmrtí. Ačkoliv se může většina populace díky vysokému standardu bezpečnosti a medicíny dožít více než 70 let, v populaci mezi 15 až 34 lety je sebevražda dokonce druhou nejčastější příčinou úmrtí.
Zejména v pubertě si přitom předehry k pokusu o sebevraždu okolí mnohdy ani nevšimne. Co kdybychom však mohli podezřelé chování odhalit s pomocí umělé inteligence? Právě tak přemýšleli vědci pod vedením týmu Marcela Adama Justa.
Jejich studie publikovaná v žurnálu Nature Human Behaviour tvrdí, že se jim úspěšně podařilo s pomocí umělé inteligence napojené na magnetickou rezonanci (fMRI) rozeznat sebevražedné myšlenky ve skupině 34 dospívajících participantů.
Depresivní slova vyvolávající myšlenky na smrt
Účastníci pokusu byli rozděleni na "sebevražednou" a kontrolní skupinu a byly jim přečteny tři seznamy slov, každý o deseti slovech. Zatímco část pojmů měla pozitivní ("nevinnost", "laskavost") či negativní ("nuda", "zlo") nádech, některá slova konotovala právě sebevražedné téma – například pojmy "smrt", "zoufalý" či "fatální".
Krom toho výzkumníci do své umělé inteligence rovněž vložili schopnost rozeznat na fMRI již dříve odhalené emocionální vzorce naznačující stud či hněv. Spolu s předešlým výzkumem AI identifikovala činnost pěti mozkových oblastí, jež ruku v ruce s šesticí "sebevražedných" slov nejlépe naznačovala přítomnost sebevražedných myšlenek.
Když pak vědci nechali AI sledovat mozkovou aktivitu obou skupin při předčítání klíčových slov, umělá inteligence správně identifikovala 15 ze 17 participantů ze "sebevražedné" skupiny a naopak vyloučila 16 ze 17 členů kontrolní skupiny (která na "sebevražedná" slova nemyslela).
Část účastníků myšlenky na sebevraždu předstírala
Tímto úspěchem ovšem započala jenom první polovina pokusu. V "sebevražedné" skupině totiž bylo devět lidí, kteří se v minulosti skutečně pokusili si vzít život. Zbylých osm členů "sebevražedné" skupiny své myšlenky na smrt pouze "předstíralo".
Když pak vědci svou umělou inteligenci ještě zpřesnili, opět se její čtení mozkových vzorců strefilo v 16 ze 17 případů a správně odhalilo lidi se sebevražednou zkušeností. Přesnosti bylo přitom dosaženo mimo jiné i díky křížové referenci – když například účastníci mysleli na slovo "problém", častěji se jim aktivovaly vzorce naznačující smutek, což dovolilo lépe vypíchnout rizikovou reakci na klíčové slovo.
Závěry práce mají své kritiky, naznačují ovšem další potenciál pro teoretické psychiatrické aplikace umělých inteligencí. A možná nejen ty.
Menšinová studie
Dalo by se samozřejmě namítat, že testovací vzorek byl poněkud menší – "skutečných" pacientů se sebevražednou minulostí v něm byla méně než třetina. Před klinickým nasazením umělé inteligence tak bude ještě třeba závěry replikovat.
Rovněž použitá metoda je svého druhu poněkud humpolácká – nejenže je k ní třeba aktivně vyvolat myšlenky na smrt (čemuž se pacient může aktivně bránit), ale především je třeba nejprve pacienta dostat do nemocnice vybavené magnetickou rezonancí. Sebevraždám by tak ani tato podoba "čtení mysli" určitě nezabránila stoprocentně.
Možnosti využití umělé inteligence v klinické psychiatrii jsou však teprve na začátku cesty. Budoucí podoba čtení sebevražedných myšlenek by mohla být daleko pružnější a efektivnější než první experimentální pokus.
Trend je však již jasně určen – Facebook se už například snaží odhalovat myšlenky na sebepoškození z textu svých uživatelů. Podobně letos vědci rovněž sestavili umělou inteligenci, která může s 80 až 90procentní přesností předpovídat sebevražedné tendence z pouhé lékařské historie pacientů.
Doktoři navíc po možnostech umělé inteligence pokukují i v daleko větší škále možných terapií.
Etické problémy
Podobná přesnost predikcí vypadá působivě, někteří v ní – zejména za Velkou louží – však vidí i potenciální problém. Pokud budou totiž pojišťovny schopné podobně předpovídat nejen sebevraždy, ale například i riziko výskytu nádorových onemocnění či onemocnění srdce, hrozí, že by postiženým lidem mohly účtovat extra příplatek za pojištění.
Nejenže tak existuje riziko vzniku diskriminace pacientů, které by vedlo jenom ke zhoršení kvality života lidí s rizikovými predispozicemi, ale vzhledem ke stále existující desetinové odchylce se navíc v takové situaci mohou ocitnout i lidé bez predispozic.
Prozatím jde samozřejmě o čirou spekulaci, může však už otevírat etická dilemata, před něž nás příchod umělé inteligence zřejmě postaví.
Stejně dobří jako špičkoví lékaři
Na stranou druhou se však na situaci lze dívat i optimističtěji. Přední odborník na strojové učení a zároveň kognitivní psycholog Geoffrey Hinton nedávno v New Yorkeru varoval, že umělá inteligence se v rozeznávání nádorů na snímcích dostává na úroveň lidí.
"Měli bychom přestat se školením nových radiologů," řekl doslova s odkazem na to, že se podobné profese v medicíně brzy stanou zbytečné. Pokud dojde diagnostika bleskové rychlosti a přesnosti za (teoretického) snížení ceny provedeného zákroku, mohla by cena personalizovanější, přesnější a úspěšnější medicíny nakonec výrazně klesnout. To by nakonec bylo dobrou zprávou nejen pro americké, ale samozřejmě i české zdravotnictví.
Zda k tomu skutečně dojde, však ukáže až další vývoj v aplikaci experimentální umělé inteligence. S rychlostí, s jakou jsou na tomto poli činěny pokroky, se však podobné možnosti zdají být stále blíž.