Umělé inteligenci chybí inteligence detektiva Columba

9. 7. 2020 – 10:00 | Technologie | Ladislav Loukota | Diskuze:

Umělé inteligenci chybí inteligence detektiva Columba
Tvář na rozkostičkovaném rastru během analýzy neostrého snímku. Na fotografii není obviněný Williams. | zdroj: IBM

Případ se stal při vyšetřování krádeže v hodinářství. Dokazuje, že na 'elektronické detektivy' se nedá stoprocentně spolehnout.

Američan Robert Julian-Borchak Williams je první člověk obviněný policií na základě "vyšetřování" umělé inteligence, která dospěla k závěru, že jeho tvář se shoduje s tváří zloděje zachyceného bezpečnostními kamerami.

Detektiv Columbo by nad takovým šlendriánem ustrnul.

Případ každopádně dokládá, že technologie rozpoznávání obličeje není bezchybná. Upozorňuje, že by ji kriminalisté měli používat s maximální obezřetností. Anebo raději nepoužívat vůbec.

Nalezen mezi 49 miliony, ale...

Williamse zatkli policisté letos v lednu v michiganském Detroitu a obvinili, že loni ukradl v hodinářství pět hodinek značky Shinola. Indiciemi pro ně bylo hodnocení počítačového algoritmu, který na základě snímků z kamery zmapoval charakteristiku tváře a porovnal ji se 49 miliony snímků v databázi.

Během výslechu na policejní stanici však sami policisté dospěli k závěru, že Williams se muži zachycenému bezpečnostní kamerou nepodobá. Kromě toho obviněný měl digitální alibi – v době, kdy měl čin spáchat, publikoval na Instagramu video.

A tak byl z vyšetřovací vazby propuštěn.

Případ má dohru. Americká unie občanských svobod podala stížnost proti postupu detroitské policie. A žádá, aby z policejní databáze byly vyňaty Williamsovy vzorky DNA a otisky jeho prstů.

Minority Report 2.0

Technologie rozpoznávání obličeje, kterou některé policejní jednotky nasazují při nynějších protestech v amerických městech, je mnohými Američany označována za rasistickou. Důvodem je to, že má vysokou chybovost při rozpoznávání tváří příslušníků afroamerických, asijských a dalších etnik.

Za chybou je algoritmus pro "dokreslování" neostrých fotografií. Má zjevně problémy s tvářemi jiných etnik než bělochů.

Důvod je prostý – původní balíček dat, na němž se umělá inteligence učí, obsahuje mnohem víc fotografií bělochů než černochů a dalších etnik.

profimedia-0540200966 Algoritmus vás pomocí kamery sleduje v reálném čase | zdroj: Profimedia.cz

Mnozí experti upozorňují, že ať už z nedostatku dat, vlastní nedokonalosti nebo skutečnosti, že řada lidí si je prostě podobná, nebudou algoritmy na rozlišování tváří patrně nikdy schopné s jistotou z méně kvalitního snímku rozpoznat pachatele trestného činu.

Američtí senátoři tyto hlasy berou vážně a připravují zákon, který na používání systémů rozpoznávání obličejů vyhlásí moratorium.

Nynější kapacity systém můžou stačit při hledání podezřelých. To však může mít za výsledek velký počet neprávem obviněných.

Předpověděl to ostatně už v roce 2002 film Minority Report, byť až na rok 2054. Ve filmu je vina pomocí psychotroniků potrestána dřív, než se zločin stane. Jenže občas je také potrestán někdo, kdo zločin nezamýšlí…

Umělá inteligence není na svou roli v kriminalistice připravena. A kdoví, kdy a jestli vůbec někdy připravena bude.

Zdroje:

Nejnovější články