AI při náboru diskriminuje zdravotně postižené uchazeče o práci
28. 6. 2024 – 13:37 | Technologie | Radek Chlup | Diskuze:
CV zdravotně postižených hodnotí hůře ve většině případech.
Stále více společností automatizuje výběrové řízení nových zaměstnanců, kdy životopisy hodnotí umělá inteligence (AI), která ovšem podle studie amerických vědců diskriminuje zdravotně postižené uchazeče.
Procházení životopisů může být únavné, v posledních letech proto korporáty tuto činnost stále častěji nechávají na počítačových algoritmech. Ty svedou zpracovat obrovské množství dat v krátkém čase, čímž ušetří cenné hodiny.
Vědci již dříve popsali diskriminaci menšin ze strany systémových algoritmů. Postgraduální studentka Kate Glazková se zaměřila na jejich „přístup“ ke zdravotně postiženým. Jak by AI vůbec mohla hodnotit takto znevýhodněné jedince?
Tým expertů z Washingtonské univerzity podle magazínu Forbes použil ke studii veřejný životopis jednoho z autorů práce. Z výchozí verze vytvořil šest variant s různými zdravotními postiženími a několika údaji zvýhodňujícími uchazeče.
Tam patřila stipendia, ocenění nebo členství v panelu či studentské organizaci, což mohou být rozhodující informace. CV uchazeče na pozici studentského výzkumníka u velké softwarové firmy nechali vědci hodnotit modelem ChatGPT-4.
Malé šance na úspěch
CV obsahující pojmy jako slepota, hluchota, dětská mozková obrna či autismus systém hodnotil hůře než ostatní životopisy. Pouze ve třech případech se CV s údaji o nějakém zdravotním postižení umístilo výše než životopisy zdravých uchazečů.
Prakticky v jakékoli sféře by zaměstnavatel účast v panelu hodnotil jako výrazné pozitivum, ale ne algoritmus. ChatGPT-4 hodnotil CV zmiňující zdravotní postižení hůře i v případech, kdy byly ostatní informace shodné s originálem.
Například uchazeč s autismem nebyl schopen vykonávat vůdčí role. Kandidáta s depresemi zase neshledával schopného řádně vykonávat „technické a výzkumně orientované aspekty role“ – v obou případech jde o jasnou diskriminaci.
„Lidé (náboroví manažeři) si musí být vědomi zkreslení systému, když ho používají pro tyto účely,“ shrnuje výsledky práce zdůrazňující důležitost lidského faktoru při výběrovém řízení nebo v oblasti posuzování a rozhodování Glazková.
„Tyto algoritmické systémy mohou být do určité míry neslučitelné s vytvářením výstupu, který není diskriminační k lidem se zdravotním postižením,“ řekla již dříve Ariana Aboulafiová z neziskové organizace Center for Democracy and Technology.