AI může sloužit jako neúprosný dozorce, který plní úkoly bez lidského přístupu

AI může sloužit jako neúprosný dozorce, který plní úkoly bez lidského přístupu

Umělá inteligence (AI) se stává nedílnou součástí personálních oddělení po celém světě. Nástroje založené na AI slibují revoluci v náboru, hodnocení i řízení zaměstnanců, nabízejí efektivitu, rychlost a příslib odstranění lidské předpojatosti. Pod touto lákavou slupkou se však skrývá komplexní etická a právní problematika, jejímž jádrem je takzvaná „černá skříňka“ algoritmického rozhodování. Právě zde se střetává technologický pokrok s etickými otázkami.

Problém může nastat, když algoritmus, který analyzuje tisíce životopisů, zamítne kvalifikovaného kandidáta, a nikdo nedokáže přesně říci proč. Tyto systémy se učí z historických dat, což může vést k posilování a automatizaci existujících předsudků. Pokud firma v minulosti preferovala na technické pozice muže, AI se tento vzorec naučí a může systematicky zamítat životopisy žen, aniž by to byl explicitní příkaz. Může penalizovat uchazeče za mezeru v životopise způsobenou rodičovskou dovolenou nebo preferovat kandidáty z určitých PSČ, čímž nepřímo diskriminuje na základě socioekonomického statusu či etnického původu.

Tato rizika se netýkají pouze náboru. Stále častěji se AI využívá k monitorování produktivity a hodnocení stávajících zaměstnanců. Systémy mohou sledovat počet odeslaných e-mailů, aktivitu na klávesnici nebo délku přestávek. Takové hodnocení však může být povrchní a nedokáže postihnout kvalitu práce, kreativitu či spolupráci v týmu. Největší etické dilema pak představuje využití AI při rozhodování o propouštění. Představa, že o konci kariéry rozhodne neosobní algoritmus na základě neprůhledných metrik, je pro většinu lidí nepřijatelná a degraduje lidskou důstojnost na pouhý soubor datových bodů.

V reakci na tato rizika sílí volání po takzvané vysvětlitelnosti AI (Explainable AI, XAI). Nejde o to, aby firmy přestaly AI používat, ale aby byly schopny vysvětlit, na základě jakých kritérií jejich algoritmy dospěly ke konkrétnímu závěru. Tento požadavek již získává i konkrétní legislativní podobu. Akt o umělé inteligenci (AI Act) Evropské unie klasifikuje AI používané v oblasti zaměstnanosti a řízení pracovníků jako „vysoce rizikové“. Pro jejich provozovatele to znamená zavedení povinností, včetně zajištění vysoké kvality dat, technické dokumentace, transparentnosti a především lidského dohledu. Personalista by měl mít možnost rozhodnutí stroje zvrátit.