Al giorno d’oggi non c’è modo di candidarsi per un lavoro senza essere analizzati da una sorta di sistema automatizzato. Veri e propri robot istruiti per sfruttare l’Intelligenza Artificiale durante le assunzioni.
Alcuni programmi con Intelligenza Artificiale (IA) valutano le espressioni facciali di un candidato durante i colloqui via video. “Stanno proliferando, sono veloci, sono relativamente economici. Questi robot ovunque”, afferma Alex Enger, un collega del Brookings Institute, che studia l’intelligenza artificiale nelle assunzioni. “A questo punto c’è pochissimo incentivo a costruire questi strumenti in un modo che non siano di parte“, ha aggiunto. Il costo e il tempo necessari per testare a fondo un sistema contro i pregiudizi sarebbero probabilmente più complessi ma non impossibili.
Robot istruiti per selezionare potenziali candidati, semplice I.A. o processo discriminatorio?
Il rischio di discriminazione è anche una questione centrale per i legislatori di tutto il mondo. L’anno scorso, i legislatori di New York City hanno proposto una legge specifica per regolamentare l’uso di robot durante le assunzioni. Secondo un sondaggio oltre il 55% dei responsabili delle risorse umane negli Stati Uniti utilizza algoritmi predittivi. L’intelligenza artificiale è presente in ogni fase della pipeline di assunzione, dagli annunci di lavoro all’analisi e la valutazione delle loro domande e curriculum. La pandemia del Covid-19 ha accelerato l’adozione di tali strumenti. HireVue, un’azienda di assunzione di intelligenza artificiale che crea strumenti per analizzare e valutare le risposte fornite dai candidati di lavoro nelle interviste video, ha registrato un aumento del 46%.
Il problema è che quando si utilizza un robot con IA, i pregiudizi possono insinuarsi a nostra insaputa. L’industria è ansiosa di essere percepita come una lotta contro i pregiudizi, ha affermato Raghavan, citando la sua ricerca che mostra che 12 delle 15 maggiori aziende hanno annunciato alcuni sforzi per combattere la discriminazione. “Un algoritmo difettoso può avere un impatto su centinaia di milioni di persone”, ha affermato Albert Fox Cahn, direttore esecutivo del Surveillance Technology Oversight Project (STOP).