Programmare i colloqui con l’intelligenza di un sistema interattivo, sfruttare chatbot per rispondere a domande di base. Ridisegnare il lessico delle offerte di lavoro in ottica più inclusiva, evitando accuse di pregiudizio, o formulare consigli personalizzati sul percorso di carriera. Oppure, ancora, pianificare assunzioni nel reparto vendita in base a previsioni di fatturato favorevoli, esaminare record storici per identificare le tipologie di persone che hanno lasciato l’organizzazione in passato o identificare candidati ad alto potenziale sulla base dell’analisi di assunzioni passate. Le porte che l’Intelligenza artificiale apre al mondo delle HR non solo non si contano, ma si moltiplicano costantemente su scala esponenziale. Eppure, questa nuova frontiera della tecnologia più evoluta sembra non aver ancora scardinato timori e resistenze, tanto da restare confinata a una percentuale poco rilevante di applicazione nel quadro delle risorse umane. Perché? Cosa si nasconde dietro ai dubbi? E come superare il gap in direzione di un approccio più strutturale al tema?
A tentare di dare una risposta a queste domande ha pensato nientemeno che il World Economic Forum, che proprio con questi intenti ha messo in campo il progetto “Human-Centred Artificial Intelligence for Human Resource”. Inquadrata nell’ambito dei lavori del Center for the Fourth Industrial Revolution per aiutare le organizzazioni a mettere in pratica i principi dell’AI responsabile, l’iniziativa si è concretizzata a fine 2021 nella pubblicazione di un White paper e un Toolkit destinati a supportare le organizzazioni nel percorso di applicazione “umano-centrica” dell’intelligenza artificiale alle HR: “Uno sforzo collaborativo – spiega il World Economic Forum – che ha riunito professionisti delle risorse umane e associazioni professionali, start-up, grandi aziende, avvocati del lavoro, esperti di etica dell’AI, data scientist e accademici di una vasta gamma di discipline”.
Intelligenza artificiale e HR: tante le potenzialità ancora da sfruttare
L’applicazione dell’AI nelle risorse umane, lo abbiamo detto, è ancora alle sue fasi iniziali. La tecnologia intelligente ha attirato l’attenzione di molte organizzazioni e un numero crescente di strumenti è disponibile, ma solo una piccola percentuale di aziende sfrutta effettivamente l’opportunità. Secondo alcune stime, attualmente sono disponibili oltre 250 diversi strumenti commerciali per le risorse umane basati sull’intelligenza artificiale: si tratta di soluzioni che offrono molte promesse e alimentano un certo entusiasmo. Oltre alla loro capacità di elaborare rapidamente le informazioni, infatti, questi strumenti hanno il potenziale per migliorare i processi HR, portando a decisioni e risultati migliori.
Sebbene storicamente sia stata prestata grande attenzione solo agli strumenti basati sull’intelligenza artificiale per l’assunzione, l‘AI ha il potenziale per essere utilizzata in quasi tutti gli aspetti delle risorse umane nell’intero lifecycle dei dipendenti. Le organizzazioni, in questo quadro, possono adottare strumenti HR smart per accelerare compiti di base, migliorare e modificare i processi, ma anche arrivare ad implementare sistemi completi e autonomi. Quest’ultima è la frontiera più estrema, che si realizza quando l’AI arriva ad assumersi la responsabilità di decisioni più complesse o con posta in gioco più alta: un’ipotesi operativa avveniristica, cui comunque – avverte il Wef – “si raccomanda vivamente di non delegare decisioni ad alto rischio”.
Come utilizzare (concretamente) l’AI nelle HR: i consigli chiave
Quali sono i principi chiave da considerare nell’applicazione dell’AI nelle HR? Il World Economic Forum è chiaro in questo senso: il toolkit offre infatti alcune indicazioni concrete volte a incentivare un uso responsabile e “umano-centrico” della tecnologia, sino a farne una leva efficace e capace di ridurre i rischi operativi, reputazionali, etici e legali.
Il tema del “pregiudizio”, per esempio, è considerato “una delle maggiori preoccupazioni nell’uso dell’AI per le attività delle risorse umane”. La questione è semplice quanto potenzialmente dirompente: sebbene gli algoritmi AI siano spesso visti come obiettivi e imparziali, in realtà hanno infatti il potenziale per codificare e amplificare i pregiudizi esistenti. In generale, gli strumenti di intelligenza artificiale basati sull’apprendimento automatico non riducono automaticamente i pregiudizi.
Tuttavia, ci sono modi in cui l’AI può migliorare i processi esistenti. Come? Concentrandosi su un risultato ben definito, per esempio: a volte un sistema di intelligenza artificiale può ridurre le distorsioni addestrandosi su un risultato ben definito, a condizione che tale risultato non incorpori di per sé grandi distorsioni. O ancora, ripensando al modo in cui si fanno le cose. Alcuni sistemi di intelligenza artificiale per le risorse umane “vanno oltre”, reinventando il modo in cui un’attività può essere svolta, ad esempio introducendo nuove informazioni o eseguendo l’attività in un modo fondamentalmente diverso: il fatto che il sistema riduca effettivamente i pregiudizi dipenderà in definitiva dall’efficacia dell’innovazione.
Altro tema forte da tenere presente per un uso consapevole dell’AI nelle HR è la forte dipendenza dell’intelligenza artificiale dai dati: il che significa – spiega il Wef – che “è necessario bilanciare i potenziali vantaggi di uno strumento con l’impatto della raccolta e dell’utilizzo di tali dati, in particolare dati considerati privati, sensibili o eticamente discutibili”. Le organizzazioni che operano nell’Unione Europea, in particolare, devono prestare particolare attenzione al Regolamento generale sulla protezione dei dati (GDPR), il quale richiede alle aziende di condurre anche una valutazione dell’impatto sulla privacy dei dati (DPIA) per le attività “ad alto rischio”, che includeranno molte attività delle risorse umane.
Questione non meno spinosa è poi quella della piena applicazione del concetto di trasparenza, ovvero il principio generale secondo cui tutte le parti coinvolte nell’uso di uno strumento di intelligenza artificiale per le risorse umane siano consapevoli del fatto che viene utilizzato un algoritmo AI e ricevano informazioni sui dati raccolti, su come funziona lo strumento e su come sarà strutturato l’output. Senza questa chiarezza di fondo, avverte il World Economic Forum, “i rischi sono strumenti utilizzati in modo improprio, decisioni sbagliate, minare la fiducia e conseguenze legali e reputazionali”.
Un argomento strettamente correlato è infine la “spiegabilità”, ovvero la necessità che un sistema di intelligenza artificiale fornisca una spiegazione comprensibile agli esseri umani per la sua decisione. Il livello di “spiegabilità” necessario per uno strumento AI per le risorse umane può variare: nelle situazioni in cui le conseguenze della decisione sbagliata sono elevate, le spiegazioni saranno più importanti. In altri casi, come un chatbot che pianifica le interviste, potrebbe essere meno importante comprendere il funzionamento interno dell’algoritmo.
Gli errori da evitare
Uno dei più grandi errori che le organizzazioni commettono nell’adozione di sistemi basati sull’intelligenza artificiale per le HR è sottovalutare la quantità di comunicazione, istruzione e formazione necessaria per garantire il successo. Il Wef insiste su questo aspetto, facendo presente che “è necessario dedicare particolare attenzione e tempo a fornire istruzione e formazione agli utenti degli strumenti e specificare come incorporare i risultati dello strumento nelle loro decisioni”.
Il rischio che si corre, infatti, può oscillare fra due estremi: avere persone che sopravvalutano la potenza dell’IA e accettano sempre la raccomandazione dell’algoritmo senza domande; o persone che diffidano del sistema e ne ignorano le raccomandazioni. “Gli utenti – chiarisce il Wef – saranno molto più efficienti se comprenderanno come funziona il sistema, i suoi punti di forza e i suoi limiti e avranno accesso alle spiegazioni globali e locali descritte nella sezione su Trasparenza e spiegabilità”.
L’uso di uno strumento HR basato sull’intelligenza artificiale, inoltre, ha il potenziale per migliorare o minare la fiducia all’interno di un’organizzazione. Per evitare di minare la fiducia, i dipendenti dovrebbero essere coinvolti nel processo decisionale fin dall’inizio, in modo che l’adozione dello strumento rifletta le loro esigenze e preoccupazioni e non sia percepito come qualcosa che viene loro imposto.
Parola d’ordine: monitorare
Tutto ciò, tuttavia, ha ben poca possibilità di successo se l’organizzazione non è in grado di valutare costantemente l’impatto della soluzione. Sul lungo termine, la parola d’ordine diventa dunque una sola: monitorare. “Comunicare gli impatti dello strumento dopo l’implementazione, per creare ulteriore fiducia nello strumento e per progetti futuri, è essenziale “, spiega il Wef. L’opzione suggerita è quella di iniziare con un progetto pilota per perfezionare i processi, apprendere lezioni chiave e creare prove tangibili del motivo per cui lo strumento è utile. Quindi dotarsi di un piano per misurare l’impatto dello strumento, monitorando i principali risultati e vantaggi che ci si aspetta dallo strumento.
Ma monitorare è essenziale anche per un altro motivo, forse ancor più critico. “Gli strumenti basati sull’intelligenza artificiale sono progettati per funzionare in contesti che si adattano bene ai training data – puntualizza il World Economic Forum -. Se il contesto cambia in modo significativo, lo strumento basato sull’intelligenza artificiale è a rischio di fallimento”.
La pandemia da Covid-19, in questo senso, è stata emblematica. L’emergenza ha posto sfide a molti sistemi di AI, ma non ha messo in difficoltà tutti. Perché? Perché tutto si è giocato su una domanda chiave: i modelli che l’algoritmo aveva identificato nei ‘dati di addestramento’ erano ancora applicabili nel nuovo contesto? Davanti al quesito, solo chi ha riposto sì ha vinto.