Bias cognitivi nel recruiting: come l’AI può migliorare la selezione del personale

I bias cognitivi influenzano le scelte nel recruiting, ma l’IA può aprire nuove strade per rendere i processi più equi. Le sfide HR tra potenzialità e rischi

Ai

I bias cognitivi influenzano le decisioni che prendiamo ogni giorno, spesso senza che ce ne rendiamo conto. Anche nei processi di selezione del personale, questi automatismi mentali possono avere un impatto molto più forte di quanto siamo disposti ad ammettere. Dettagli come il nome, l’età, il tono di voce o l’aspetto di una persona rischiano di contare più delle sue reali competenze.

In questo scenario complesso, l’intelligenza artificiale si presenta come un possibile alleato per rendere le selezioni più oggettive, veloci ed efficienti. Ma se viene allenata su dati sbagliati o incompleti, rischia di automatizzare gli stessi pregiudizi che vorremmo eliminare. Proprio per questo, vale la pena chiedersi: l’IA può davvero aiutare a superare i bias nei processi HR? Quali sono i vantaggi concreti e quali i rischi da non sottovalutare?

Ne abbiamo parlato con Luca Luigi Manuelli, professore di Intelligenza Artificiale Generativa presso Unimarconi e, da febbraio 2024, direttore del Generative Artificial Intelligence – Learning and Innovation Hub.

Cosa e quali sono i bias cognitivi

I bias cognitivi sono meccanismi mentali che il cervello attiva per prendere decisioni in fretta, basandosi su esperienze passate, intuizioni e scorciatoie. Sono utili nella vita quotidiana, ci aiutano a semplificare la realtà e reagire rapidamente, ma diventano un problema quando portano a giudizi distorti, soprattutto in contesti delicati come il recruiting.

Anche chi lavora nelle risorse umane e si occupa ogni giorno di selezione del personale può cadere in queste trappole inconsapevolmente. Nessuno ne è immune. Ecco perché è importante riconoscerli.

Tra i bias più frequenti nei processi HR troviamo:

  • Effetto alone: una singola caratteristica, come un look curato o una voce rassicurante, influenza l’intera valutazione della persona, anche se non ha nulla a che vedere con le competenze.
  • Bias di similarità: tendiamo a preferire candidati che ci somigliano per età, background, interessi o valori. Questo però può limitare la diversità e penalizzare profili molto validi.
  • Bias di conferma: una volta che ci siamo fatti un’idea, cerchiamo solo conferme. Magari un recruiter si convince che un profilo “non è adatto” e inizia a leggere il CV con occhi critici, ignorando elementi positivi.
  • Bias di ancoraggio: la prima informazione ricevuta, come nome, università, prima esperienza lavorativa, diventa un punto di riferimento mentale da cui è difficile staccarsi.
  • Bias legati all’età o al genere: spesso inconsci, ma ancora molto presenti: un profilo viene valutato “troppo senior”, o si dà per scontato che una donna possa essere meno adatta a ruoli tecnici o dirigenziali.
  • Effetto contrasto: si manifesta quando, dopo aver valutato candidati poco qualificati, chi ha un profilo leggermente migliore viene visto in modo esageratamente positivo. Al contrario, dopo colloqui con persone molto preparate, anche un candidato con buone capacità può risultare sottovalutato.

Se assecondati, questi bias rischiano di portare il recruiter a scartare candidati potenzialmente perfetti a causa dell’attivazione di un automatismo. E proprio perché sono invisibili, questi pregiudizi sono i più difficili da correggere.

Il ruolo positivo dell’AI per combattere i bias cognitivi

L’idea che l’intelligenza artificiale possa rendere i processi di selezione più oggettivi è affascinante e realistica, ma solo se usata nel modo corretto.

“Il sistema può aiutare a processare una quantità di curricula molto maggiore rispetto ai metodi tradizionali, ma la valutazione finale deve rimanere in mano alle persone. È questo l’elemento più importante per evitare che i bias si infilino nel sistema”  spiega Luca Luigi Manuelli.

“La valutazione e decisione finale del recruiter è la garanzia più importante, perché le valutazioni automatiche portate avanti dall’algoritmo possono essere verificate, supervisionate e modificate”.

Se progettata e gestita con attenzione, però, l’IA può diventare una vera alleata per aumentare l’equità nei processi HR. Può, ad esempio, oscurare informazioni sensibili nei CV, usare algoritmi di matching basati sulle competenze anziché sui titoli, e standardizzare i criteri di valutazione, riducendo la variabilità soggettiva tra un recruiter e l’altro.

In altre parole, può aiutare a mettere tutti sullo stesso piano, almeno nella fase iniziale del processo.
I bias, infatti, non spariscono con l’introduzione di strumenti automatizzati. Al contrario, se l’IA viene “allenata” su dati storici che contengono discriminazioni, anche non intenzionali, rischia di amplificarli.

È il caso emblematico di Amazon, che aveva sviluppato un algoritmo per la selezione di profili tecnici: “L’azienda, per rafforzare la propria struttura tecnica, aveva sviluppato un algoritmo con l’obiettivo di selezionare persone con un potenziale tecnico di primo livello, in modo da poterli inserire nell’organizzazione. Si è accorta che, senza volerlo, quell’algoritmo aveva adottato un bias che penalizzava le persone di sesso femminile. Ma il problema non era l’IA in sé, quanto i dati su cui era stata addestrata, che riflettevano un bias già presente nei processi precedenti. L’aspetto positivo è che proprio l’uso dell’algoritmo ha aiutato a far emergere il problema, portando a un miglioramento interno.”
Per questo oggi, anche grazie all’AI Act, il recruiting è considerato un processo “ad alto rischio” nell’uso dell’IA: servono controlli, verifiche e una governance strutturata, per evitare discriminazioni by design.

AI e bias: le sfide HR in fase di recruiting

Per sfruttare davvero il potenziale dell’intelligenza artificiale nel recruiting, serve consapevolezza: non basta introdurre una nuova tecnologia per rendere il processo automaticamente equo. Bisogna capire come funziona l’algoritmo, su quali basi prende decisioni e che tipo di dati utilizza.
“È fondamentale che ci sia una cultura delle competenze, ma anche una cultura valoriale e una cultura che ha a che fare con il rispetto della persona” spiega Luca Luigi Manuelli.

“Bisogna avere ben chiaro quali sono gli elementi su cui l’algoritmo prende una decisione, ma anche sapere che quella decisione dev’essere comunque interpretata. Non ci si può limitare ad accettarla in automatico. L’idea è quella di far emergere le esperienze prospettate dal candidato, e man mano che si va verso una short list, che il colloquio avvenga direttamente con una persona”.

Oggi, infatti, l’IA lavora a un livello superiore, con capacità di ragionamento che possono supportare processi decisionali molto più complessi, aprendo la strada alla famosa AGI (Artificial General Intelligence): quando una macchina avrà una capacità di riflessione, pensiero e decisione simile a quella umana.

Proprio per questo la formazione continua diventa un nodo centrale: un lavoro utile a comprendere  come funziona lo strumento, ma anche a sviluppare una mentalità critica e consapevole. Chi lavora nelle risorse umane oggi ha bisogno di nuove competenze per capire la logica dei dati, saper leggere un output, riconoscere un rischio e, se necessario, saperlo segnalare.


Ma la formazione non può essere un privilegio limitato ai manager o agli sviluppatori: “È importante coinvolgere anche i lavoratori in questo percorso, perché devono conoscere le tecnologie con cui si confrontano ogni giorno. Solo così si crea un ambiente di lavoro inclusivo e consapevole, in cui l’IA è uno strumento al servizio delle persone, non un elemento che le sostituisce o le mette a rischio.”

Per questo è molto importante avere una governance solida, che definisca regole chiare e monitori continuamente l’uso dell’IA, soprattutto in ambiti delicati come il recruiting. Senza un quadro strutturato, infatti, si rischia di perdere il controllo e vanificare i benefici che queste tecnologie possono offrire.

Allo stesso tempo, però, Manuelli spiega che è importante non lasciarsi bloccare dalla paura di sbagliare. “Serve una governance, ma bisogna anche avere il coraggio di sperimentare, testare, imparare. Se l’intelligenza artificiale viene usata con consapevolezza, può diventare un acceleratore di cambiamento positivo, anche nei processi HR”.

error

Condividi Hr Link