L’AI è maschio o femmina?

L’intelligenza artificiale presenta dei rischi di discriminazione algoritmica. Vediamo di cosa si tratta e le implicazioni per la gestione delle persone in azienda.

Artificial Intelligence

L’intelligenza Artificiale, come stiamo vedendo giorno per giorno nella nostra quotidianità, apre a mondi possibili e mostra tutte le sue grandi potenzialità. Di fronte a scoperte tanto impattanti che rivoluzioneranno il mondo del lavoro e delle relazioni, occorre però esercitare prudenza per prevenire i rischi e le deformazioni. Il progresso è un concetto multidimensionale complesso e deve prevedere controlli e correttivi, anche perché non dobbiamo dimenticare che questi strumenti sviluppati dall’uomo sono a servizio dell’uomo, destinati a migliorare le condizioni delle persone. Un certo margine di imprevedibilità va comunque considerato.  

A fronte delle recenti decisioni dell’Unione Europea in materia, con la Gender Equity Strategy 2020-2025 che prevede alcune misure e azioni per garantire la parità di genere ed evitare discriminazioni in tutti gli ambiti, abbiamo avuto occasione di riflettere su molti aspetti legati ai rischi di discriminazione a seguito dell’utilizzo di sistemi di intelligenza artificiale.  

A tale proposito ha fatto storia il caso trattato dal Tribunale del Lavoro di Bologna, che nel dicembre 2020 ha accolto il ricorso dei rider di una piattaforma di consegna di cibo a domicilio, la cui contestazione si basava sull’algoritmo utilizzato per organizzare le prestazioni di lavoro dei propri dipendenti, in base a un ranking reputazionale. Un caso che ha spinto a riflettere sugli effettivi rischi di discriminazione nel mondo del lavoro là dove ci siano procedure affidate all’intelligenza artificiale. 

Abbiamo cercato di analizzare l’argomento anche attraverso il contributo di esperti del settore, che ci hanno dato una visione più completa. Ne abbiamo parlato con Serena Gianfaldoni, Professoressa di Gestione delle Risorse Umane presso il Corso di Studi di Ingegneria Gestionale dell’Università di Pisa che ha approfondito la il tema con la tesi della dottoressa Marta Battistoni e con l’avvocato giuslavorista Pietro Speziale, Equity Partner, LabLaw Studio Legale Rotondi & Partners. 

L’avvocato Speziale parte da una riflessione: “Partirei dall’escludere che gli algoritmi generativi siano sovrapponibili ad un’intelligenza nell’accezione che comunemente si tende ad attribuire al pensiero umano poiché siamo innanzi a strumenti tecnologici che elaborano e connettono una rilevantissima quantità di dati acquisiti dall’esterno, per produrre un output “generativo” solo apparentemente coincidente con un’intelligenza umana” e prosegue “Con tale affermazione non si vuole sminuire, declassare o esprimere un giudizio di valore su un fenomeno che sta producendo e produrrà una rivoluzione epocale paragonabile alla rivoluzione industriale o all’avvento di internet. Ciò che, però, deve essere tenuto fermo è che – allo stato attuale – non pare potersi avere una integrale sovrapponibilità fra intelligenza artificiale e quella umana.” 

L’AI discrimina le donne? 

Serena Gianfaldoni e Marta Battistoni hanno rafforzato alcuni concetti: “La discriminazione algoritmica nel luogo di lavoro è una minaccia significativa per le donne, perché i sistemi di intelligenza artificiale (AI) possono perpetuare e amplificare le disuguaglianze di genere precedenti; ciò è espresso in una varietà di formati, dall’assunzione alla promozione e oltre.” 

Secondo Speziale è un tema molto differente, quello della possibilità che l’intelligenza possa, in modo più o meno consapevole per l’utente, generare delle forme di discriminazione e aggiunge “Su questo punto, ciò che assume rilevanza – ancora una volta – non è l’intelligenza artificiale ma la fonte dei dati raccolti ed i meccanismi di elaborazione.” 

Come avviene la discriminazione 

Gli studi condotti presso la facoltà di ingegneria dell’università di Pisa, con particolare riferimento al mondo delle risorse umane, citano il caso americano della discriminazione di genere operata nella selezione dei curriculum vitae dove è emerso che il sistema tendeva ad operare delle preferenze sulla base delle informazioni acquisite su soggetti che in precedenza avevano ricoperto quelle posizioni lavorative.  

In altre parole, quel sistema tendeva a replicare al momento della selezione lo status quo ante. Da questo caso, così come in molti altri, – vedi il caso dei riders – emergono alcuni possibili effetti discriminatori connessi all’utilizzo della IA. Per un verso, infatti, si riscontra la circostanza per la quale l’IA acquisisce dati presenti e passati, per altro l’assenza di correttivi produce effetti distorsivi spesso nemmeno scientemente voluti. 

Si conclude quindi che l’algoritmo dell’AI potrebbe in primo luogo essere influenzato dai dati di addestramento che riflettono pregiudizi di genere radicati nella società. 

Se i dati usati per l’addestramento di un algoritmo riflettono disuguaglianze di genere basate sul luogo di lavoro, l’AI può replicare e potenzialmente amplificarle, rafforzando così i ruoli di genere. In pratica, se un algoritmo di assunzione è stato addestrato su dati storici che favoriscono gli uomini per certe posizioni continuerà a farlo ignorando i meriti e le qualifiche delle candidate donne. 

Dove sta il vero problema e come affrontarlo  

Marta Battistoni commenta “l’opacità degli algoritmi può anche rendere difficile affrontare la discriminazione. Questo perché al di là della solita complessità i modelli di AI possono essere difficili o impossibili da spiegare, creando potenzialmente situazioni in cui le donne non possono contestare discriminazioni da algoritmi.” 

Su questo aspetto, precisa Speziale: “Il futuro della lotta alla discriminazione indiretta mediata dalle Intelligenze artificiali si deve quindi giocare ancora una volta sulla verifica umana e sulla capacità di analizzare il funzionamento della macchina per prevenire e correggere le derive discriminatorie. 

“Come compare nella ricerca dell’università di Pisa, affrontare la discriminazione algoritmica richiede pertanto un approccio olistico basato su dati inclusivi e nell’addestramento etico degli algoritmi, nonché un uso trasparente e responsabile dell’AI. Le organizzazioni devono assumersi l’impegno di identificare e mitigare i bias di genere che potrebbero esistere nei loro sistemi di AI e attuare pratiche e politiche che promuovano l’equità di genere sul luogo di lavoro; solo attraverso questi sforzi congiunti vedremo un futuro in cui le donne non sono più vittime di discriminazione algoritmica sul luogo di lavoro”. Conclude Battistoni. 

L’AI allora è maschio o femmina?

Si condivide quindi il punto di vista di Speziale, per cui i sistemi di Intelligenza artificiale in quanto tali non sono e non possono essere né uomo né donna o forse possono essere entrambe le cose a seconda di elementi esogeni rispetto alla macchina in sé, ad esempio la logica di funzionamento che ad essa presiede. 

Un tema differente, che richiede una chiara governance ed etica, è quello della possibilità che l’intelligenza possa, in modo più o meno consapevole per l’utente, generare delle forme di discriminazione di genere! 

error

Condividi Hr Link