AI compliance officer, una nuova figura?

Con l’arrivo delle nuove regole sull’intelligenza artificiale, prende forma il ruolo di AI Compliance Officer. Ma si tratta davvero di una nuova figura professionale o di una funzione destinata a essere assorbita dagli assetti esistenti?

cosa fa l'Ai compliance officer

C’è una domanda che serpeggia sempre più spesso negli uffici dei direttori Risorse Umane e dei responsabili legali: chi, in azienda, regola l’uso e valuta il rischio algoritmico dell’intelligenza artificiale?
Infatti, con l’innegabile comparsa – in varia misura – dell’AI nei processi aziendali della quasi totalità delle imprese europee, crescono le possibilità che i sistemi di intelligenza artificiale producano risultati indesiderati, discriminatori e dannosi, dai cosiddetti “bias algoritmici” – causati dall’addestramento del sistema di AI su dati storici a loro volta viziati da pregiudizi socioeconomici, razziali, di genere – al data poisoning – ovvero l’inquinamento e la manipolazione dei dati – con conseguenze rischiose a vari livelli della governance aziendale.

La risposta sembra aver recentemente trovato un nome e un ruolo, quello dell’AI Compliance Officer, letteralmente il Responsabile della conformità per l’intelligenza artificiale. Una figura che nelle offerte di lavoro e nei dibattiti tra addetti ai lavori compare sempre più spesso, ma che stenta ancora a trovare una collocazione univoca negli organigrammi, sospesa com’è tra una nuova professione emergente e l’evoluzione di un ruolo già esistente. 

Il quadro normativo che ha cambiato tutto

Oltre a un discorso di tutela della sicurezza aziendale e di mantenimento di una linea di condotta etica, l’urgenza di normare la sfera di utilizzo dell’intelligenza artificiale nelle imprese nasce anche da sollecitazioni di carattere legislativo: in primis dall’AI Act europeo (Regolamento UE 2024/1689), già in vigore, e poi dalla Legge 132/2025, entrata in vigore il 10 ottobre 2025.

Insieme, le due leggi costruiscono un’architettura legislativa a doppio livello – europea e nazionale – che impone alle aziende obblighi precisi e la messa in moto di determinati processi aziendali, tra i quali la necessità di classificare i sistemi AI per livello di rischio, garantire la supervisione umana, documentare le decisioni algoritmiche e, cardine fondamentale, formare il personale.

Leggi anche: AI, cosa cambia per imprese e HR con la Legge 132/2025

Figura nuova o evoluzione?

Ed ecco dunque che entra in gioco l’AI Compliance Officer, che ha proprio il compito di supervisionare l’intero ciclo di vita dei sistemi di intelligenza artificiale – dalla progettazione all’uso, passando per esempio dalla qualità dei dati, dalla tracciabilità delle decisioni algoritmiche e dall’equità dei modelli – verificando che rispettino le non sempre lineari normative vigenti e che, appunto, non incorrano in alcun rischio algoritmico né in alcuna sanzione.

Tra i compiti della nuova figura ci sono anche la valutazione dei rischi etici e legali associati all’uso dell’intelligenza artificiale nei processi aziendali, la collaborazione con i team tecnici per definire requisiti di trasparenza e auditing dei modelli, la definizione di policy interne sull’utilizzo e sullo sviluppo responsabile dell’AI e il coordinamento di audit interni e ispezioni legate all’uso dei sistemi intelligenti.

Per la complessità delle sue mansioni, l’AI Complance Officer è una funzione che lavora all’incrocio tra legal, IT, risk management e HR e che quindi deve avere un ventaglio di competenze variegato; non è un tecnico puro né un giurista puro: è una sorta di una figura “di confine”, che deve saper tradurre la complessità normativa in processi aziendali concreti.

Proprio il suo essere a cavallo tra diverse funzioni sta portando a scelte aziendali differenti nelle realtà organizzative più snelle, con l’assegnazione della responsabilità dei processi AI – spesso preceduta da un indispensabile percorso di upskilling – ad altre figure già presenti in azienda, come il DPO (data protection officer), il Responsabile della Protezione dei Dati introdotto in organigramma con l’avvento del GDPR; il risk manager o il compliance officer con una formazione specifica; o ancora un avvocato con solida formazione tecnologica o un data scientist con sensibilità giuridica.

Sul piano delle competenze, serve infatti qualcuno che sappia combinare la conoscenza del quadro normativo a solide basi di data governance e di funzionamento dei modelli di AI, che abbia la capacità di leggere i processi e il risk assessment aziendali, oltre a skill di coordinamento e change management, indispensabili per costruire processi di AI governance reali.

Cosa significa per chi si occupa di HR

Per i responsabili HR, l’aggiornamento normativo all’AI Act e la transizione che comporta sollevano questioni concrete e urgenti. A iniziare dal fatto che, a fronte di una sempre crescente richiesta, il mercato del lavoro non ha ancora prodotto profili sufficienti con le competenze ibride necessarie, che, come abbiamo già accennato, spaziano dalla normativa alla data governance, dall’etica algoritmica al change management.
Formare internamente il personale diventa quindi una priorità, anche perché l’AI Act impone obblighi di AI literacy a tutto il personale che interagisce con sistemi di intelligenza artificiale, a qualsiasi livello dell’organizzazione.
Infine, poiché l’AI è sempre più presente nei processi HR stessi – selezione del personale, valutazione delle performance, gestione delle dinamiche dei team – il tema tocca anche il cuore del lavoro quotidiano di chi gestisce le persone.
La vera sfida, quindi, non è trovare il nome giusto per la figura di riferimento o capire “chi fa cosa”.
È capire come integrare la governance dell’intelligenza artificiale nella cultura aziendale, prima che arrivi una sanzione a ricordarcelo.

error

Condividi Hr Link