Rider e algoritmi: la governance che l’HR non può delegare al software
Quando l’algoritmo distribuisce turni, valuta e disconnette, scatta la presunzione di subordinazione: GDPR, art. 2 D.lgs. 81/2015 e Direttiva 2024/2831 impongono alle imprese una governance trasparente e preventiva

Il caso dei rider è quello maggiormente esemplificativo in tema di algorithmic management. È noto che una app” sarebbe ben capace di assegnare ai lavoratori ordini, di misurare i loro tempi di lavoro, di definire la priorità di accesso ai turni così come i relativi compensi fino a decidere sull’eliminazione dello stesso account.
Tanto è vero che la stessa direttiva (UE) 2024/2831 (relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali) qualifica come “rilevanti” non solo i sistemi che monitorano l’attività lavorativa in senso stretto, ma anche quelli che prendono o supportano decisioni capaci di incidere sull’organizzazione del lavoro, sulla redditività, sul prezzo della singola prestazione, sull’orario e sullo status contrattuale.
Questa “rivoluzione” del modo di pensare l’organizzazione del lavoro fa sorgere importanti quesiti relativamente alle conseguenze giuslavoristiche che comporta e ai “limiti” sul loro utilizzo, considerato che tali strumenti sono certamente formidabili per l’efficientamento organizzativo, ma – allo stesso tempo – molto pericolosi per il loro potenziale controllo sui lavoratori.
Collaborazione o subordinazione?
Sul piano giuslavoristico, e volendo cercare di semplificare al massimo la questione, il primo punto decisivo è distinguere tra una piattaforma che svolge attività di semplice “intermediazione” da una piattaforma che riesce a elaborare una vera e propria attività “organizzativa”, in quanto in questo secondo ordine di ipotesi l’art. 5 della direttiva (UE) 2024/2831 ha sostanzialmente fissato una presunzione di subordinazione.
Se, quindi, un algoritmo non si limita a favorire l’incontro tra domanda e offerta, ma distribuisce occasioni di lavoro, controlla, orienta i comportamenti e condiziona la continuità delle attività, il rischio di riqualificazione di un rapporto formalmente qualificato come di “collaborazione” in un rapporto di lavoro subordinato cresce sensibilmente proprio alla luce del principio comunitario di nuova introduzione.
In Italia, questo tema era in parte stato affrontato sia dall’art. 2 del D.lgs. n. 81/2015 – che estende la disciplina del lavoro subordinato alle collaborazioni prevalentemente personali, continuative e organizzate dal committente, precisando che tale disposizione si applica anche nel caso di prestazioni organizzate mediante piattaforme digitali – sia dagli artt. 47-bis e seguenti dello stesso Decreto, che si preoccupano di fissare tutele minime per i rider “autonomi”, non dimenticando che la stessa Circolare ministeriale n. 9 del 18 aprile 2025 richiama, in ogni caso, il necessario rispetto del principio del “primato dei fatti” al fine della individuazione della disciplina da applicare.
In altre parole, se la piattaforma esercita un’attività di direzione (che può avvicinarsi all’etero-organizzazione, quando non alla subordinazione di fatto) l’algoritmo non è più un semplice supporto operativo, ma esercita un potere organizzativo che “impone” di dover parlare di subordinazione (e non più di collaborazione).
D’altronde è proprio la citata direttiva (UE) 2024/2831 che impone agli Stati membri di prevedere una presunzione legale di rapporto di lavoro (subordinato) quando emergano fatti indicativi di controllo e su tale aspetto sarà interessante capire come il Legislatore italiano intenderà attuare tale precetto comunitario. Per il settore HR, il messaggio è chiaro: il rischio non nasce dall’uso dell’algoritmo in sé, ma dall’opacità con cui esso sostituisce decisioni tipicamente manageriali.
La gestione HR tra automatizzazione e privacy
Sul versante privacy, la tematica è altrettanto delicata. Basti pensare che gli artt. 5, 13 e 22 del GDPR definiscono gli obblighi di correttezza, di trasparenza, di minimizzazione e limiti alle decisioni basate unicamente su trattamenti automatizzati che producano effetti giuridici o incidano in modo analogo e significativo sulla persona e, sempre in materia, non può tacersi il fatto che l’art. 1-bis del D.lgs. n. 152/1997 stabilisce che se il datore utilizza sistemi decisionali o di monitoraggio integralmente automatizzati il lavoratore deve ricevere, prima dell’inizio dell’attività, informazioni su aspetti del rapporto coinvolti, finalità, logica e funzionamento del sistema, categorie di dati e parametri principali utilizzati, misure di controllo e correzione, livello di accuratezza, robustezza, cybersicurezza e possibili impatti discriminatori (sempre peraltro rimanendo saldo il dettato dell’art. 4 dello Statuto dei lavoratori sui controlli a distanza).
Tutto ciò comporta significativi impegni per le aziende e per i loro HR, non bastando evidentemente una generica policy in materia, diventando difficilmente eludibile una DPIA ex art. 35 del GDPR soprattutto quando il trattamento presenta un rischio elevato per i diritti e le libertà degli interessati o in contesti di utilizzo di geolocalizzazione, di profiling oppure di rating.
Il fil rouge di tutto ciò è quello di rendere comprensibile il processo decisionale e la direttiva (UE) 2024/2831 tende a rendere ancor più trasparente l’uso degli algoritmi nella gestione HR, imponendo la supervisione umana sulle decisioni rilevanti, riconoscendo il diritto di contestarle e vietando l’uso, nei sistemi automatizzati, di alcune categorie di dati particolarmente sensibili.
Il rischio di non rispettare tali precetti si traduce anche in pesanti sanzioni da parte, ad esempio, del Garante privacy che già in passato è intervenuto in caso di poca trasparenza, “accanimento” o eccesso di controllo datoriale.
Garantire la compliance
Gli HR, quindi, si trovano – un’ennesima volta – in prima linea per definire sistemi datoriali che “a monte” (e non a valle) garantiscano la compliance del modello operativo. Occorre mappare a fondo i sistemi algoritmici, verificare la coerenza tra la “forma” del contratto e la concreta architettura del potere organizzativo, predisporre informative sinceramente comprensibili, definire presidi umani che possano supervisionare i momenti più delicati del rapporto di lavoro, valutare i rischi privacy.
A questo “tavolo” di lavoro, dovranno sedersi oltre che gli HR, anche i legali, il DPO, chi si occupa di operation e ovviamente gli IT, al fine di definire e perimetrare una governance coerente con i parametri di legge e allo stesso tempo risultare efficace rispetto alla singola fattispecie, tenendo presente che l’uso degli algoritmi non limita il potere datoriale, ma lo rende solo meno visibile e questa opacità non deve mai tradursi in miopia, che determinerebbe un severo rischio legale.



