EditorialeRapporti di lavoro

IA e controlli sui lavoratori, regole legali e accordi sindacali

di Tiziano Treu

N. 41

Guida al Lavoro

L'intelligenza artificiale pone nuove sfide normative nel contesto lavorativo, richiedendo trasparenza, valutazione dei rischi e tutela dei diritti

Le sfide regolatorie dell'intelligenza artificiale nel diritto del lavoro

L' intelligenza artificiale pone problemi nuovi anche ai regolatori, non solo perché pervade ogni aspetto delle attività produttive e del lavoro umano, ma perché si evolve in modo autonomo e secondo logiche diverse da quelle umane. Di qui la difficoltà di regolare un fenomeno che non comprendiamo completamente.

Per questo il legislatore europeo ha preso atto che le caratteristiche di queste tecnologie rendono poco efficace la regolazione percettiva tipica del diritto del lavoro. Nei recenti provvedimenti, in particolare nel regolamento sulla protezione dei dati e in quello sulla intelligenza artificiale, ha adottato tecniche procedurali che stabiliscono una serie di obblighi per le imprese. Anzitutto ha previsto il dovere di fornire informazioni tempestive, chiare e diffuse circa gli utilizzi di queste tecnologie a tutti gli stakeholder, al fine di garantire la massima trasparenza delle loro decisioni riguardanti i rapporti di lavoro e la possibile incidenza sui diritti dei lavoratori.

A questi doveri di informazione si è aggiunto l' obbligo delle imprese di procedere alla analisi e valutazione dei rischi indotti dalle nuove tecnologie quando queste vengono utilizzate nella gestione dei rapporti di lavoro.

Il regolamento sulla IA considera ad alto rischio ogni uso della intelligenza artificiale che riguardi questi rapporti e quindi intende prevenirlo con queste procedure e con l' obbligo di adottare misure per mitigare o eliminare situazioni di pericolo eventualmente accertate.

L' applicazione di queste regole richiede all' imprese di attrezzarsi con competenze e modelli organizzativi nuovi per adempiere alle nuove responsabilità ogni qualvolta intenda utilizzare l' intelligenza artificiale nella gestione del personale.

Diffusione dell'IA nelle imprese italiane

Le ricerche segnalano che la diffusione della IA nelle imprese italiane è ancora limitata, ma sta diffondendosi rapidamente in molte funzioni relative alla gestione del personale: fra queste è utilizzata in particolare nelle procedure di assunzione e esame dei c.v., nell'analisi delle performance, nelle procedure di compliance, nella prevenzione e cura della sicurezza del lavoro.

Un'area di particolare delicatezza riguarda l' esercizio del potere direttivo del datore. L'utilizzo degli strumenti di intelligenza artificiale modifica le modalità con cui tale potere si può attuare; permette di esprimerlo non più solo con direttive dirette e specifiche, ma anche attraverso il controllo tramite questi strumenti, anche in modalità non palesi e percepibili dai dipendenti interessati. Cosicché si può dire che il potere direttivo si trasforma, ibridandosi con quello di controllo.

Per questo le direttive europee stabiliscono vincoli specifici sulle modalità con cui la intelligenza può essere esercitata a fini di controllo sui comportamenti dei lavoratori.

Già il regolamento 2016/679 sul trattamento dei dati personali prevede, a tutela della privacy, che la raccolta dei dati deve essere trasparente corretta e proporzionata al fine (art. 5.1 lett a, c).

Inoltre sancisce il diritto a non essere sottoposti a decisioni integralmente automatizzate, salvo il consenso dell' interessato, e il diritto di questo a fare opposizione a trattamenti lesivi dei suoi diritti.

Lo stesso regolamento stabilisce il divieto di utilizzare la IA per una serie di attività potenzialmente lesive dei diritti delle persone: in particolare per valutare le persone sulla base della profilazione del loro comportamento sociale o delle caratteristiche personali cd. social scoring (v. T.Treu, Il regolamento europeo sulla intelligenza artificiale: divieti e limiti del ricorso al social scoring, Guida Lavoro, 30 giugno 2025).

Alcuni di questi divieti sono ispirati a principi simili a quelli dell' art. 8 del nostro Statuto dei lavoratori. La loro applicazione è sostenuta da linee guida della Commissione europea e già oggetto di interventi della Corte di giustizia europea.

Profilazione e monitoraggio: rischi e diritti dei lavoratori

Nonostante la chiarezza del principio ispiratore della regola, la sua applicazione pratica, in particolare la distinzione fra pratiche di profilazione legittime e pratiche vietate, rimane incerta per vari aspetti, come mostra una recente decisione della Corte di giustizia europea (205/2025).

La importanza dei valori in gioco deve indurre le imprese a definire in modo preciso le procedure e le modalità delle decisioni su questi aspetti. Analoga attenzione va prestata alle attività di monitoraggio e alle indagini interne organizzative svolte tramite IA che possano comportare anche indirettamente controlli sui comportamenti dei lavoratori. Questo perché anche queste attività sono ritenute ad alto rischio se svolte tramite IA e quindi vanno soggette a obblighi di informazione dei lavoratori e di valutazione del rischio così l' art1bis decreto 152 /1997, e il regolamento IA art.27 e considerando 57.

La decisione sopra citata della Corte europea di giustizia stabilisce un principio generale, valido al di là del caso specifico, che riconosce il diritto della persona interessata di ottenere una spiegazione.

La decisione stabilisce un principio di rilevanza generale, in quanto mira a rendere trasparente il processo decisionale di questi sistemi automatizzati, riconoscendo il diritto della persona interessata di ottenere una spiegazione circa il meccanismo posto alla base del processo decisionale e circa il risultato ottenuto.

Specifica anche in modo rigoroso i requisiti di intelligibilità e di accessibilità cui tale spiegazione deve corrispondere per essere adeguata a soddisfare il diritto della persona interessata.

Il diritto alla giustificazione e l'inversione dell'onere della prova

Si tratta di una decisione che conferma il principio stabilito dal regolamento sulla IA (art 81) e dalla direttiva 2024/283 sul lavoro tramite piattaforme digitali (art 11.1). L'importanza di questo principio si può apprezzare considerando la difficoltà di accertare in via preventiva la logica delle decisioni algoritmiche, anche con le tecniche di valutazione del rischio, così da identificare la presenza effetti pregiudizievoli dei diritti dei lavoratori.

I controlli ex ante raccomandati dalla Commissione europea, come quelli volti a verificare la qualità e la accuratezza dei dati forniti alla IA e le verifiche in itinere sui processi seguiti dai sistemi automatizzati possono non essere sufficienti a evitare risultati discriminatori o lesivi dei diritti fondamentali delle persone. Per questo il diritto a ottenere la giustificazione delle decisioni algoritmiche è uno strumento importante per facilitare la identificazione di eventuali conseguenze illegittime come ho sostenuto in altra sede.

Se non si ritiene di concludere per la invalidità della decisione non adeguatamente giustificata, l'alternativa è di ritenere che la mancanza di valida giustificazione determini la inversione dell'onere della prova, ponendo a carico della impresa piattaforma l'onere di fornire motivi non discriminatori della decisione.

Si può richiamare al riguardo, fra le varie ipotesi normative di inversione dell'ordine della prova, la disposizione della direttiva 2023/970 (art. 18) in materia di trasparenza retributiva, che prevede una inversione completa dell'onere in caso di violazione degli obblighi di trasparenza datoriale, nonché la possibilità di un ordine di disclosure in giudizio.

Ovviamente è sempre possibile per la impresa piattaforma adottare la soluzione indicata dalla direttiva, cioè rettificare la decisione non giustificata e, ove ciò non sia possibile, offrire una compensazione adeguata (art. 8,3).

La normativa europea qui considerata fa spesso rinvio all' art 4 dello Statuto dei lavoratori: meno frequenti sono i richiami all'art 8, che pure, come si è visto, sancisce un principio rilevante ai nostri fini.

La norma dell' art 4 nella versione novellata nel 2015, secondo cui le garanzie previste per il controllo a distanza del datore di lavoro, accordo sindacale o autorizzazione amministrativa, non si applicano agli strumenti utilizzati dal lavoratore per rendere la prestazione lavorativa, ha dato origine a diverse interpretazioni in relazione a diversi tipi di strumenti di lavoro. In particolare si è ritenuto che essi non possono realizzarsi in maniera occulta ad es. con impianti audiovisivi, programmi informatici di monitoraggio della posta elettronica, accesso a internet (vedi anche per citazioni in F. Carinci, R. De Luca Tamajo, P. Tosi, T. Treu, Diritto del lavoro, vol. 2 , 9° ed., p. 292 ss.).

Intelligenza artificiale e controllo a distanza: limiti normativi e ruolo degli accordi sindacali

La questione ora si ripropone per quanto riguarda gli utilizzi degli strumenti che utilizzano la Intelligenza artificiale. Tenendo conto delle interpretazioni finora adottate dalla giurisprudenza e dalla dottrina si può ritenere che la indicazione della normativa "strumenti utilizzati dal lavoratore per rendere la prestazione lavorativa" debba essere oggetto di interpretazione restrittiva (così il provvedimento del Garante per la protezione dei dati personali del 29 aprile 2025, paragrafo 4.1). Per cui strumenti quali computer, smartphone, tablet, come tali possono essere usati senza previo accordo o autorizzazione amministrativa: ma non sarà più così qualora in essi siano installati dispositivi di intelligenza artificiale.

Alcuni di questi dispositivi, come programmi di copilota, ChatGPT, possono essere utili allo svolgimento di certe prestazioni di lavoro, specie di ricerca ed elaborazione di informazioni. Ma essi si prestano a permettere un controllo a distanza e in via continuativa delle attività del lavoratore da parte del datore di lavoro e quindi andranno soggette ai vincoli dell' art 4.

In questo senso si e espresso già all'indomani del Jobs act il Ministero del lavoro in relazione a dispositivi informatici installati nel computer, e analogamente si è pronunciata la giurisprudenza di cassazione (cfr. il testo sopra citato, p. 295).

Va anche ricordato che in ogni caso si dovranno applicare le norme del regolamento sulla protezione dei dati che stabiliscono stretti limiti di garanzia nelle modalità di trattamento dei dati, oltre che diritti di informazione e di opposizione dell'interessato.

Al riguardo è significativo il recente provvedimento del Garante per la protezione dei dati personali del 29 aprile 2025 (10134221) che ha dichiarato la illiceità del trattamento di metadati di posta elettronica dei dipendenti della regione Lombardia per violazione di varie norme del regolamento europeo e anche dell' art. 4 dello Statuto dei lavoratori, oltre che per la carenza della valutazione di impatto dovuta ex art 35 dello Statuto del regolamento europeo.

Altrettanto significativa ai nostri fini è la richiesta alla Regione di evitare, tramite misure appropriate, che sia possibile risalire alla identità dei singoli dipendenti che hanno effettuato la navigazione internet.

In realtà la diffusione dell' utilizzo della IA in aree sempre più ampie della attività produttive renderà molto difficile separare i suoi interventi nelle funzioni operative delle imprese da quelli che implicano un possibile controllo a distanza dei dipendenti che svolgono tali funzioni.

Per questo assumerà rilievo e utilità crescente il ricorso all'accordo sindacale previsto dall' art. 4 come strumento non solo per rendere legittimo il ricorso a controlli a distanza, ma anche per regolarne le modalità così da contemperare l'impiego della IA e la sua potenzialità di controllo, con il rispetto della privacy e dei diritti fondamentali dei lavoratori.

Un esempio virtuoso di accordo che interviene a regolare questa delicata materia è quello siglato il 28 luglio 2025 fra la Glaxo Smith Kline spa e ViiV Healthcare srl e le RSU.

L'intesa, che si pone in linea con il riconoscimento da parte del CCNL chimico farmaceutico della importanza della IA, si inquadra in un percorso di confronto sulle implicazioni della IA e della innovazione tecnologica mirante a promuoverne un uso responsabile, come supporto al processo decisionale umano e allo sviluppo delle competenze digitali dei lavoratori, con la istituzione di un osservatorio paritetico dedicato alla bilateralità.

Nello specifico si intende avviare un progetto pilota volto a personalizzare le interazioni tra medici e informatori scientifici, con il supporto della IA generativa per trascrivere, analizzare e fornire feed back sui contenuti degli scambi di opinioni fra questi soggetti con l'obiettivo di migliorare la qualità della informazione scientifica.

L' adesione al progetto è volontaria e può essere revocata. E' prevista la rimozione di informazioni relative alla identificazione del personale partecipante con strumenti di anonimizzazione. I file audio sono conservati per il tempo necessario, mentre le trascrizioni per un periodo massimo di due anni per permettere una corretta calibrazione dell' algoritmo. In ogni caso viene assicurato il rispetto dell'art. 4 dello Statuto dei lavoratori.

L'accordo così concluso segnala come l' intervento della IA nei rapporti di lavoro offra una occasione preziosa alle parti sociali di contribuire direttamente a una regolazione di questa tecnologia che sia in linea con le direttive europee e che ne chiarisca le modalità d' uso per imprese e lavoratori.

Per saperne di piùRiproduzione riservata ©