L'uso dell'IA nella selezione del personale è efficiente ma richiede cautela per evitare violazioni di privacy e discriminazioni
La norma e le linee guida della Commissione
Una questione di crescente rilevanza nella prassi e arrivata anche alla attenzione della giurisprudenza riguarda l'utilizzo della intelligenza artificiale per la valutazione di persone o gruppi sulla base della profilazione del loro comportamento sociale o delle caratteristiche personali: cd. social scoring.
La questione è regolata dall' art 5.1 lett c del regolamento europeo sulla IA, che stabilisce condizioni rigorose per questo utilizzo, ampiamente illustrate da apposite linee guida della Commissione europea (comunicazione del 4 febbraio 2025, C 2025/884 final sulle pratiche vietate di uso della intelligenza artificiale secondo l'IA europeo).
Le linee guida rilevano che questi sistemi di profilazione automatici possono essere utili a promuovere comportamenti corretti, a migliorare la sicurezza l' efficacia e la qualità dei servizi, ma osservano che alcune pratiche di scoring possono comportare effetti sfavorevoli e discriminatori per le persone o i gruppi coinvolti nonché forme di controllo sociale incompatibili con i valori della Unione.
I divieti stabiliti del regolamento sul social scoring mirano a colpire queste pratiche illecite al fine di proteggere i diritti fondamentali della persona, inclusi il diritto alla non discriminazione e alla eguaglianza, alla protezione dei dati, alla vita personale familiare, e agli altri diritti sociali riconosciuti dalla normativa dell' Unione.
Divieti e limiti del social scoring
Secondo la norma dell' IA Act le pratiche di social scoring sono vietate in due serie di casi: a) quando conducono a trattamenti sfavorevoli o dannosi di persone o gruppi in contesti sociali non correlati con quelli in cui i dati sono stati generati o raccolti.
b) quando portano a trattamenti sfavorevoli o dannosi non giustificati o non proporzionati rispetto al comportamento sociale o alla sua gravità.
Le linee guida offrono alcuni esempi di pratiche vietate.
Rientrano nella prima serie di casi, ad es. l' uso di un sistema di IA da parte di un agenzia di assistenza sociale per stimare la probabilità di frode da parte di beneficiari di assegni familiari basandosi su caratteristiche raccolte o desunte da contesti e caratteri sociali privi di apparente connessione o rilevanza in proposito come avere il coniuge di una certa nazionalità o etnia, avere una connessione internet o un dato comportamento sui social o una data performance sul lavoro; l'uso da parte di un'agenzia del lavoro per valutare se certi soggetti meritano il trattamento di disoccupazione basandosi non solo su caratteri quali età e livello di educazione ma anche su dati senza nesso con l' oggetto della decisione come lo stato coniugale, o dati relativi allo stato di salute, ecc.
Esempi del secondo tipo di pratiche vietate indicati dalle linee guida sono: uso di sistemi di IA da parte di un ente pubblico per profilare le famiglie e individuate precocemente i bambini a rischio basandosi su criteri quali la salute mentale e la disoccupazione dei genitori, ma anche su informazioni circa il comportamento sociale dei genitori tratte da molteplici contesti; uso di IA da parte di un Comune per valutare la affidabilità dei residenti basandosi su molteplici dati riferiti al comportamento sociale in diversi contesti quali la insufficiente partecipazione ad attività di volontariato e piccole irregolarità quali non restituire in tempo i libri presi a prestito dalla biblioteca o lasciare spazzatura in strada in giorni diversi da quelli stabiliti. La sproporzione sta nel fatto che i punteggi così raccolti sono usati per trarne conseguenze gravi come la revoca di benefici pubblici e simili misure punitive.
Una ipotesi in parte diversa relativa alla valutazione del lavoro menzionata nelle linee guida riguarda i giudizi forniti dai singoli utenti di un servizio reso tramite piattaforme digitali, in ipotesi le valutazioni di un autista operante mediante una piattaforma di car sharing on line. Si ritiene che le valutazioni siano legittime se sono la mera aggregazione di punteggi attribuiti al comportamento dei singoli utenti che non richiede necessariamente la IA; se invece tali valutazioni sul servizio sono combinate con altre informazioni e analizzate in modo automatico dal sistema di IA per classificare gli individui ,esse devono considerarsi vietate secondo l' art 5 lett c dell' IA Act (vedi al riguardo Lucia Valente, Quando è vietato dare un voto al lavoratore con l'IA, in www.lavoceinfo,17 giugno 2025).
La ratio dei divieti e dei limiti
I divieti e i limiti stabiliti dalla regolazione in esame hanno una ratio comune abbastanza chiara e ragionevole.
Il principio cui essi si ispirano è simile a quello stabilito dall' art. 8 dello Statuto dei lavoratori italiano che vieta al datore di lavoro di effettuare indagini su fatti che non siano rilevanti ai fini della valutazione della sua attitudine professionale; e risponde alla stessa esigenza di tutelare la privacy delle persone coinvolte e soprattutto evitare discriminazioni
Nel caso qui considerato l'ambito di applicazione del principio va oltre i controlli e le possibili discriminazioni dei lavoratori estendendosi alla prevenzione di ogni possibile rischio di discriminazione sociale.
Inoltre tali rischi di discriminazione, come quindi l'ambito di applicazione del divieto, sono grandemente ampliati dalle enormi possibilità di scoring con utilizzo di dati a fini discriminatori offerte dagli strumenti della intelligenza artificiale, siano essi usati dai datori di lavoro o da altri soggetti pubblici e privati (le guidelines specificano espressamente che la regolazione comprende ogni attività di questo genere senza distinzione fra pubblico e privato).
Le indicazioni suggerite da questa casistica hanno implicazioni rilevanti riguardanti gli utilizzi della IA ormai sempre più diffusi anche nella gestione del personale.
Implicazioni per la gestione del personale
Una applicazione fra le più frequenti della IA in questa materia riguarda i casi in cui sia necessario analizzare grandi numeri di curricula dei candidati, ove tale strumento risulta estremamente efficiente.
Un simile utilizzo va però circondato di non poche cautele per evitare di incorrere in violazioni dei principi fin qui segnalati.
Infatti nonostante la chiarezza del principio ispiratore della regola, la sua applicazione pratica, e in particolare la distinzione fra pratiche legittime e pratiche vietate rimane alquanto incerta per vari aspetti.
Lo segnalano le stesse linee guida che pure forniscono indicazioni precise sui concetti rilevanti per la soluzione delle questioni: quelli di profiling, di caratteristiche personali, di social behaviour, sul periodo di tempo cui riferire lo scoring, nonché in particolare sul nesso causale fra social score e trattamento sfavorevole per il soggetto interessato, sul carattere rilevante o meno dei dati rilevati e dei contesti in cui originano e infine sulla proporzionalità o meno delle conseguenze tratte dallo scoring.
A rendere più complesse le decisioni si ricorda che, oltre a rispettare i confini, fra pratiche ammesse e discriminatorie c'è la necessità di rispettare le regole della privacy nell'impiego dei dati relativi ai singoli candidati, curando che non siano incluse (nella analisi) informazioni diverse e ulteriori a quelle contenute negli stessi curricula.
La delicatezza della questione può indurre a circoscrivere in modo preciso la funzione attribuita alla IA in questa selezione, come risulta dalle migliori pratiche aziendali (vedi il Report del dibattito all' Arel sull' uso della intelligenza artificiale in alcune grandi aziende,18 giugno 2025).
In particolare si evita di attribuire a questi sistemi automatici compiti di valutazione dei c.v., utilizzandoli solo per verificare la corrispondenza dei dati sulle competenze dei candidati ivi contenuti con i requisiti prestabiliti dall' azienda per le assunzioni.
Analogamente, tenendo conto del caso sopra citato dalle linee guida è sconsigliabile che in casi simili siano utilizzate altre informazioni oltre quelle dei c.v. analizzate in modo automatico.
La decisione della Corte europea di giustizia (203/2025)
Indicazioni significative sulle implicazioni e difficoltà di queste scelte si trovano in una recente decisione della Corte europea di giustizia relativa alla applicazione delle norme del regolamento europeo sulla privacy ( 2016/679). Questa è una normativa che si integra per molti versi con il regolamento sulla IA perché i sistemi di intelligenza artificiale utilizzano ampiamente dati personali i quali devono quindi essere trattati nel rispetto delle regole sulla privacy (vedi al riguardo sulla necessità di una lettura coordinata di queste e altre normative recenti emanate dalla Unione Europea, T.Treu, Il controllo umano delle tecnologie: regole e procedure in working papers, WP C.S.D.L.E. "Massimo D'Antona", IT, 492/2025, p. 4 ss.).
La decisione della Corte riguardava il caso di un operatore di telefonia mobile che aveva negato la conclusione di un contratto che avrebbe comportato il pagamento mensile di dieci euro a una cittadina austriaca adducendo che in base a una valutazione automatizzata della cecità di pagamento (la cosiddetta profilazione) era emersa una insufficiente solvibilità finanziaria della potenziale cliente. Secondo la Corte la valutazione automatizzata della solvibilità di una persona e il conseguente diniego di stipulazione di un contratto di telefonia mobile non può prescindere dalla spiegazione di come siano trattati i dati personali per mezzo dell' algoritmo.
Il principio sancito nel caso specifico ha una implicazione generale di grande rilevanza perché mira a rendere trasparente il processo decisionale di questi sistemi automatizzati riconoscendo il diritto della persona interessata a ottenere una spiegazione circa il meccanismo posto alla base di tale processo decisionale e circa il risultato ottenuto.
La sentenza specifica in modo rigoroso i requisiti di intelligibilità e accessibilità cui tale spiegazione deve corrispondere per essere adeguata a soddisfare il diritto alla spiegazione,
i parametri utilizzati per la valutazione e la loro spiegazione, l' origine delle informazioni, le procedure e i principi applicati per utilizzare i dati al fine perseguito (cfr. Lucia Valente, Quando è vietato dare un voto, loc. cit.).
Si ricorda che il nostro ordinamento stabilisce l'obbligo del datore di lavoro di informare i lavoratori nel caso di uso di sistemi integralmente automatizzati decisionali e di monitoraggio relativi ai vari aspetti delle relazioni di lavoro (decreto 104/2022 come modificato dal decreto 42/ 2023).
Diritto alla spiegazione delle decisioni dell'algoritmo
Il riconoscimento nella sentenza di un diritto così circostanziato degli interessati alla spiegazione dei meccanismi decisionali propri di questi meccanismi automatizzati è importante perché conferma con l'autorità della Corte europea una regola presente in due recenti provvedimenti della Unione, la direttiva sul miglioramento condizioni del lavoro tramite piattaforme digitali (2024/2831) all' art.11,1 e lo stesso regolamento sulla intelligenza artificiale all'art. 81; entrambe le norme sanciscono il diritto degli interessati a ottenere la giustificazione delle decisioni tramite sistemi informatizzati diretta a chiarire il loro modo di funzionamento e i procedimenti seguiti per arrivare all decisione.
Questo diritto a ottenere la giustificazione delle decisioni dei sistemi di IA a loro pregiudizievoli è uno strumento importante se non decisivo per accertare eventuali comportamenti discriminatori, data la oscurità dell' operare di questi meccanismi automatici e la difficoltà di accertare altrimenti la esistenza di simili comportamenti.
Quanto alle conseguenze di un eventuale rifiuto di fornire giustificazioni adeguate la soluzione più plausibile è che esso determini la inversione dell'onere dalla prova, ponendo in capo al datore di lavoro l'onere di fornire motivi non discriminatori della decisione (vedi T. Treu, Il principio del controllo umano, cit., p. 30 ss.).
La presenza di queste norme e l'avallo della Corte di giustizia sono segnali importanti che possono condurre a riconoscere il diritto alla giustificazione delle decisioni algoritmiche come un possibile principio generale della emergente IA law.