SpecialiIl Punto

Intelligenza artificiale e profili di discriminazione retributiva algoritmica

di Silvia Cereda, Andrea Rossetti e Luca Barbieri

N. 7

guida-al-lavoro

Lo scorso 9 dicembre 2023 si sono conclusi i negoziati informali (‘trilogo’) in tema di intelligenza artificiale (IA) condotti da rappresentanti del Parlamento europeo, del Consiglio dell’Unione europea e della Commissione europea al fine di definire un orientamento condiviso riguardante la proposta di regolamento del 14 giugno 2023 che stabilisce regole armonizzate sull’intelligenza artificiale (‘AI Act’).

In via preliminare, è opportuno precisare che, pur afferendo a forme di discriminazione algoritmica...

  • [1] Una versione non ufficiale del regolamento che recepisce l’esito di una parte dei negoziati conclusisi lo scorso 9 dicembre 2023 è già circolante. Nell’attesa che il regolamento concluda il proprio iter di formazione e in ragione della mancata pubblicazione della versione concordata in sede di trilogo, le considerazioni espresse nel presente intervento sono condotte sulla base della proposta di regolamento 14 giugno 2023.

  • [2] Considerandum 15 della proposta di regolamento 14 giugno 2023.

  • [3] Considerandum 36 della proposta di regolamento 14 giugno 2023.

  • [4] Il modello di un sistema di IA mira a dare una rappresentazione dell’ambiente, ad offrirne una descrizione. Un modello può essere basato su dati e/o conoscenze specialistiche di progettisti o sul funzionamento di algoritmi di apprendimento (machine learning). L’attività interpretativa è il processo attraverso il quale un umano o uno dispositivo automatizzato ricavano dal modello un esito in forma di raccomandazione, decisione o previsione (OECD (2019), Scoping the OECD AI principles: Deliberations of the Expert Group on Artificial Intelligence at the OECD (AIGO), OECD Digital Economy Papers, No. 291, OECD Publishing, Paris, https://doi.org/10.1787/d62f618a-en).

  • [5] «Actuators, notably via activation bias, which relates to how the outputs of the AI system are used in the environment. For example, actuators such as bots generating twitter posts or news articles can have embedded bias related to the narratives generated by templates».

  • [6] In questa sede è appena il caso di precisare come al dato non possa in alcun modo essere attribuito un carattere di assolutezza, quanto piuttosto di parzialità, dal momento che non è possibile che un dato restituisca una rappresentazione neutrale del fenomeno da cui è ricavato; inoltre, non può essere trascurata l’eventualità che il procedimento seguito per la produzione del dato sia a sua volta viziato da pregiudizi o preconcetti in grado di pregiudicare la fondatezza del dato stesso.

  • [7] L’attività di addestramento deve essere opportunamente dimensionata, al fine di evitare un adattamento eccessivo (overfitting), cioè un processo di apprendimento automatico efficace nella fase di addestramento, ma non altrettanto capace di adattamento nell’ipotesi di elaborazione di nuovi dati.

  • [8] Art. 10, parr. 1 e 2 della proposta di regolamento 14 giugno 2023. La possibilità di disporre di dati elevata qualità e accuratezza costituisce un fattore essenziale, anche in un’ottica di sviluppo di sistemi di IA; al riguardo, si consideri come sia contemplata la possibilità di istituire ‘strutture di prova e sperimentazione’ (sandbox) e garantire, per finalità di ricerca, ‘l’accesso a set di dati di elevata qualità e la possibilità di utilizzarli nell’ambito dei rispettivi settori di attività (considerandum 45 della proposta di regolamento 14 giugno 2023).

  • [9] Art. 10, par. 3 della proposta di regolamento 14 giugno 2023. L’art. 15, par. 3 dell’anzidetta proposta prevede che un sistema di IA ad alto rischio che continui il processo di apprendimento anche successivamente all’immissione sul mercato sia sviluppato in modo tale da attenuare gli effetti distorsivi derivanti dall’impiego di output del sistema per operazioni future (feedback loops).,Un ulteriore aspetto della natura del dato che può presentare particolari difficoltà ai fini del corretto funzionamento di un sistema di IA può risiedere nella necessità di disporre di dati aggiornati e affidabili. In tal senso, uno strumento rimediale efficace potrebbe essere individuato nel ricorso a dati immodificabili poiché contenuti in registri digitali distribuiti (ledger distribuited technologies). È questa una soluzione che pur garantendo la sola immodificabilità del dato, si colloca nel solco della combinazione prefigurata dall’art. 30, c. 1 del D.Lgs. 31 marzo 2023, n. 36 che, in tema di uso di procedure automatizzate nel ciclo di vita dei contratti pubblici, stabilisce che «per migliorare l’efficienza, le stazioni appaltanti e gli enti concedenti provvedono, ove possibile, ad automatizzare le proprie attività ricorrendo a soluzioni tecnologiche, ivi incluse l’intelligenza artificiale e le tecnologie di registri distribuiti, nel rispetto delle specifiche disposizioni in materia».

  • [10] Il set di dati di addestramento, convalida e prova devono considerare, nell’ottica della finalità al cui perseguimento è diretto il sistema, le caratteristiche nonché gli elementi peculiari propri del contesto o dell’ambito geografico, comportamentale o funzionale all’interno del quale il sistema stesso è impiegato (considerandum 44 della proposta di regolamento 14 giugno 2023).,Ulteriore fattore non trascurabile in tema di addestramento afferisce al sistema per la sicurezza informatica, che deve essere in grado di respingere gli attacchi informatici che potrebbero provocare una manomissione dei dati impiegati per l’addestramento stesso (data poisoning e adversarial attack) ovvero penetrare nel sistema, sfruttando le vulnerabilità infrastrutturali (considerandum 51 e art. 15, par. 4 della proposta di regolamento 14 giugno 2023).,Con l’espressione adversarial attack s’intende ‘a malicious attempt which tries to perturb the input of a machine learning model (e.g. adding some noise imperceptible by humans) to cause the model to draw incorrect conclusions (e.g. a misclassification, or an error in the confidence of the classification)’ (Estevez Almenzar, M., Fernandez Llorca, D., Gomez Gutierrez, E. and Martinez Plumed, F., Glossary of human-centric artificial intelligence, EUR 31113 EN, Publications Office of the European Union, Luxembourg, 2022).

  • [11] Nell’ipotesi in cui l’architettura del sistema di IA sia sub-simbolica, cioè si avvalga di reti neurali o di metodi di apprendimento profondo (deep learning), il carattere di opacità rappresentare certamente un problema non trascurabile, poiché pregiudica la possibilità per l’utente di ripercorrere ogni fase del processo di funzionamento del sistema di IA; come detto, infatti, quando l’algoritmo d’apprendimento si caratterizza per la propria inestricabile complessità, l’utente è impossibilitato a giudicarne l’affidabilità e ad offrire una puntuale spiegazione del funzionamento del sistema stesso, risultando impraticabile qualsivoglia forma di effettivo controllo). In fase di addestramento, è possibile contrastare il carattere di opacità di un sistema quando l’utente ne plasmi il funzionamento promuovendo, ad esempio, l’effettuazione delle sole associazioni ritenute dall’utente stesso causalmente rilevanti.