ApprofondimentoRapporti di lavoro

Quando l'intelligenza diventa artificiale, le regole per il lavoro dell'avvocato

di Raffaele Zallone, Andrea Stanchi

N. 39

Guida al Lavoro

Dal risk-based ai divieti chiari: come usare l'IA nello studio legale senza perdere diritti e valore

AI Act, Data Act[1], GDPR e L. 132/2025 offrono una cornice utile ma incompleta. Per tutelare davvero diritti e competitività servono regole semplici nei contesti più delicati, data commons operativi e accesso al calcolo in Europa.

In questo primo contributo ci occuperemo dell'impatto dell'IA sugli avvocati. A seguire, in prossimi altri contributi, ci proponiamo di esaminare molti aspetti della normativa e di coordinarla...

  • [1] Il Regolamento 2023/2854 è in vigore dal 12 settembre 2025, per info cfr. https://www.federprivacy.org/informazione/flash-news/data-act-il-nuovo-regolamento-europeo-sull-accesso-equo-ai-dati-e-sul-loro-utilizzo-applicabile-dal-12-settembre

  • [2] Su questo tema recentemente è uscito un contributo interessante: "Not Minds, but Signs: Reframing LLMs through Semiotics", che invita a evitare l'antropomorfizzazione e a considerare gli LLM come "agenti semiotici" che ricombinano forme linguistiche, invitando all'interpretazione contestuale. arXiv

  • [3] Cfr. LLM-Based Human-Agent Collaboration and Interaction Systems: A Survey Henry Peng Zou,*, Wei-Chieh Huang,*, Yaozu Wu,*, Yankai Chen, et al., University of Illinois Chicago, University of Tokyo, Tsinghua University, McGill University.

  • [4] Sotto questo profilo (che coinvolge il rapporto con la base matematica dei modelli) la rappresentazione precedente di "manipolatori di segni" è vera ma incompleta. per spiegare sia pure atecnicamente, anche nei sistemi formali il pensiero si manifesta come manipolazione simbolica che preserva un'interpretazione; la differenza è che lì la preservazione è garantita dalle regole del sistema, mentre nei LLM è indotta empiricamente dall'addestramento (previsione di token su grandi corpora). Dunque, i modelli non garantiscono per costruzione l'aggancio al riferimento: lo approssimano quando i dati lo permettono. Il nodo sta nello spazio latente. Durante l'addestramento, il modello costruisce rappresentazioni interne che interpolano i casi osservati: non scelgono semplicemente "la parola successiva", ma collocano l'input in un manifold dove vicinanze geometriche riflettono somiglianze d'uso, regolarità sintattiche e, in parte, relazioni logico-pragmatiche. Questa interpolazione latente spiega perché i LLM producono risposte coerenti e spesso utili: si muovono dentro la regione di esperienza dei dati, ricomponendo schemi già visti in forme nuove ma plausibili. Tuttavia, l'interpolazione ha confini: fuori distribuzione (es. nel diritto: novità, aggiornamenti normativi, significati istituzionali puntuali) il modello può perdere il rapporto con il sistema di riferimento e "allucinare" un'asserzione verosimile ma falsa. Qui servono ancoraggi esterni (retrieval da fonti aggiornate, ontologie, strumenti deterministici) e vincoli d'uscita (grammar/JSON/ontologie) per mantenere l'allineamento semantico. Quanto a non-determinismo e riproducibilità: la variabilità dipende da campionamento, hardware e prompt. È mitigabile con decoding deterministico, seed fissati, template di prompt e version pinning e soluzioni progettuali tecniche; ma l'affidabilità, specie nei casi ad alto rischio, nasce da un sistema più ampio (che spiega in parte l'apparato normativo progettato dall'Ai Act: LLM + retrieval versionato + validator/grammar + tool deterministici + human-in-the-loop, più test metamorfici, red-teaming, monitoraggio in esercizio e logging). In breve: i LLM "pensano per segni" interpolando strutture utili; l'aggancio stabile ai riferimenti non si presume, si progetta.

  • [5] In questo specifico esperimento l'AI ci ha aiutato a sintetizzare la tabella della parte "Tipologie di sistemi", che sarebbe stata molto meno concreta, a fare un po' di editing (sciogliendo qualche nodo espositivo e sintetizzando alcuni passaggi sulla dialettica tecnica relativa agli LLM) e facendo da "sparring" partner tecnologico.

  • [6] Madhumita Murgia, Essere Umani, Neri Pozza, 2025; Nick Couldry Ulises Mejias, The Cost of Connection, Stanford University Press, 2019.