La nuova legge italiana sull’Intelligenza Artificiale è entrata in vigore: parla di principi, responsabilità e… trasparenza.
Ma cosa significa davvero “trasparenza” nel contesto dell’IA? E come possiamo trasformarla in strumento utile per le persone?
In questo episodio di Legal Design Tricks esploriamo cosa prevedono le norme europee e italiane in materia di IA sulla trasparenza e la spiegabilità, e scopriamo come il legal design può renderle comprensibili e applicabili nella pratica.
- Cosa prevedono le norme sull’IA in materia di trasparenza
AI Act
Il Regolamento europeo sull’Intelligenza Artificiale (AI Act) introduce obblighi di trasparenza sia per chi fornisce sia per chi utilizza sistemi di IA.
Ad esempio,
- Art. 50: gli utenti devono essere informati in modo chiaro e riconoscibile quando interagiscono con un sistema di IA.
- Art. 13: i sistemi ad alto rischio devono essere progettati per garantire trasparenza e spiegabilità, tracciabilità, documentando logiche, processi decisionali e dataset di riferimento.
- Anche per i sistemi a rischio limitato, l’informazione all’utente resta centrale: sapere che dietro una decisione o un contenuto c’è un algoritmo è un diritto, non un optional.
Legge Italiana n. 132/2025
L’Italia è il primo Paese europeo ad aver adottato una legge nazionale sull’IA. Oltre a recepire i principi dell’AI Act, introduce obblighi specifici di trasparenza, tracciabilità e supervisione umana.
In particolare:
- Le informazioni relative all’uso di sistemi di IA devono essere rese con linguaggio chiaro, semplice e accessibile
- Devono permettere all’utente di comprendere i rischi, la logica del funzionamento e gli effetti delle decisioni automatizzate
- L’utente deve poter chiedere chiarimenti o una revisione umana della decisione,
- Nei contesti sensibili (es. lavoro, sanità, PA), la supervisione umana è obbligatoria.
In altre parole: la trasparenza non è solo “dire che c’è un algoritmo”, ma spiegare come funziona e come incide sulle persone.
- Explainability: la trasparenza che diventa comprensione
La spiegabilità (explainability) è la dimensione qualitativa della trasparenza: non basta rendere visibile il processo, bisogna renderlo comprensibile.
- Un sistema è trasparente quando comunica che esiste.
- È spiegabile quando permette di capire perché ha prodotto un certo risultato.
Nel diritto, questo significa dare alle persone la possibilità di comprendere:
- la logica che guida una decisione automatizzata;
- gli elementi che l’IA ha considerato nel suo output; e
- i limiti e margini di intervento umano.
L’AI Act, infatti, richiede che i sistemi ad alto rischio forniscano spiegazioni adeguate al contesto, proporzionate al pubblico di riferimento: un giudice, un medico o un utente comune non hanno lo stesso bisogno (né lo stesso linguaggio tecnico).
- Dal principio alla pratica: le implicazioni per il Legal Design
I principi di trasparenza e spiegabilità aprono un enorme spazio d’azione per il legal design.
Ecco tre leve operative per trasformare un obbligo normativo in un’esperienza per l’utente chiara e di fiducia.
a) Informare per creare fiducia
L’obbligo di informare può diventare un’occasione per costruire trasparenza e reputazione.
Le informative sull’IA non devono essere muri di testo: racconta cosa fa, perché lo fa e cosa può (o non può) fare l’utente con icone, schemi o micro-frasi per descrivere funzioni e limiti.
Esempio: “Questo sistema utilizza IA per individuare anomalie nei dati dei dipendenti → l’output è sempre rivisto da un analista umano → puoi chiedere la revisione entro 3 giorni.”
b) Comunicare nel momento giusto
L’utente non deve essere sommerso da informazioni tutte in una volta.
Mostra solo ciò che serve, quando serve: tooltip, pop-up o messaggi contestuali possono rendere chiare le azioni dell’IA senza interrompere l’esperienza.
Poco, chiaro, puntuale: è la regola d’oro del legal design per garantire la trasparenza.
c) Progettare diritti “navigabili”
Sapere che si ha un diritto non basta: bisogna poterlo esercitare facilmente.
Crea flussi semplici e guidati per richieste di revisione o chiarimenti sull’uso dell’IA.
Esempio: “1. Identifica l’output automatizzato → 2. Vai alla sezione Revisione IA → 3. Compila il form → 4. Ricevi conferma e tracking della richiesta.”
In questo modo, oltre ad essere conforme alla legge, progetti un’esperienza centrata sulle persone.
Lo sapevi?
La normativa italiana riprende il concetto di “trasparenza algoritmica” molteplici volte.
Un segnale chiaro: non basta essere conformi, bisogna essere comprensibili.
Già con il “Decreto Trasparenza” del 2022, l’Italia aveva introdotto nuovi obblighi informativi nei rapporti di lavoro per l’uso di strumenti automatizzati.
Con la Legge Italiana sull’AI, questo principio evolve in un vero e proprio diritto alla trasparenza e alla spiegabilità digitale – due facce della stessa medaglia: conoscere e comprendere.
Hai visto come la legge sull’IA non è solo un insieme di obblighi tecnici? Si tratta invece di un invito a ripensare come comunichiamo il diritto e come rendiamo intelligibili le tecnologie che usiamo ogni giorno.
Il legal design è il ponte tra regole complesse e comprensione concreta. E spiegare l’IA – con chiarezza, linguaggio umano e strumenti visuali – è il primo passo per renderla davvero etica.

