Con la rapida diffusione dell’intelligenza artificiale (“AI“) nelle aziende, la necessità di gestire i rischi legati alla protezione dei dati è diventata una questione cruciale da affrontare a livello dirigenziale. L’11 novembre 2025, il Garante europeo della protezione dei dati (“EDPS“) ha pubblicato la sua “Guida per la gestione dei rischi dei sistemi di intelligenza artificiale” (“Guida”), al fine di fornire alle istituzioni, agli organi, agli uffici e alle agenzie dell’Unione europea alcuni consigli pratici su come garantire la conformità nello sviluppo o nell’utilizzo di sistemi di AI.
Sebbene la Guida sia ufficialmente rivolta a istituzioni e agenzie UE, i suoi principi e criteri (basati sulla metodologia di gestione dei rischi ISO 31000:2018) sono estremamente rilevanti anche per il settore privato. La Guida costituisce un modello di best practice per qualsiasi azienda che intenda sviluppare una strategia di governance dell’AI solida e conforme alla normativa.
Primo suggerimento: porre l’interpretabilità e la spiegabilità alla base del sistema di AI
L’EDPS considera l’interpretabilità e la spiegabilità non come slogan intercambiabili, ma come concetti distinti e cruciali per garantire la comprensione e l’affidabilità dell’AI. Come definito nella Guida, l’interpretabilità è il grado in cui un essere umano può comprendere il funzionamento di un modello e cogliere le connessioni tra i suoi input e output. La spiegabilità, invece, è la capacità di chiarire perché un modello ha preso una decisione specifica in modo accessibile all’utente finale.
Un sistema interpretabile e spiegabile consente ai fornitori di AI di instaurare un rapporto di fiducia con i clienti, dimostrare la conformità alle autorità di regolamentazione, consentire audit efficaci e correggere più facilmente gli errori. Ciò significa che i sistemi di AI richiedono una soluzione integrata per interrogare il perché è stata presa una decisione, non solo per generare un output chiaro e immediato.
Secondo suggerimento: contrastare i bias da qualsiasi prospettiva: dati, algoritmi e interpretazione
L’EDPS chiarisce che il principio di correttezza richiede che i dati personali non siano trattati in modo “ingiustificatamente dannoso, illegittimamente discriminatorio, inaspettato o fuorviante per l’interessato”. Sottolinea che il bias (distorsione) non è un fenomeno unitario, ma un rischio sfaccettato che può manifestarsi in diverse fasi del ciclo di vita dell’AI. Il documento identifica cinque cause distinte alla radice dei pregiudizi:
- Mancanza di qualità dei dati: i sistemi di AI operano secondo il principio “garbage in, garbage out”. Dati di addestramento imprecisi, incompleti o etichettati in modo errato possono portare a risultati errati e distorti.
- Bias nei dati di addestramento: può derivare da pregiudizi di natura storica riflessi nei dati o da errori di campionamento che portano a set di dati non rappresentativi della popolazione reale.
- Overfitting: questo problema tecnico si verifica quando un modello apprende i dati di addestramento, compresi il rumore e i valori anomali, in modo così accurato da non poter applicare le conoscenze acquisite a dati nuovi e sconosciuti, con conseguenti prestazioni reali scadenti e spesso distorte.
- Distorsione algoritmica: la progettazione stessa del sistema di AI, compresa la scelta delle funzioni matematiche o degli algoritmi, può essere intrinsecamente distorta e produrre risultati ingiusti, indipendentemente dalla qualità dei dati.
- Distorsione interpretativa: anche con un modello perfetto, i revisori umani potrebbero introdurre distorsioni traendo conclusioni errate o fuorvianti dai risultati dell’AI, spesso influenzati dai propri preconcetti.
Dal punto di vista operativo, è opportuno istituire un gruppo di lavoro interfunzionale dedicato all’“AI responsabile” che includa data scientist, consulenti legali e responsabili delle linee di business, con il compito di mettere in discussione le premesse in ogni fase del ciclo di vita dell’AI.
Terzo suggerimento: comprendere i due volti dell’accuratezza
La Guida evidenzia una distinzione fondamentale che spesso viene trascurata nella comunicazione tra i team legali e quelli tecnici: la differenza tra accuratezza giuridica e accuratezza statistica. Ai sensi della normativa sulla protezione dei dati, per accuratezza si intende che i dati personali devono essere corretti dal punto di vista fattuale, mentre l’accuratezza statistica è un parametro di prestazione che misura la frequenza con cui le previsioni di un modello sono corrette. Questa distinzione è fondamentale. Un modello di AI può avere un’accuratezza statistica molto elevata, ma produrre comunque dati personali inesatti dal punto di vista giuridico, creando una grave lacuna di conformità. Ciò è particolarmente vero per gli strumenti di AI generativa. Le imprese devono attuare misure di verifica, come la supervisione umana, per garantire l’accuratezza fattuale dei risultati dell’AI che costituiscono dati personali.
Quarto Suggerimento: gestire il conflitto tra la minimizzazione dei dati e la necessità dell’AI di apprendere nuovi dati
Esiste un conflitto intrinseco tra il principio fondamentale della protezione dei dati, ovvero la minimizzazione dei dati, e il fatto che la maggior parte dei sistemi di AI necessita di grandi quantità di dati per ottenere risultati efficaci. Per risolvere questo conflitto, l’EDPS suggerisce diverse misure tecniche di mitigazione, tra cui il campionamento dei dati (utilizzo di un sottoinsieme rappresentativo di dati), l’anonimizzazione, la pseudonimizzazione o l’uso di dati sintetici per ridurre la quantità di dati personali trattati.
Quinto suggerimento: aggiornare i framework di sicurezza per le minacce specifiche dell’AI
La Guida sottolinea che i sistemi di AI introducono vulnerabilità di sicurezza uniche che vanno oltre le tradizionali minacce alla sicurezza IT, tra cui:
- Divulgazione dei dati di addestramento: gli attaccanti possono utilizzare tecniche come l’inversione del modello e l’inferenza sull’appartenenza per interrogare l’output di un modello e decodificarlo per rivelare dati personali sensibili che facevano parte del set di addestramento originale.
- Inquinamento dei dati e dei modelli: un malintenzionato potrebbe manipolare intenzionalmente i dati di addestramento o il modello stesso per introdurre pregiudizi nascosti, backdoor o errori critici.
- Vulnerabilità delle API: le interfacce di programmazione delle applicazioni (API) scarsamente protette che forniscono l’accesso al modello di AI possono diventare un vettore importante per la fuga di dati personali.
I manuali di sicurezza informatica aziendale richiedono un aggiornamento per tenere conto di questi nuovi vettori di attacco, poiché la protezione del modello di AI, dei suoi dati di addestramento e delle sue API è ormai fondamentale quanto la protezione dei database e delle reti tradizionali.
Sesto suggerimento: gestire i diritti degli interessati nell’era dell’intelligenza artificiale
I sistemi di AI pongono sfide tecniche significative al rispetto dei diritti fondamentali degli interessati. La difficoltà principale, come sottolinea la Guida, è come identificare e cancellare o correggere dati personali specifici una volta che questi sono stati assimilati nei parametri del modello. L’EDPS introduce il “machine un-learning” come potenziale soluzione tecnica, per sviluppare metodi che consentano al modello di “dimenticare” selettivamente specifici dati sui quali è stato addestrato, senza doverlo riaddestrare da zero. Quando il machine un-learning non è praticabile, è possibile ricorrere al filtraggio dell’output per individuare e bloccare, attraverso la scansione in tempo reale, le informazioni personali prima che raggiungano gli utenti. Ciò significa che una richiesta di cancellazione può ora innescare un processo di ri-addestramento o filtraggio del modello complesso e potenzialmente costoso, creando un significativo vuoto di governance se non pianificato in anticipo.
Settimo suggerimento: esigere trasparenza durante l’acquisto di sistemi di AI
Per le numerose aziende che utilizzano sistemi di AI di terze parti anziché svilupparli internamente, la Guida costituisce un valido strumento di valutazione per la due diligence. Non è sufficiente fidarsi delle dichiarazioni dei fornitori. È invece necessario che i fornitori di AI siano tenuti a presentare:
- Documentazione generale sulle funzionalità del sistema di AI e sul funzionamento degli algoritmi sottostanti.
- Informazioni specifiche su come il sistema garantisce trasparenza e comprensibilità.
- Documentazione sulle misure di sicurezza informatica relative all’integrità del modello.
- Dettagli sulle pratiche di governance dei dati del fornitore, compreso il modo in cui i dati di addestramento sono stati ottenuti ed elaborati.
- I risultati delle procedure di convalida e di test, comprese le metriche di prestazione relative all’equità e alla parzialità tra i diversi gruppi demografici.
Conclusione: dalla gestione del rischio all’innovazione responsabile
Il messaggio centrale dell’EDPS è chiaro: l’implementazione dell’AI richiede il passaggio da un approccio difensivo e incentrato sulla conformità a una cultura di gestione del rischio proattiva e sistematica. Non si tratta di frenare l’innovazione con lungaggini burocratiche, ma di consentire un’innovazione sostenibile e affidabile gestendo i rischi intrinseci in una prospettiva strategica.

