ai edpb gdpr

by

L’Opinione 28/2024 del Comitato Europeo per la Protezione dei Dati (EDPB) rappresenta uno sforzo epocale da parte dell’EDPB per chiarire come il GDPR si applichi ai modelli di AI.

Con le organizzazioni che si rivolgono sempre più all’Intelligenza Artificiale per il processo decisionale, il servizio clienti, il rilevamento delle frodi e la personalizzazione, la questione di come conciliare queste tecnologie con le severe leggi sulla protezione dei dati non è mai stata così pressante.

In precedenza, le aziende hanno lottato per inserire le capacità di AI in rapida evoluzione in un quadro normativo progettato prima dell’adozione diffusa dell’AI. Il parere 28/2024 risponde a una richiesta del garante privacy irlandese, affrontando quattro aree chiave:

  • Condizioni per considerare i modelli di IA “anonimi”
  • Utilizzo dell’interesse legittimo come base giuridica
  • Gestione delle conseguenze dell’elaborazione illegale dei dati durante lo sviluppo del modello
  • Enfatizzare la documentazione, la responsabilità e la gestione continua del rischio.

Questa guida non è limitata ai Large Language Models o all’AI generativa. Qualsiasi modello di AI addestrato sui dati personali, indipendentemente dalla complessità o dallo scopo, rientra nel suo ambito.

Potete guardare il seguente episodio del nostro podcast sull’opinione dell’EDPB sull’addestramento dell’IA:

Potete anche ascoltare l’episodio come podcast su Apple Podcasts, Google Podcasts, Spotify e Audible.

E potete leggere l’articolo qui sotto:

Modelli AI e anonimato: Come soddisfare uno standard elevato

Un punto significativo del parere dell’EDPB riguarda i criteri in base ai quali i modelli di AI possono essere considerati veramente anonimi. La semplice eliminazione degli identificatori diretti non è più sufficiente. L’EDPB alza l’asticella, insistendo su un’analisi caso per caso e avvertendo che anche i dati aggregati possono essere suscettibili di attacchi di re-identificazione come l’inversione del modello o l’inferenza di appartenenza.

Principali insegnamenti:

  • Analisi caso per caso: Ogni modello di AI è unico e le organizzazioni devono dimostrare che i rischi di re-identificazione non sono “ragionevolmente probabili”.
  • Soglia alta per l’anonimato: Tecniche come la privacy differenziale possono aiutare a iniettare “rumore” per impedire l’estrazione di dati personali, ma la pseudonimizzazione da sola non è sufficiente.
  • L’angolo pragmatico dell’ICO: La posizione dell’ICO del Regno Unito è leggermente più pragmatica e invita le organizzazioni a implementare salvaguardie realistiche e a giustificare approcci potenzialmente rischiosi, come il web scraping, con solide strategie di minimizzazione dei dati.

Comprendendo questi requisiti, le aziende possono allineare meglio le loro pratiche di gestione dei dati con i severi standard dell’EDPB sull’anonimato.

Affidarsi all’interesse legittimo: Un rigoroso test di bilanciamento

Il parere dell’EDPB chiarisce che l’interesse legittimo (Articolo 6(1)(f) GDPR) non è una “soluzione rapida” per giustificare il trattamento dei dati nei modelli di AI. Al contrario, impone un test in tre fasi:

  1. Identificare un interesse legittimo: L’interesse deve essere concreto, legittimo e chiaramente definito.
  2. Valutare la necessità: I dati personali sono essenziali per raggiungere l’obiettivo dichiarato? Lo stesso risultato potrebbe essere raggiunto con metodi meno intrusivi?
  3. Test di bilanciamento: I diritti e le libertà degli interessati non devono essere scavalcati. Considerare la sensibilità dei dati, la trasparenza e i potenziali rischi di discriminazione.

La prospettiva dell’ICO sull’interesse legittimo:

L’ICO incoraggia la specificità. Definendo chiaramente l’interesse alla base dell’addestramento di un modello di IA, i responsabili del trattamento possono rafforzare il loro caso quando si tratta di bilanciare gli obiettivi organizzativi con i diritti individuali. Una documentazione dettagliata, eventualmente sotto forma di valutazioni d’impatto sulla protezione dei dati (DPIA), è fondamentale.

Gestire i dati trattati illegalmente nello sviluppo dell’IA

Cosa succede se i dati personali utilizzati per addestrare un modello di IA sono stati originariamente ottenuti illegalmente? Il parere dell’EDPB delinea diversi scenari:

  • Stesso controllore, dati contaminati: Se il responsabile del trattamento che ha elaborato i dati in modo illecito continua a distribuire il modello, deve riesaminare la conformità del modello e potrebbe doverne interrompere l’uso, riqualificarlo o applicare misure correttive.
  • Acquisizione del modello da parte di terzi: Un’azienda che acquista un modello di intelligenza artificiale pre-addestrato deve condurre la due diligence. L’ignoranza delle origini illegali non è una difesa.
  • Anonimizzazione prima della distribuzione: Se i dati personali del modello vengono realmente anonimizzati prima della distribuzione, il GDPR può cessare di essere applicato, a condizione che l’anonimizzazione soddisfi la soglia elevata stabilita dall’EDPB.

Questo quadro sottolinea la responsabilità nella catena di fornitura dell’AI. Tutte le parti coinvolte devono garantire la legalità dei dati, non solo il raccoglitore iniziale dei dati.

Documentazione e responsabilità: Le pietre miliari della conformità

Nel suo parere, l’EDPB sottolinea l’importanza della documentazione e della responsabilità. Registrazioni solide sono essenziali per dimostrare la conformità in ogni fase dello sviluppo del modello di AI.

Elementi essenziali della documentazione:

  • Le DPIA: In particolare per gli scenari di trattamento ad alto rischio, le DPIA devono identificare i rischi, proporre le mitigazioni ed evidenziare le salvaguardie.
  • Registri delle attività di trattamento (Articolo 30 GDPR): Conservare registri dettagliati delle fonti dei dati, delle finalità e delle misure di protezione.
  • Rapporti tecnici e valutazioni di vulnerabilità: Se utilizza controlli differenziali sulla privacy o di altro tipo, conservi le prove a sostegno di queste affermazioni.

Una strategia di archiviazione trasparente non solo aiuta negli audit normativi, ma crea anche fiducia con gli utenti, i clienti e i partner.

Gestione del rischio e tecniche di miglioramento della privacy per i modelli AI

Un approccio proattivo alla gestione del rischio è al centro dello sviluppo dell’IA conforme all’EDPB. Questo inizia con i principi della privacy-by-design:

Strategie fondamentali:

  • Minimizzazione dei dati: Raccogliere solo ciò di cui il modello di AI ha veramente bisogno.
  • Pseudonimizzazione e privacy differenziale: Considerare l’iniezione di rumore, la crittografia dei dati o la limitazione dell’accesso per ridurre i rischi di re-identificazione.
  • Test e aggiornamenti regolari: Testare continuamente il modello contro gli attacchi noti e aggiornare i controlli in base all’evoluzione della tecnologia.

Le autorità di vigilanza vorranno probabilmente vedere la prova tangibile che le organizzazioni mitigano attivamente i rischi. L’adozione di tecniche all’avanguardia e la valutazione regolare delle vulnerabilità dimostrano un impegno deciso nei confronti della privacy e della sicurezza.

Categorie speciali di dati e processo decisionale automatizzato

Se un modello di AI elabora categorie speciali di dati (ad esempio, salute, biometria), il GDPR impone regole ancora più severe. Esenzioni valide o consenso esplicito diventano fondamentali. Il danno potenziale per le persone è più elevato, così come la posta in gioco per la conformità.

Decisioni automatizzate ai sensi dell’articolo 22 del GDPR:

Per i sistemi che hanno un impatto significativo sulle persone, come quelli che determinano l’idoneità al credito, la trasparenza e la supervisione umana non sono negoziabili. I responsabili del trattamento devono fornire spiegazioni comprensibili sul modo in cui il modello di intelligenza artificiale prende le decisioni e offrire alle persone vie significative per contestare o richiedere l’intervento umano.

Il rispetto di questi standard può richiedere una stretta collaborazione tra team legali e tecnici per tradurre la complessa logica decisionale in informazioni chiare e comprensibili per gli interessati.

Armonizzazione e applicazione contestuale del parere dell’EDPB

Il parere dell’EDPB promuove l’armonizzazione tra le giurisdizioni dell’UE/SEE, ma riconosce anche che non esistono due modelli di IA identici. Ogni modello di AI richiede un approccio personalizzato, che tenga conto dei tipi di dati, dei metodi di elaborazione e degli usi previsti.

Per le aziende, questo significa che non esiste un modello unico. Si aspetti di adattare la sua strategia di conformità modello per modello, rimanendo agile man mano che emergono nuove linee guida e normative (come l’imminente legge UE sull’AI).

Esempio del mondo reale: Il caso GEDI

Un recente caso che coinvolge GEDI, un importante gruppo mediatico italiano, e il suo accordo con OpenAI offre un’illustrazione pratica dell’opinione dell’EDPB in azione. GEDI intendeva condividere grandi archivi di notizie, contenenti dati personali, con OpenAI per l’addestramento di modelli di AI.

Preoccupazioni normative:

  • Base giuridica: L’interesse legittimo o un’altra base giuridica è stata chiaramente stabilita?
  • Trasparenza: Le persone potevano ragionevolmente sapere che i loro dati sarebbero stati utilizzati per addestrare l’IA?
  • Diritti degli interessati: Esistevano meccanismi che consentivano agli interessati di opporsi o di capire come venivano trattati i loro dati?

L’Autorità italiana per la protezione dei dati (Garante) ha sollevato delle bandiere rosse, dimostrando che anche le aziende più affermate devono giustificare rigorosamente l’utilizzo dei dati. Il caso GEDI sottolinea che vasti insiemi di informazioni apparentemente “pubbliche” possono ancora essere dati personali ai sensi del GDPR.

Passi pratici dal parere dell’EDPB per le aziende che implementano modelli di AI

Per navigare in questi requisiti complessi stabiliti dal parere dell’EDPB, le aziende che intendono sfruttare l’IA possono adottare un approccio robusto e proattivo:

  1. Eseguire le DPIA presto e spesso: Identificare le aree ad alto rischio e rivedere le valutazioni man mano che i modelli si evolvono.
  2. Scegliere e documentare attentamente la base legale: L’interesse legittimo richiede un test di bilanciamento approfondito; il consenso richiede trasparenza e una scelta significativa.
  3. Implementare tecniche di miglioramento della privacy: La privacy differenziale, l’anonimizzazione e la pseudonimizzazione possono ridurre i rischi di re-identificazione.
  4. Mantenere una documentazione dettagliata: Conservare una documentazione rigorosa delle attività di trattamento, delle giustificazioni e delle valutazioni del rischio per soddisfare gli standard EDPB.
  5. Testare le vulnerabilità: Valutare regolarmente il suo modello di AI contro gli attacchi di inferenza associativa, l’inversione del modello e altri potenziali exploit.
  6. Garantire la trasparenza: Si assicuri che gli interessati sappiano come vengono utilizzati i loro dati e quali diritti hanno.
  7. Rimanere informati: Seguire gli aggiornamenti normativi e le linee guida in evoluzione per rimanere conformi e competitivi.

Lezioni dal parere dell’EDPB sui modelli di AI

Il parere dell’EDPB sulla conformità dei modelli di IA getta le basi per un futuro in cui innovazione e protezione dei dati devono andare di pari passo. Comprendendo l’elevata soglia fissata per l’anonimato, le condizioni per l’utilizzo dell’interesse legittimo, le ramificazioni dell’elaborazione illegale dei dati e la necessità di una documentazione rigorosa e della gestione del rischio, le aziende possono navigare in un panorama complesso con fiducia.

Con l’avanzare delle tecnologie AI, aumenteranno anche le aspettative normative. Le organizzazioni che investono nella privacy-by-design, negli audit continui e in una comunicazione chiara, saranno meglio posizionate per mantenere la fiducia, evitare azioni legali e rimanere all’avanguardia nell’innovazione responsabile dell’IA.

Potete leggere altri articoli sull’argomento QUI

(Visited 34 times, 3 visits today)
Close Search Window