L’Autorità per la protezione dei dati personali di Amburgo ha pubblicato un interessante paper di approfondimento sui rischi per la privacy e l’IA, che dimostra una consapevolezza approfondita della tecnologia.
Ecco alcuni spunti innovativi:
- Trattamento da parte degli LLM e archiviazione dei dati: a differenza dei sistemi di dati tradizionali, gli LLM trattano token e relazioni vettoriali (embedding), che secondo il DPC di Amburgo non costituiscono “trattamento” o “archiviazione” di dati personali ai sensi del GDPR.
- Tokenizzazione vs. dati personali: I token e gli embedding negli LLM non hanno il legame diretto e identificabile con gli individui richiesto dalla giurisprudenza della CGUE per essere considerati dati personali.
- Attacchi di memorizzazione: Sebbene sia possibile estrarre dati di addestramento dagli LLM, questi attacchi sono spesso poco pratici e legalmente discutibili, il che significa che l’identificazione dei dati personali non è sempre possibile ai sensi della normativa attuale.
- Legalità dell’uso degli LLM: Anche se i dati personali sono stati gestiti in modo scorretto durante lo sviluppo di LLM, ciò non rende necessariamente illegale l’utilizzo del modello risultante, offrendo una rassicurazione a coloro che utilizzano modelli di terze parti.
In definitiva il paper riflette un approccio sofisticato e tecnologico all’intersezione tra IA e privacy.
Le altre autorità dell’UE preposte alla tutela della privacy seguiranno la stessa strada? Sarebbe un cambiamento rivoluzionario per il settore!
Su un argomento simile può essere d’interesse l’articolo “Scraping di dati e AI generativa: il controverso orientamento dell’Autorità olandese per la protezione dei dati personali “
(Visited 118 times, 1 visits today)