by

L’Autorità per la protezione dei dati personali di Amburgo ha pubblicato un interessante paper di approfondimento sui rischi per la privacy e l’IA, che dimostra una consapevolezza approfondita della tecnologia.

Ecco alcuni spunti innovativi:

  • Trattamento da parte degli LLM e archiviazione dei dati: a differenza dei sistemi di dati tradizionali, gli LLM trattano token e relazioni vettoriali (embedding), che secondo il DPC di Amburgo non costituiscono “trattamento” o “archiviazione” di dati personali ai sensi del GDPR.
  • Tokenizzazione vs. dati personali: I token e gli embedding negli LLM non hanno il legame diretto e identificabile con gli individui richiesto dalla giurisprudenza della CGUE per essere considerati dati personali.
  • Attacchi di memorizzazione: Sebbene sia possibile estrarre dati di addestramento dagli LLM, questi attacchi sono spesso poco pratici e legalmente discutibili, il che significa che l’identificazione dei dati personali non è sempre possibile ai sensi della normativa attuale.
  • Legalità dell’uso degli LLM: Anche se i dati personali sono stati gestiti in modo scorretto durante lo sviluppo di LLM, ciò non rende necessariamente illegale l’utilizzo del modello risultante, offrendo una rassicurazione a coloro che utilizzano modelli di terze parti.

In definitiva il paper riflette un approccio sofisticato e tecnologico all’intersezione tra IA e privacy.

Le altre autorità dell’UE preposte alla tutela della privacy seguiranno la stessa strada? Sarebbe un cambiamento rivoluzionario per il settore!

Su un argomento simile può essere d’interesse l’articolo “Scraping di dati e AI generativa: il controverso orientamento dell’Autorità olandese per la protezione dei dati personali

(Visited 118 times, 1 visits today)
Close Search Window