by

Dal 9 all’11 ottobre 2024 si è svolta a Roma la quarta edizione della Tavola rotonda delle autorità sulla protezione dei dati del G7. Tra i temi principali discussi, l’intelligenza artificiale (AI) e il suo impatto sulla privacy, in particolare in relazione alla creazione di sistemi di AI affidabili e alla protezione dei minori nel contesto delle tecnologie di AI.

La tavola rotonda, ospitata dal Garante italiano, ha visto la partecipazione di autorità di regolamentazione della privacy provenienti da Canada, Francia, Germania, Giappone, Regno Unito e Stati Uniti, nonché di rappresentanti del Comitato europeo per la protezione dei dati (EDPB) e del Garante europeo della protezione dei dati (EDPS). Uno dei temi principali della tavola rotonda è stata l’intelligenza artificiale, di cui riportiamo di seguito i punti principali.

AI affidabile

Uno dei temi centrali dell’evento è stato l’AI affidabile. Le autorità di protezione dei dati hanno pubblicato una dichiarazione sull’affidabilità dell’AI, in cui riconoscono che le tecnologie dell’AI si stanno diffondendo in tutti i settori della società, presentando molteplici opportunità. Tuttavia, queste stesse tecnologie pongono anche sfide significative, soprattutto in termini di privacy, protezione dei dati e altri diritti fondamentali.

Nella loro dichiarazione sull’AI affidabile, le autorità di protezione dei dati hanno espresso preoccupazione per i potenziali rischi posti dall’AI, soprattutto nei casi in cui vengono trattati dati personali. Hanno osservato che molti sistemi di AI, compresi quelli che utilizzano modelli generativi di AI, dipendono da grandi quantità di dati, che possono portare a rischi quali stereotipi, pregiudizi e discriminazioni, anche se non utilizzano direttamente dati personali. Questi problemi possono, a loro volta, influenzare tendenze sociali più ampie, in particolare sotto forma di deep fake o disinformazione.

Le autorità privacy hanno inoltre sottolineato che è fondamentale incorporare i principi di protezione dei dati nei sistemi di AI fin dall’inizio, applicando così il principio di privacy by design. Ciò significa che le tecnologie di AI devono essere costruite tenendo conto delle considerazioni sulla protezione dei dati, garantendo la salvaguardia della privacy in ogni fase dello sviluppo e dell’utilizzo.

AI e bambini

Un altro tema importante della Tavola rotonda è stato la protezione dei bambini nell’era digitale, in particolare in relazione agli strumenti basati sull’AI. Le autorità privacy hanno pubblicato una dichiarazione sull’AI e i bambini in cui riconoscono che, sebbene l’AI offra notevoli opportunità per i bambini e i giovani, queste tecnologie possono anche esporli a rischi maggiori a causa del loro stadio di sviluppo e della loro limitata comprensione della privacy digitale.

Sono state identificate diverse questioni chiave relative all’IA e ai bambini:

  • Processo decisionale basato sull’IAI: la complessità e la mancanza di trasparenza dei sistemi di AI possono rendere difficile per i bambini e i loro assistenti capire come vengono prese le decisioni, soprattutto quando queste hanno implicazioni significative. Senza un’adeguata trasparenza, c’è il rischio di discriminazioni o pregiudizi non intenzionali, soprattutto quando i bambini sono coinvolti in processi decisionali basati sull’AI.
  • Manipolazione e inganno: Gli strumenti di AI possono essere utilizzati per influenzare gli utenti, spingendoli a prendere decisioni che potrebbero non essere nel loro interesse. Questo può essere particolarmente pericoloso per i bambini, che possono avere difficoltà a riconoscere i contenuti manipolativi. Le tecnologie basate sull’IA, come i compagni virtuali o i giocattoli, potrebbero indurre i bambini a creare legami emotivi con le macchine, inducendoli potenzialmente a condividere informazioni sensibili o a prendere decisioni che li espongono a rischi. Esempi specifici sono:
    • AI nei giocattoli e nei compagni di AI: i bambini potrebbero sviluppare legami emotivi con giocattoli o compagni online potenziati dall’AI, rendendoli più vulnerabili e portandoli a rivelare informazioni personali sensibili o a essere manipolati in altro modo;
    • Deep fake: i giovani sono particolarmente a rischio di essere presi di mira da contenuti deep fake, che possono includere immagini inappropriate o addirittura dannose di loro stessi.
  • Formazione dei modelli di Ai: I modelli di AI spesso richiedono grandi serie di dati per funzionare efficacemente. L’uso di dati personali di bambini per addestrare questi modelli, anche quando i dati vengono estrapolati da fonti disponibili al pubblico, solleva preoccupazioni circa le violazioni della privacy e i danni a lungo termine.

Alla luce di questi rischi, le autorità di protezione dei dati hanno formulato una serie di raccomandazioni per mitigare i potenziali danni ai bambini e garantire che i sistemi di IA rispettino i loro diritti:

  • Le tecnologie di AI dovrebbero essere guidate dal principio della “privacy by design”;
  • i sistemi di AI devono includere meccanismi per prevenire la dipendenza, la manipolazione e la discriminazione online, soprattutto quando questi sistemi possono interessare i bambini;
  • i bambini devono essere protetti dallo sfruttamento commerciale dannoso attraverso l’AI;
  • i modelli di AI che interessano i bambini devono dare priorità al loro interesse, sia in termini di raccolta ed elaborazione dei dati, sia nei risultati del sistema;
  • delle valutazioni d’impatto sulla protezione dei dati (DPIA) devono essere condotte per valutare i rischi associati ai sistemi di AI che coinvolgono i bambini.
  • I modelli di AI devono rispettare il principio di trasparenza e fornire risultati spiegabili, consentendo ai giovani utenti e a chi se ne prende cura di prendere decisioni informate sull’uso dei loro dati.

Conclusioni

Non sorprende che le autorità privacy di tutto il mondo si stiano concentrando sempre più sull’intelligenza artificiale, date le profonde implicazioni che essa ha per la privacy. La tavola rotonda del G7 ha rafforzato il legame tra l’intelligenza artificiale e la privacy, sottolineando che con il rapido avanzamento delle tecnologie dell’intelligenza artificiale e la loro profonda integrazione nel tessuto della vita quotidiana, la necessità di dare priorità alle salvaguardie della privacy diventa sempre più urgente. Le aziende che sviluppano strumenti di AI dovrebbero quindi incorporare i principi della privacy e della protezione dei dati nel cuore dello sviluppo dell’AI, al fine di garantire un uso etico, trasparente ed equo di queste tecnologie nella società.

Su un argomento simile può essere d’interesse l’articolo “Le prime firme alla convenzione quadro sull’Intelligenza Artificiale: verso un quadro giuridico globale?

(Visited 24 times, 1 visits today)
Close Search Window