by

Nel luglio 2024, la Commissione Europea ha adottato le Linee guida sulla protezione dei minori online (le “Linee guida”). Le Linee guida, emanate ai sensi dell’articolo 28, paragrafo 4, del Regolamento (UE) 2022/2065 (il “Digital Services Act” o “DSA“), definiscono le misure che i fornitori di piattaforme online accessibili ai minori dovrebbero adottare per garantire un elevato livello di privacy, sicurezza e protezione per i minori online.

Sebbene non siano giuridicamente vincolanti, le Linee guida rappresentano un punto di riferimento fondamentale per i fornitori, in quanto delineano le migliori pratiche utili a supportare la conformità agli obblighi stabiliti dal DSA. Costituiscono quindi un importante benchmark per tutte le piattaforme online i cui servizi o contenuti possano essere accessibili ai minori.

Ambito di applicazione

Le Linee guida si applicano a tutte le piattaforme online (es. social network, servizi di condivisione di contenuti, piattaforme di streaming video) accessibili ai minori.

Secondo la Commissione Europea, una piattaforma è considerata accessibile ai minori non solo quando è esplicitamente rivolta a loro, ma anche ogni volta in cui il fornitore sia consapevole che alcuni utenti del servizio sono minori. In particolare, la Commissione chiarisce che una piattaforma non può essere considerata non accessibile ai minori solo in virtù di dichiarazioni contenute nei suoi termini e condizioni. In assenza di meccanismi efficaci e verificabili di verifica dell’età, il fornitore è presunto consapevole che i minori possano accedere ai suoi servizi.

Ad esempio, una piattaforma che diffonde contenuti per adulti sarà considerata accessibile ai minori se non ha implementato misure efficaci per impedirne l’accesso.

Misure principali
1. Valutazione dei rischi

La Commissione UE raccomanda ai fornitori di piattaforme online di condurre una valutazione completa dei rischi per determinare come attuare le misure previste dall’art. 28 del DSA. Tale valutazione – da eseguire periodicamente – dovrebbe identificare i potenziali rischi legati all’uso da parte dei minori e guidare la scelta delle misure di mitigazione più appropriate.

A tal fine, la Commissione incoraggia l’utilizzo di modelli esistenti per le valutazioni di impatto sui diritti dell’infanzia, come quelli dell’UNICEF o del CEN-CENELEC.

2. Meccanismi di verifica dell’età

I fornitori devono adottare meccanismi di verifica dell’età affidabili, proporzionati al livello di rischio e che tutelino la privacy degli utenti. Il metodo scelto deve basarsi su una valutazione pubblica dei rischi associati al servizio e ai contenuti.

In particolare, la Commissione raccomanda:

  • Verifica dell’età per accedere a funzionalità o contenuti ad alto rischio (es. pornografia, gioco d’azzardo, chat dal vivo, condivisione di immagini/video, messaggistica anonima). È consigliato l’uso di sistemi verificabili, idealmente basati su documenti d’identità o portafogli digitali rilasciati dal governo, che permettano la conferma dell’età senza rivelare i dati personali alla piattaforma. È suggerito l’uso di metodi double-blind, dove né la piattaforma né il verificatore possono collegare l’identità dell’utente al servizio.
  • La stima dell’età può essere utilizzata per l’accesso a contenuti a rischio più basso, solo quando la valutazione dei rischi ne giustifica l’uso.
3. Progettazione dei servizi e delle interfacce

La progettazione dei servizi online deve riflettere un elevato standard di tutela dei minori. In particolare:

  • Impostazioni predefinite orientate alla privacy: I profili dei minori devono essere automaticamente configurati con il massimo livello di protezione (es. visibilità limitata del profilo, restrizioni ai contatti non autorizzati, disattivazione di funzionalità rischiose come geolocalizzazione o profilazione comportamentale).
  • Facilità di ripristino delle impostazioni: I minori devono poter ripristinare facilmente le impostazioni predefinite e ricevere avvisi chiari quando tentano di ridurle.
  • Scelte di design dell’interfaccia: Le interfacce devono consentire ai minori di decidere facilmente come interagire con il servizio, senza pressioni. Le funzionalità AI (es. chatbot, filtri, strumenti generativi) non devono essere abilitate di default.
  • Sistemi di raccomandazione: Devono:
    • evitare l’uso di dati comportamentali esterni alla piattaforma;
    • prevenire l’esposizione ripetuta a contenuti dannosi o sensibili.
  • Prevenzione del nudging: Evitare meccanismi che spingano i minori a rivelare informazioni personali o a ridurre il proprio livello di protezione.
4. Trasparenza e moderazione

I minori devono essere protetti da contenuti dannosi e pratiche manipolative.

  • Contenuti dannosi: Devono essere evitati contenuti come:
    • pubblicità nascosta,
    • tecniche subliminali,
    • design manipolativi (es. dark patterns) che inducono a spese eccessive o uso compulsivo.
  • Moderazione dei contenuti:
    • Inclusione esplicita di rischi per la privacy e sicurezza dei minori;
    • Presenza di supervisione umana oltre all’automazione;
    • Formazione adeguata del personale;
    • Disponibilità continua degli strumenti di moderazione.
  • Uso di sistemi AI: Devono essere implementate misure tecniche per evitare la generazione o diffusione di contenuti dannosi per i minori (es. filtri per bloccare prompt rischiosi identificati nelle policy interne).
5. Supporto utenti e strumenti di segnalazione

Per una protezione efficace, devono essere presenti strumenti semplici e accessibili per i minori:

  • Meccanismi di segnalazione: Devono essere progettati in modo “child-friendly”, per consentire ai minori di segnalare contenuti o comportamenti inappropriati.
  • Feedback sui contenuti: I minori devono poter inviare osservazioni sui contenuti visti.
  • Supporto utenti: Devono essere presenti strumenti facilmente accessibili per ottenere aiuto (es. bloccare o silenziare altri utenti).
  • Strumenti per i tutori: Devono essere previsti controlli parentali che rispettino i diritti e l’autonomia dei minori (es. impostazioni predefinite, limiti di tempo, controllo delle comunicazioni, spese, attività).
6. Governance e responsabilità

I fornitori devono integrare i diritti e la protezione dei minori nelle proprie strutture organizzative:

  • Nominare una figura o team responsabile della sicurezza dei minori;
  • Fornire formazione continua al personale;
  • Documentare e pubblicare regolarmente:
    • valutazione dei rischi specifici per i minori,
    • misure adottate,
    • aggiornamenti sui metodi di verifica dell’età e strumenti di sicurezza.

Conclusioni

Le Linee guida forniscono un quadro chiaro e strutturato per migliorare la privacy, la sicurezza e la protezione dei minori online. Pur non essendo vincolanti, costituiscono un riferimento essenziale per dimostrare la conformità all’art. 28 del Digital Services Act.

Le piattaforme accessibili ai minori sono quindi incoraggiate a valutare criticamente il proprio livello di conformità, individuare eventuali miglioramenti o azioni correttive, e garantire che le misure di protezione siano adeguate ed efficaci.

(Visited 1 times, 1 visits today)
Close Search Window