Il 26 marzo 2026, la Commissione europea ha avviato un’indagine nei confronti di Snapchat in relazione a possibili criticità connesse all’utilizzo della piattaforma da parte di minori. Tali profili potrebbero configurare una violazione del Digital Services Act (DSA), che impone ai fornitori di piattaforme online accessibili ai minori di adottare misure adeguate e proporzionate per garantire un elevato livello di tutela della vita privata, sicurezza e protezione dei minori.
L’indagine della Commissione si concentra su cinque aree principali:
- Verifica dell’età: La condotta di Snapchat consistente nel fare affidamento sulla mera autodichiarazione dell’età da parte degli utenti potrebbe essere ritenuta insufficiente, in quanto tale sistema potrebbe non impedire l’accesso agli utenti under 13 né consentire un’adeguata verifica dell’età.
- Grooming e reclutamento di minori: La piattaforma potrebbe non proteggere adeguatamente i minori da contatti dannosi, ad esempio a fini di sfruttamento sessuale o di reclutamento in attività criminali. In particolare, utenti adulti potrebbero fingersi minori, aumentando i rischi per i più giovani.
- Impostazioni predefinite inadeguate: Le impostazioni di default potrebbero non garantire un livello sufficiente di privacy e sicurezza per i minori. Alcune funzionalità risultano attive automaticamente, senza adeguate indicazioni su come gestirle.
- Diffusione di informazioni su prodotti vietati: Gli strumenti di moderazione utilizzati da Snapchat potrebbero non essere efficaci nel limitare la diffusione di informazioni relative a prodotti illegali o vietati ai minori, come droghe, sigarette elettroniche o alcolici.
- Segnalazione di contenuti illegali: I sistemi di segnalazione potrebbero non essere facilmente accessibili o user-friendly e potrebbero includere cosiddetti dark patterns nel loro design. Inoltre, gli utenti potrebbero non essere adeguatamente informati sui meccanismi di ricorso disponibili.
Tale indagine si inserisce in un contesto più ampio, nel quale emerge un crescente focus della Commissione sull’enforcement del DSA a tutela dei minori. Nella stessa data del 26 marzo 2026, la Commissione ha infatti preliminarmente riscontrato che diverse piattaforme di condivisione di contenuti pornografici potrebbero essere in violazione del DSA per aver consentito l’accesso ai propri servizi da parte di minori.
Le possibili violazioni deriverebbero, da un lato, dall’inadeguatezza delle valutazioni dei rischi, in quanto tali piattaforme potrebbero non aver identificato e valutato correttamente i rischi per i minori. Dall’altro lato, esse potrebbero non aver implementato misure efficaci per impedire l’accesso ai minori, non garantendo così un’adeguata tutela dei loro diritti e del loro benessere.
In tale contesto, la Commissione ha ribadito che l’autodichiarazione dell’età non costituisce una misura efficace, mentre risulta necessario adottare sistemi di verifica dell’età adeguati, conformemente alle Linee guida sulla protezione dei minori ai sensi del DSA pubblicate nel 2025.
Le Linee guida individuano tre principali categorie di strumenti di accertamento dell’età utilizzati dalle piattaforme online:
- Autodichiarazione: metodi che richiedono agli utenti di dichiarare la propria età o fascia di età;
- Stima dell’età: metodi che consentono al fornitore di stimare l’età dell’utente o la sua appartenenza a una determinata fascia;
- Verifica dell’età: sistemi basati su documenti o fonti di identificazione verificata, che offrono un elevato grado di certezza.
In particolare, secondo le Linee guida, la verifica dell’età rappresenta una misura adeguata e proporzionata soprattutto quando i servizi presentano rischi elevati per i minori e tali rischi non possono essere mitigati con strumenti meno invasivi. Rientrano in tali categorie, ad esempio, servizi relativi a contenuti pornografici, gioco d’azzardo, alcol, tabacco, prodotti contenenti nicotina e droghe.
I fornitori di tali servizi, anche in assenza di specifici obblighi nazionali, dovrebbero pertanto assicurare l’adozione di misure efficaci di verifica dell’età minima degli utenti, nonché, più in generale, svolgere una valutazione approfondita dei rischi che le proprie piattaforme possono comportare per i minori e individuare adeguate misure di salvaguardia per mitigarli. Tali attività risultano fondamentali sia per garantire un’effettiva tutela dei minori online, sempre più esposti a contenuti dannosi, sia alla luce del fatto che questo profilo sembra costituire una priorità crescente nell’azione di enforcement della Commissione europea.
Per un’analisi più approfondita sui contenuti del DSA, si suggerisce la lettura del seguente articolo “Digital Services Act (DSA): In vigore gli Obblighi per le Grandi Piattaforme Online“

