by

La legge italiana sull’AI, approvata definitivamente il 17 settembre 2025 ed entrata in vigore il 10 ottobre 2025, introduce un nuovo reato volto a sanzionare la pubblicazione e la diffusione di deep fake. 

Deepfake: definizione e rischi 

Con “deepfake” si intende, secondo la definizione dell’AI Act, “un’immagine o un contenuto audio o video generato o manipolato dall’IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona“.

La rilevanza sociale e, oggi, penale dei deepfake nasce da molteplici fattori. Una ragione è tecnica: è sempre più difficile – se non impossibile – distinguere un’immagine reale da una generata artificialmente. Altre ragioni derivano dai contesti di utilizzo: molto spesso, infatti, i deepfake vengono impiegati per creare i cosiddetti deep nude, ossia immagini sessualmente esplicite in cui l’AI rimuove artificialmente gli indumenti di una persona, senza che questa abbia acconsentito.

I deepfake a contenuto pornografico sono emersi su Internet intorno al 2018, in particolare su Reddit, e nel tempo sono stati rimossi da molti siti. Inizialmente hanno coinvolto soprattutto personaggi famosi, ma oggi l’uso di tali contenuti si è diffuso in maniera sempre più ampia.

Dal punto di vista normativo, l’AI Act prevede che i deployer di sistemi AI informino quando un contenuto audiovisivo è generato o manipolato artificialmente. La nuova legge italiana, invece, si concentra su chi effettivamente diffonde tali contenuti, sanzionandone la pubblicazione senza consenso.

Il nuovo reato di diffusione illecita di contenuti AI 

La legge sull’AI introduce, all’art. 612-quater c.p., il reato di “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”.

La norma punisce la pubblicazione, la cessione e la diffusione di “immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità” quando (i) tale condivisione cagiona un danno ingiusto alla persona offesa e (ii) il contenuto viene diffuso senza il consenso di questa.

Il delitto è punito con la reclusione da uno a cinque anni ed è procedibile a querela della persona offesa, tranne nel caso in cui il fatto(a) sia connesso con altro delitto per il quale si deve procedere d’ufficio ovvero(b) sia commesso nei confronti di persona incapace per età o per infermità, o (c) di una pubblica autorità a causa delle funzioni esercitate»: in tali casi si procede d’ufficio.

Responsabilità e conseguenze pratiche 

Il fenomeno dei deepfake si colloca all’incrocio tra diversi ambiti del diritto.

La diffusione di contenuti manipolati può infatti costituire, contemporaneamente, una violazione del diritto all’immagine e della privacy, un illecito diffamatorio, e al ricorrerei dei requisiti appena menzionati, il nuovo reato ex art. 612-quater c.p.

Le vittime, inoltre, subiscono spesso danni economici e reputazionali gravi e duraturi, legati alla perdita di controllo sulla propria identità digitale.

Al contempo, le conseguenze pratiche sono (e saranno sempre più) rilevanti anche per le imprese e per le piattaforme online, chiamate a implementare sistemi di monitoraggio e segnalazione più rigorosi (ad esempio grazie all’introduzione del Digital Services Act).

Conclusioni 

Sebbene la nuova fattispecie rappresenti un passo in avanti nella tutela delle vittime, sono state sollevate diverse questioni interpretative e applicative, a partire dal fatto che la punibilità richiede che la diffusione abbia effettivamente causato un “danno ingiusto”, lasciando escluse le ipotesi in cui il pregiudizio sia solo potenziale. Inoltre, sarà necessario osservare come il requisito per cui le immagini devono essere “idonee a indurre in inganno sulla loro genuinità” verrà interpretato dalla giurisprudenza.

La nuova incriminazione segna quindi un passo significativo verso l’adattamento del diritto penale all’era dell’intelligenza artificiale, ma resta solo uno degli strumenti necessari per affrontare un fenomeno complesso come quello dei deepfake.

È fondamentale che autorità, imprese tecnologiche e forze dell’ordine collaborino per sviluppare soluzioni tecniche, regolamentari ed etiche capaci di prevenire gli abusi e garantire una tutela effettiva dei diritti delle persone.

(Visited 1 times, 1 visits today)
Close Search Window