by

I deepfake generati dall’AI determinano significative sfide legali in materia di diritti della personalità e autenticità dei contenuti nell’industria creativa. L’industria deve quindi bilanciare l’innovazione tecnologica e la tutela dei diritti della personalità.

Il quadro giuridico in USA: il NO FAKES Act

Dopo essere stato introdotto per la prima volta nel 2023 e poi ripresentato nel 2024 senza riuscire a superare l’iter parlamentare, il disegno di legge federale NO FAKES Act – acronimo di Nurture Originals, Foster Art, and Keep Entertainment Safe – è tornato al centro del dibattito legislativo statunitense. Promosso in forma bipartisan, il provvedimento mira a istituire una disciplina uniforme per tutelare il diritto all’immagine e alla voce dei singoli individui a fronte dell’avanzata delle tecnologie di AI generativa.

La nuova versione del disegno di legge, frutto di mesi di trattative con stakeholder dei settori tech e media, si propone di arginare l’uso non autorizzato di deepfake e repliche digitali, ponendo rimedio a un panorama attualmente frammentato a livello statale, atteso che l’immagine di una persona e i diritti della personalità sono tendenzialmente disciplinati da leggi statali, mentre manca una tutela uniforme a livello federale. Il NO FAKES Act, se approvato, introdurrebbe un diritto d’azione privato a livello federale e definirebbe regole più chiare per la rimozione dei contenuti illeciti.

I punti chiave del NO FAKES Act

L’ultima versione introduce tutele giuridiche essenziali e meccanismi di enforcement:

  • Obblighi per i servizi online: Le piattaforme non saranno ritenute responsabili per l’hosting di repliche digitali illecite se rimuovono tempestivamente il contenuto a seguito di segnalazione e ne informano l’autore del caricamento. Tuttavia, sono escluse da queste protezioni le piattaforme “progettate o promosse” appositamente per creare deepfake.
  • Poteri di indagine per i titolari dei diritti: Sarà possibile ottenere, tramite provvedimento giudiziario, le informazioni identificative di utenti anonimi che abbiano caricato contenuti in violazione del diritto all’immagine.
  • Safe harbor con condizioni più stringenti: I provider potranno beneficiare di esenzioni da responsabilità solo se implementano meccanismi efficaci per rimuovere contenuti illeciti e sospendere utenti recidivi.
  • Tecnologie di fingerprinting: Le piattaforme dovranno adottare strumenti di identificazione digitale (come hash crittografici) per impedire la ri-pubblicazione di contenuti già segnalati e rimossi.
  • Definizione estesa di “servizio online”: Il campo di applicazione si allarga a motori di ricerca, reti pubblicitarie, marketplace e servizi di cloud, a patto che registrino un agente presso l’Ufficio del Copyright.
  • Sistema sanzionatorio graduato: Sono previste sanzioni da 5.000 dollari per singola violazione, fino a 750.000 dollari per contenuto, nei confronti delle piattaforme che non dimostrano sforzi di buona fede nel rispettare la normativa.
  • Nessun obbligo di monitoraggio proattivo: In linea con il DMCA, le piattaforme non avranno l’obbligo di monitorare attivamente i contenuti, ma dovranno agire prontamente in seguito a una segnalazione valida per mantenere le protezioni previste.

 

Rispetto alle versioni precedenti, la riformulazione del NO FAKES Act ha guadagnato l’appoggio di attori chiave tra cui aziende tech e operatori dell’industria dell’intrattenimento, come le major discografiche e la Recording Industry Association. Tuttavia, il disegno di legge continua a suscitare preoccupazioni da parte di gruppi a tutela delle libertà civili, che temono effetti eccessivamente restrittivi sulla libertà di espressione.

La risposta dell’Italia: la posizione dell’ANAD sui Deepfake AI

La riproposizione del NO FAKES Act si inserisce in un contesto più ampio e delicato, specialmente in un settore in cui il dibattito è più acceso che mai. A destare preoccupazione è, ad esempio, l’uso di software per la clonazione e la manipolazione vocale. Ad esempio, uno di essi è stato recentemente impiegato nel film The Brutalist per perfezionare la pronuncia ungherese dei due attori principali, manipolandone la voce.

Nello specifico, di recente l’ANAD – Associazione Nazionale Attori Doppiatori ha contestato l’uso di tecnologie capaci di campionare le voci di attori e doppiatori, quando ciò non sia fatto previo loro consenso e nel rispetto di regole precise e condivise. In particolare, è stata sottolineata la necessità di riconoscere la voce come dato biometrico, equiparabile a un’impronta digitale, per garantirne una tutela il più ampia possibile.

In Italia, l’industria del doppiaggio è da sempre molto sviluppata ed è infatti una delle prime che si è mossa anche sotto il profilo normativo. Infatti, in occasione della stesura del nuovo contratto collettivo nazionale, nel giugno 2024, è stata inserita nel una clausola volta a disciplinare gli usi – leciti o meno – delle voci degli attori da parte di sistemi di AI.

Come l’AI Act disciplina i deepfake

L’AI Act definisce un “deepfake” all’articolo 3 (60), come “un’immagine o un contenuto audio o video generato o manipolato dall’IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona;”. L’articolo 50 dell’AI Act introduce obblighi di trasparenza

  • per i Provider: i soggetti che sviluppano sistemi di IA in grado di generare contenuti sintetici (come immagini, audio o video) devono garantire che i risultati siano chiaramente contrassegnati come generati o manipolati artificialmente. Ciò comporta l’integrazione di soluzioni tecniche come filigrane, metadati o marcatori crittografici per indicare la natura artificiale del contenuto;

e

  • per i Deployer: le organizzazioni o gli individui che utilizzano tali sistemi di IA in contesti professionali sono tenuti a rivelare che il contenuto è stato generato o manipolato artificialmente. Tale indicazione deve essere chiara e fornita al più tardi al momento della prima interazione o esposizione al contenuto

Esistono eccezioni a questo obbligo di trasparenza che si applicano, tra l’altro, ai

  • contenuti artistici o satirici: se il contenuto generato dall’IA è evidentemente parte di un’opera artistica, creativa, satirica o di fantasia, l’indicazione può essere fornita in modo tale da non ostacolare il godimento o la presentazione dell’opera; e
  • uso da parte delle forze dell’ordine: i sistemi di IA autorizzati dalla legge per scopi quali l’individuazione o la prevenzione di reati possono essere esentati da determinati requisiti di trasparenza.

Sebbene i deepfake siano generalmente classificati come sistemi di IA a “rischio limitato”, la loro classificazione può passare a “alto rischio” se utilizzati in contesti che hanno un impatto significativo sui diritti delle persone o sulla società, come la manipolazione politica o la diffamazione. La classificazione ad alto rischio comporta requisiti normativi più stringenti ai sensi dell’AI Act.

Bilanciare tutele legali e innovazione

In un’epoca in cui volto e voce – soprattutto se appartenenti a personaggi noti – stanno diventando veri e propri asset digitali di grande valore economico, la loro replica attraverso l’intelligenza artificiale tocca nervi scoperti e coinvolge ambiti giuridici eterogenei: dalla privacy ai diritti della personalità, dalla diffamazione ai danni economici derivanti da un uso non autorizzato. Sarà quindi cruciale individuare un equilibrio tra creatività, innovazione e tutela dei diritti fondamentali.

Su un argomento simile può essere d’interesse l’articolo “Verso una nuova era di trasparenza: la proposta del Copied Act statunitense per la tutela dei contenuti generati dall’intelligenza artificiale (AI)

(Visited 41 times, 3 visits today)
Close Search Window