Il 3 marzo 2026 è stata pubblicata la seconda bozza del codice di buone pratiche (“code of practice“) sulla marcatura e l’etichettatura dei contenuti generati dall’AI (il “Codice“), elaborata sotto il coordinamento dell’AI Office attraverso due gruppi di lavoro dedicati, rispettivamente, agli obblighi per provider e deployer previsti dall’art. 50 AI Act.
L’art. 50 AI Act introduce obblighi di trasparenza mirati per i sistemi che generano o manipolano contenuti audio, visivi, audiovisivi o testuali. Tali obblighi si articolano lungo l’intera catena del valore: da un lato i fornitori (provider) sono chiamati a garantire che i contenuti siano tecnicamente marcati e rilevabili come artificiali; dall’altro i deployer sono responsabili della disclosure verso il pubblico nei casi di deepfake e di testi generati per informare su questioni di interesse pubblico.
I codici di buone pratiche assumono qui una funzione essenziale: non sostituiscono la norma primaria, ma ne facilitano l’applicazione, offrendo un quadro di riferimento condiviso per dimostrare la conformità agli obblighi del Regolamento. L’adesione, senza comportare una presunzione assoluta di compliance, costituisce un elemento rilevante nel dialogo con le autorità di sorveglianza e nella costruzione di percorsi credibili di accountability.
- Finalità e struttura del Codice
Il Code distingue con chiarezza tra responsabilità di fornitori/provider e deployer.
Per i providers di sistemi di AI generativa, l’attenzione si concentra su:
- marking machine-readable dei contenuti, mediante watermark impercettibili, metadati e, ove necessario, meccanismi di fingerprinting o logging;
- detection, attraverso interfacce o detector accessibili anche a terzi, capaci di verificare l’origine artificiale del contenuto;
- tracciabilità della provenance chain, ossia della sequenza di interventi umani e artificiali sul contenuto.
Per i deployers, il punto principale è il labelling dei contenuti, per assicurare trasparenza verso il pubblico, attraverso:
- l’applicazione di un’icona o di un disclaimer per segnalare deepfake e testi AI-generated di interesse pubblico;
- attenzione specifica a contesti particolari, come opere artistiche, satiriche o di finzione, dove la trasparenza deve essere garantita senza compromettere la fruizione dell’opera;
Rispetto alla prima bozza, è stata rimossa la tassonomia strutturata per distinguere contenuti pienamente AI-generated e contenuti AI-assisted, preferendo un approccio più flessibile.
Nel caso in cui un contenuto generato o manipolato tramite intelligenza artificiale sia sottoposto a controllo editoriale prima della pubblicazione, l’obbligo di segnalare esplicitamente l’origine artificiale può non applicarsi. Per poter beneficiare di questa eccezione, l’organizzazione che pubblica il contenuto deve dimostrare l’esistenza di procedure di revisione editoriale e indicare chiaramente il soggetto che assume la responsabilità editoriale della pubblicazione, assicurando così accountability e tracciabilità.
- Scadenze e implicazioni operative
Il Codice non è vincolante, ma l’adesione alle sue misure può costituire un importante strumento per dimostrare la conformità, facilitando il rapporto con le autorità di vigilanza e riducendo l’incertezza interpretativa.
La consultazione pubblica sulla seconda bozza si è chiusa il 30 marzo 2026, lasciando alle commissioni competenti e all’AI Office le prossime settimane per lavorare sulla versione finale del Codice. La pubblicazione della versione definitiva è attesa per inizio Giugno, giusto in tempo per prepararsi alla data di applicazione dell’art. 50 che – salvo rinvii approvati con la Digital Omnibus on AI – è prevista per il 2 agosto 2026.
In attesa di ottenere indicazioni più chiare con la pubblicazione della versione definitiva del Codice, le aziende devono avviare una mappatura capillare dell’utilizzo di sistemi di AI generativa all’interno dei propri flussi di lavoro, identificando quali contenuti siano destinati al pubblico e quali siano soggetti a forme di controllo editoriale. Parallelamente, è fondamentale redigere o aggiornare le proprie AI policy interne, stabilendo protocolli chiari per l’etichettatura preventiva e la documentazione dei processi di revisione umana, così da garantire una transizione fluida verso la piena conformità con i nuovi standard europei di trasparenza.
Autrice: Marianna Riedo

