by

La conoscenza della legge sull’IA è al centro dell’ultimo aggiornamento normativo, poiché la Commissione europea ha pubblicato una serie di domande e risposte che chiariscono i requisiti di conoscenza previsti dall’articolo 4 dell’AI Act, già applicabili dal 2 febbraio 2025.

Queste nuove linee guida confermano ciò che i professionisti del settore legale e della conformità sospettavano: soddisfare gli obblighi dell’AI Act significa andare ben oltre i moduli di formazione generici e richiede un approccio strutturato e basato sul rischio alla governance dell’uso dell’AI all’interno delle organizzazioni.

I punti chiave delle domande e risposte sull’alfabetizzazione sull’AI Act

Le FAQ illustrano in dettaglio come le organizzazioni devono affrontare la competenza in materia di AI. Non è più sufficiente organizzare una sessione di sensibilizzazione annuale. L’AI Act richiede invece iniziative personalizzate e continue che riflettano le responsabilità e i rischi reali associati a ciascun ruolo che interagisce con i sistemi di AI.

Ecco cosa sottolinea la Commissione europea:

1️ Competenza in materia di AI significa capacità, non solo consapevolezza. Il personale deve comprendere, utilizzare e valutare i sistemi di IA in modo responsabile, compresi i loro limiti e i potenziali danni.

2️ La formazione deve essere specifica per ogni ruolo. Sviluppatori, utenti e deployer richiedono livelli e tipi di formazione sull’AI diversi, in linea con le loro responsabilità tecniche e aziendali.

3️ L’alfabetizzazione sull’IA si applica agli attori esterni, compresi i fornitori di servizi e gli appaltatori terzi, non solo ai team interni.

4️ L’obbligo di cui all’articolo 4 si applica anche in scenari di AI non ad alto rischio se il sistema incide sui diritti, sulla sicurezza o sui servizi essenziali delle persone.

5️ Le organizzazioni devono valutare le conoscenze, le responsabilità e l’esposizione al rischio, non limitarsi a fornire un corso standardizzato.

Conoscenza dell’AI Act significa governance, non solo conformità

Le FAQ lo chiariscono: la conoscenza dell’AI Act è un pilastro della governance dell’AI, non un’iniziativa a sé stante. Per conformarsi, le organizzazioni devono integrare la conoscenza in un modello organizzativo più ampio, che include:

  • Regole di governance interna per la progettazione, l’implementazione e la supervisione dei sistemi di AI
  • Politiche e procedure allineate alla classificazione dei rischi dell’AI Act (ad esempio, rischio minimo, limitato, elevato)
  • Processi di miglioramento continuo che garantiscano che i sistemi rimangano spiegabili, trasparenti e allineati agli standard etici e legali

In altre parole, la formazione è solo il punto di partenza. Le organizzazioni devono creare una cultura della responsabilità e dell’uso informato dell’AI, coinvolgendo tutte le parti interessate nel ciclo di vita dell’AI.

Perché la conoscenza dell’AI Act dovrebbe essere una priorità ora

La pubblicazione delle FAQ invia un messaggio forte: la conoscenza dell’AI Act non è una casella da spuntare, ma un requisito legale con conseguenze operative concrete. Le autorità di regolamentazione si aspettano evidenza di una formazione strutturata, chiarezza su chi è stato formato e in che modo, nonché politiche documentate che garantiscano che la conoscenza faccia parte del quadro di gestione dei rischi dell’AI dell’organizzazione.

Per rispondere in modo efficace, le aziende dovrebbero:

  • Condurre una valutazione della conoscenza e dei rischi in tutte le funzioni relative all’AI
  • Sviluppare piani di formazione specifici per ruolo supportati dalla leadership legale, di conformità e tecnica
  • Istituire una funzione di supervisione centrale (come un Chief AI Officer o un AI Compliance Officer) per gestire gli sforzi di alfabetizzazione e governance

Considerazioni finali

La conoscenza dell’AI Act è più di una parola d’ordine normativa: è un invito all’azione per le organizzazioni in tutta l’UE e oltre. Con le FAQ della Commissione europea ora disponibili, le aziende devono ripensare il modo in cui formano, governano e gestiscono i loro sistemi di AI.

Il mancato inserimento dell’alfabetizzazione sull’AI in un modello di governance strutturato non solo espone le organizzazioni al rischio di non conformità, ma potrebbe anche causare danni alla loro reputazione, sfiducia da parte degli utenti e inefficienze operative. Leggi questo articolo per conoscere le nostre raccomandazioni su come strutturare la governance dell’AI “La vostra organizzazione ha implementato un modello di governance dell’AI?“.

Sull’argomento, potresti trovare interessante anche il nostro AI Law Journal, clicca QUI per vedere gli ultimi numeri.

(Visited 1 times, 1 visits today)
Close Search Window