Un gruppo di esperti indipendenti ha presentato la prima bozza del General-Purpose AI Code of Practice, che mira a dettagliare le regole dell’AI Act per i fornitori di modelli di IA per finalità generali e di modelli di IA per finalità generali con rischi sistemici.
Questa prima bozza del Codice affronta temi chiave per i fornitori di modelli di IA per finalità generali e per i fornitori di modelli di IA per finalità generali con rischio sistemico. Sebbene la prima bozza sia poco dettagliata, questo approccio mira a fornire alle parti interessate un chiaro orientamento sulla forma e sul contenuto del Codice finale. Le principali aree di interesse includono la trasparenza, una tassonomia dei rischi sistemici, valutazioni del rischio e rigorose strategie di mitigazione del rischio, comprendenti misure tecniche e di governance. La versione finale del Codice dovrebbe essere pronta per il 1° maggio 2025.
Trasparenza
Uno degli obiettivi principali della bozza è garantire la trasparenza nello sviluppo e nell’utilizzo dei modelli di IA. I fornitori dovranno redigere e tenere aggiornata la documentazione tecnica del modello elencata nel Codice IA (come i compiti previsti e il tipo e la natura dei sistemi di IA in cui può essere integrato, le politiche di utilizzo accettabile, l’interazione del modello con hardware o software esterni) al fine di fornirla, su richiesta, all’AI Office, alle autorità nazionali competenti e ai fornitori di sistemi di IA che intendono integrare il modello di IA per uso generale nei loro sistemi di IA. I fornitori sono inoltre incoraggiati a rendere pubblici alcuni elementi di queste informazioni per promuovere la trasparenza e la fiducia.
Con specifico riferimento alla Politica d’uso accettabile, i fornitori dovrebbero impegnarsi a condividere con i fornitori a valle tutte le informazioni necessarie relative al loro modello di IA per scopi generali per consentire ai fornitori a valle di conformarsi alle normative esistenti applicabili al task o al caso d’uso per il quale il loro sistema di IA è destinato a essere utilizzato. Il Codice fornisce anche un elenco di elementi che devono essere inclusi nella Politica d’uso accettabile, come (i) l’ambito di applicazione che definisce a chi si applica la politica e quali risorse copre; (ii) gli usi e gli utenti primari previsti; (iii) gli usi inaccettabili, specificando le azioni vietate; e (iv) le misure di sicurezza che contengono una descrizione dei protocolli di sicurezza che gli utenti dei sistemi di IA per scopi generali devono seguire.
Tassonomia dei rischi sistemici
La bozza introduce una tassonomia completa dei rischi sistemici associati ai modelli di IA per finalità generali. I fornitori si impegnano ad attingere agli elementi di questa tassonomia dei rischi sistemici come base per la loro valutazione e mitigazione del rischio sistemico.
Secondo la bozza, i firmatari dovranno considerare i seguenti rischi sistemici:
- Offese cyber: Rischi legati alle capacità informatiche offensive, come la scoperta o lo sfruttamento di vulnerabilità.
- Rischi chimici, biologici, radiologici e nucleari: Rischi legati al dual use che consentono attacchi con armi chimiche, biologiche, radiologiche e nucleari attraverso, tra l’altro, lo sviluppo, la progettazione, l’acquisizione e l’uso di armi.
- Perdita di controllo: Problemi legati all’incapacità di controllare potenti modelli autonomi di IA per scopi generali.
- Uso automatizzato dei modelli per la ricerca e lo sviluppo dell’IA: Questo potrebbe aumentare notevolmente il ritmo di sviluppo dell’IA, portando potenzialmente a sviluppi imprevedibili di modelli di IA per finalità generali con rischio sistemico.
- Persuasione e manipolazione: facilitazione della persuasione e della manipolazione su larga scala, nonché disinformazione o disinformazione su larga scala con rischi per i valori democratici e i diritti umani, come interferenze elettorali, perdita di fiducia nei media, omogeneizzazione o eccessiva semplificazione della conoscenza.
- Discriminazione su larga scala: Discriminazione illegale su larga scala di individui, comunità o società.
Nel determinare un rischio sistemico, i firmatari devono considerare anche la natura (come l’intento, la novità, la velocità con cui il rischio si concretizza) e la fonte.
Valutazione del rischio
I fornitori di modelli di IA per finalità generali sono tenuti ad adottare metodologie rigorose di valutazione del rischio per garantire l’identificazione, la valutazione e la mitigazione dei rischi sistemici durante l’intero ciclo di vita del modello. I requisiti principali includono:
- Metodologie robuste: I fornitori devono impiegare tecniche di analisi del rischio sofisticate e affidabili per identificare i potenziali percorsi attraverso i quali i modelli di IA potrebbero comportare rischi sistemici. Ciò include la stima della probabilità e della gravità di tali rischi, garantendo una gestione proattiva.
- Mappatura degli indicatori di rischio sistemico: Una parte essenziale del processo consiste nell’identificare e documentare le capacità o le tendenze dei modelli di IA che possono essere collegate a rischi sistemici. Queste fonti di rischio devono essere mappate su indicatori specifici che possono servire come segnali di allarme precoce per le minacce emergenti.
- Livelli di gravità: I rischi identificati devono essere classificati in livelli di gravità, con chiare distinzioni tra i rischi gestibili e quelli considerati intollerabili. In questo modo si garantisce che le minacce critiche vengano affrontate tempestivamente con le opportune salvaguardie.
- Previsione del rischio: I fornitori devono anche prevedere quando è probabile che si verifichino rischi sistemici, offrendo le migliori stime basate sulla traiettoria di sviluppo del modello e sull’ambiente di applicazione. Questo approccio lungimirante consente di intervenire tempestivamente per evitare che i rischi si aggravino.
Oltre a queste misure specifiche, i fornitori sono obbligati a mantenere un processo continuo di valutazione dei rischi in tutte le fasi del ciclo di vita di un modello. Ciò comporta la raccolta e l’analisi regolare di evidenze per monitorare gli indicatori di rischio e l’efficacia delle strategie di mitigazione. Le valutazioni sono necessarie prima e dopo l’implementazione delle misure di mitigazione del rischio, per garantire che le misure adottate rimangano solide e pertinenti di fronte all’evoluzione delle sfide.
Attenuazione dei rischi tecnici e di governance
La bozza sottolinea la necessità di misure sia tecniche che di governance per mitigare i rischi sistemici.
Dal punto di vista tecnico, i fornitori dovranno collegare gli indicatori di rischio sistemico a misure di sicurezza proporzionali per mantenere i rischi al di sotto di livelli intollerabili e ridurli ulteriormente. I fornitori, pertanto, dovranno mettere in atto quanto segue:
- Mitigazioni di protezione: tra cui l’adeguamento del comportamento dei modelli, la salvaguardia dei sistemi di impiego o la previsione di contromisure per mitigare i rischi sistemici.
- Mitigazioni di sicurezza: i fornitori devono proteggere i parametri e gli asset dei modelli non rilasciati durante e dopo lo sviluppo, utilizzando misure come il controllo degli accessi, il monitoraggio e il red-teaming.
- Limitazioni: I fornitori devono documentare nel loro quadro di sicurezza e protezione i limiti delle mitigazioni di sicurezza esistenti per identificare le lacune nelle misure di mitigazione.
- Valutazione dell’adeguatezza: I fornitori devono valutare regolarmente nel quadro di riferimento per la sicurezza l’efficacia dei collegamenti tra rischi e mitigazioni.
Inoltre, i fornitori devono creare rapporti dettagliati sulla sicurezza nelle principali fasi di sviluppo, documentando le valutazioni dei rischi e delle misure di mitigazione e stabilendo criteri per interrompere o continuare lo sviluppo del modello in base ai risultati dei rapporti sulla sicurezza.
Per quanto riguarda le misure di governance, i fornitori devono garantire la responsabilità per i rischi sistemici a livello esecutivo e di consiglio di amministrazione, assegnando risorse e istituendo comitati di supervisione. Inoltre, dovranno essere condotte valutazioni annuali per valutare l’aderenza al quadro di riferimento per la sicurezza e protezione e la sua rilevanza rispetto all’evoluzione dei rischi e delle pratiche.
I fornitori dovranno inoltre consentire valutazioni indipendenti dei rischi sistemici e delle misure di mitigazione durante l’intero ciclo di vita del modello. Tale valutazione indipendente dei rischi e delle mitigazioni da parte di esperti può comprendere test indipendenti delle capacità del modello, revisioni delle prove raccolte, dei rischi sistemici e dell’adeguatezza delle mitigazioni. Prima dell’implementazione, i fornitori dovranno facilitare i test e le revisioni esterne; dopo l’implementazione, i fornitori dovranno supportare le valutazioni continue per affrontare i rischi emergenti.
Infine, i fornitori devono
- stabilire processi per identificare, documentare e segnalare incidenti gravi o quasi incidenti all’AI Office e definire misure correttive;
- implementare e informare i dipendenti sui canali sicuri per la segnalazione delle violazioni, con adeguate garanzie;
- notificare all’AI Office i modelli che raggiungono le soglie di rischio sistemico, gli aggiornamenti del quadro di riferimento per la sicurezza e protezione e del report sulla sicurezza e protezione e i rischi sistemici emergenti;
- mantenere registrazioni dettagliate durante l’intero ciclo di vita del modello di IA per dimostrare la conformità agli standard di riduzione del rischio e facilitare le richieste dell’AI Office;
- pubblicare i quadri di riferimento e i rapporti sulla sicurezza e protezione, bilanciando i benefici per la società con la necessità di proteggere le informazioni sensibili.
Conclusioni
La bozza del Codice di condotta pone le basi per un quadro normativo che bilanci l’innovazione con la sicurezza e la responsabilità sociale. Le prossime consultazioni con le parti interessate perfezioneranno la bozza, integrando i feedback per creare un Codice più completo ed efficace.
La versione finale, prevista per maggio 2025, sarà uno strumento fondamentale per garantire che la diffusione di modelli di IA per finalità generiche aderisca a standard etici e legali, riducendo al minimo i rischi sistemici e promuovendo la fiducia nella tecnologia dell’IA.
Su un argomento simile può essere di interesse l’articolo “Le Big Tech e il Patto IA: il futuro della regolamentazione europea sull’IA “