Il Parlamento europeo ha raggiunto un accordo sull’AI Act che prevede norme più severe per i foundation model come ChatGPT che li distingueranno dalla intelligenza artificiale di general purpose.
L’AI Act, che mira a regolamentare l’intelligenza artificiale in base al suo potenziale di danno, inizialmente non contemplava le soluzioni di IA in grado di gestire un’ampia gamma di compiti. Tuttavia, un testo di compromesso su cui è stato raggiunto un accordo da parte del Parlamento europeo il 27 aprile 2023 suggerisce un nuovo approccio con riferimento ai sistemi di intelligenza artificiale come ChatGPT e ad applicazioni simili.
La proposta di regolamento prevede che i foundation model siano sottoposti a un’accurata valutazione del rischio prima di essere utilizzati nell’UE, valutando il potenziale del modello di causare danni e la sua capacità di essere controllato e monitorato. Le norme richiederebbero inoltre agli sviluppatori trasparenza su come sono stati sviluppati i modelli e sul loro funzionamento.
I foundation model come ChatGPT nell’ambito dell’AI Act
L’Università di Stanford definisce i foundation model e come modelli di IA addestrati su ampi dati in scala, progettati per la generalità dei risultati e adattabili a un’ampia gamma di compiti. D’altra parte, l’IA generica può essere utilizzata e adattata a un’ampia gamma di applicazioni che vanno oltre il suo progetto originale. La differenza sta nei dati di addestramento, nell’adattabilità e nei potenziali usi non previsti.
I sistemi di intelligenza artificiale generativa come ChatGPT e Stable Diffusion potrebbero rientrare nella categoria dei foundation model, in quanto vengono addestrati su una grande quantità di dati.
I legislatori dell’UE hanno proposto una serie di requisiti per i foundation model per garantire la conformità con la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo stato di diritto. I foundation model che rientrano nella categoria dell’IA generativa devono
- rispettare ulteriori obblighi di trasparenza e implementare adeguate salvaguardie contro la generazione di contenuti in violazione del diritto dell’UE;
- essere testati durante tutto il loro ciclo di vita per mantenere livelli adeguati di prestazioni, interpretabilità, correggibilità, sicurezza e cybersecurity;
- implementare un sistema di gestione della qualità, fornire i documenti pertinenti fino a 10 anni dopo il lancio del modello e registrare i modelli sul database dell’UE;
- rispettare le misure di governance dei dati, comprese quelle per esaminare la sostenibilità delle fonti di dati, le possibili distorsioni e le opportune misure di mitigazione; e
- rivelare la potenza di calcolo richiesta e il tempo di addestramento del modello.
L’Ufficio AI ha il compito di mantenere un dialogo regolare con i fornitori di foundation model in merito ai loro sforzi di conformità e di fornire indicazioni sul consumo energetico legato alla formazione di tali modelli.
Come sarà ripartita la responsabilità nella catena del valore dell’intelligenza artificiale
Il Parlamento europeo propone misure per garantire una ripartizione proporzionata delle responsabilità lungo la catena del valore dell’intelligenza artificiale per proteggere i diritti fondamentali, la salute e la sicurezza.
Un operatore a valle diventerebbe responsabile della conformità al regime più severo dell’AI Act se modifica in modo sostanziale un sistema di intelligenza artificiale che si qualifica come modello ad alto rischio. Tuttavia, il fornitore originale deve fornire tutte le informazioni e la documentazione pertinenti sulle capacità del modello di IA per supportare il processo di conformità.
I deputati chiedono alla Commissione europea di sviluppare clausole contrattuali standard non vincolanti che regolino diritti e obblighi coerenti con il livello di controllo di ciascuna parte, tenendo conto di casi aziendali specifici. Gli obblighi contrattuali ingiusti imposti alle PMI e alle start-up dovrebbero essere vietati. I fornitori di foundation model dovrebbero collaborare con gli operatori a valle per l’intero servizio o trasferire il modello di formazione con informazioni adeguate.
A seguito di tale modifica sostanziale, il 27 aprile 2023 è stato raggiunto un accordo sul testo dell’AI Act da parte del Parlamento europeo, con un’approvazione finale prevista per il mese di giugno/luglio 2023.
Sullo stesso argomento, potete leggere il podcast “Dove siamo con l’AI Act e cosa aspettarci dalle future regole sull’intelligenza artificiale“.