La crescita dei sistemi di intelligenza artificiale generativa ha indotto i legislatori dell’UE a concentrarsi sulla General Purpose Artificial Intelligence, come i sistemi di AI generativa quali ChatGPT, nella stesura dell’AI Act, che definirà il quadro che regola l’intelligenza artificiale nell’Unione europea.
Come riportato in precedenza, il Parlamento dell’UE ha già ampliato la definizione di intelligenza artificiale ai fini della legge sull’IA per includere i sistemi di IA generativa come ChatGPT e Stable Diffusion. Ora si sta lavorando a disposizioni specifiche della legge sull’IA che riguarderanno l’intelligenza artificiale per “General Purpose” (GPAI), che comprende i modelli linguistici di grandi dimensioni di cui sopra che possono essere adattati a vari compiti.
Per affrontare la questione, gli uffici dei correlatori del Parlamento europeo hanno proposto una serie di obblighi per i fornitori di GPAI e di responsabilità per i diversi attori economici coinvolti. La legislazione proposta prevede che i fornitori di GPAI si conformino a requisiti specifici inizialmente previsti per le soluzioni di IA che hanno maggiori probabilità di causare danni significativi.
Tali obblighi per i fornitori di GPAI includono
- garantire che la progettazione, i test e l’analisi delle soluzioni GPAI siano in linea con i requisiti di gestione del rischio previsti dal regolamento per proteggere la sicurezza delle persone, i diritti fondamentali e i valori dell’UE;
- seguire misure appropriate di governance dei dati quando si tratta di insiemi di dati che alimentano questi modelli linguistici di grandi dimensioni. Ciò include la valutazione della loro rilevanza, idoneità e potenziali distorsioni, l’identificazione di possibili carenze e l’implementazione delle relative misure di mitigazione;
- durante tutto il ciclo di vita del sistema di intelligenza artificiale, condorre audit esterni per verificarne le prestazioni, la prevedibilità, l’interpretabilità, la correggibilità, la sicurezza e la cybersecurity, in linea con i requisiti più severi dell’AI Act;
- conformarsi a linee guida per misurare e confrontare gli aspetti di conformità dei sistemi di IA, comprese le GPAI, che saranno sviluppate dalle autorità europee e dall’Ufficio IA con partner internazionali;
- nel caso di modelli di IA che generano testi basati su richieste umane che potrebbero essere scambiati per contenuti autentici prodotti dall’uomo, rispettare gli stessi obblighi di governance dei dati e di trasparenza dei sistemi ad alto rischio, a meno che qualcuno non sia legalmente responsabile del testo; e
- registrare il modello di intelligenza artificiale nella banca dati dell’UE, rispettando i requisiti di gestione della qualità e di documentazione tecnica dei fornitori di IA ad alto rischio e seguendo la stessa procedura di valutazione della conformità.
Inoltre, qualsiasi distributore, importatore o implementatore di IA che modifichi in modo sostanziale un sistema di IA, compreso un sistema GPAI, è qualificato come fornitore di un sistema ad alto rischio con i relativi obblighi.
Tuttavia, i legislatori dell’UE hanno anche proposto di introdurre un nuovo articolo che impedisce a tutti i fornitori di imporre unilateralmente termini contrattuali iniqui alle piccole e medie imprese (PMI) per l’utilizzo o l’integrazione di strumenti in un sistema ad alto rischio. Hanno inoltre ampliato l’elenco dei compiti dell’Ufficio per l’IA, includendo l’emanazione di linee guida su come il regolamento sull’IA si applicherebbe alle catene di valore dell’IA in rapida evoluzione e sulle relative implicazioni in termini di responsabilità.
Sebbene gli obblighi proposti per i fornitori di GPAI e le responsabilità per i diversi attori economici coinvolti siano parte dello sforzo dell’UE di regolamentare lo sviluppo e l’uso dell’IA in modo responsabile ed etico, si teme che il regime stabilito sia eccessivamente oneroso per tecnologie come le ChatGPT, che saranno al centro dell’innovazione nei prossimi anni. Se gli obblighi normativi diventano inaccessibili, il lancio di sistemi di IA nell’UE potrebbe essere impedito o notevolmente ritardato. Inoltre, dato il ritmo dell’evoluzione dell’intelligenza artificiale, i legislatori dell’UE rischiano di approvare una legge sull’IA che sarà già obsoleta.
Su un tema simile, potreste trovare interessante il seguente articolo: “Il Parlamento europeo amplia la definizione di intelligenza artificiale ai sensi dell’AI Act“.