by

La scorsa settimana ha segnato un momento cruciale nella storia della digitalizzazione: il Parlamento dell’UE ha raggiunto un accordo sulla prima legislazione al mondo sull’intelligenza artificiale, l’AI Act.

La nuova legislazione mira a regolamentare l’IA in base al suo potenziale di danno e include regole più severe per i foundation model come ChatGPT per prevenire la manipolazione intenzionale dei contenuti e l’uso di software di riconoscimento delle emozioni in alcuni settori. L’AI Act comunitario delinea i principi generali per tutti i modelli di intelligenza artificiale, tra cui la necessità di una supervisione umana, la solidità tecnica e la sicurezza, la tutela della privacy e la governance dei dati, la trasparenza, il benessere sociale e ambientale, la diversità, la non discriminazione e l’equità.

Tuttavia, se l’approccio rigoroso dell’UE delineato nella versione dell’AI Act su cui si è raggiunto un accordo non sarà seguito da altre giurisdizioni come gli Stati Uniti e la Cina, la legge potrebbe rallentare l’innovazione all’interno dell’Unione europea.

Inoltre, la disposizione adottata per affrontare il potenziale uso di materiale protetto da copyright da parte dei sistemi di IA ha sollevato alcune preoccupazioni. Le aziende che utilizzano strumenti di intelligenza artificiale generativa devono divulgare qualsiasi materiale protetto dal diritto d’autore utilizzato per sviluppare i loro sistemi, ma una disposizione più chiara in materia sarebbe stata utile. Ad esempio, la direttiva comunitaria sul copyright prevede già l’eccezione per il text and data mining (TDM), e un riferimento incrociato a questo nell’AI Act avrebbe eliminato ogni possibile interpretazione errata della portata dell’eccezione.

Inoltre, l’attuale versione dell’AI Act non affronta le questioni relative alla conformità alla normativa privacy sollevate dal Garante per la protezione dei dati personali nel suo provvedimento contro Open AI su ChatGPT. Sebbene Open AI si sia poi conformata alle richieste del Garante e ChatGPT sia di nuovo attivo in Italia, le aziende che sviluppano e sfruttano l’intelligenza artificiale rischiano di trovarsi di fronte a forti ostacoli, con le autorità privacy europee che potrebbero esprimere posizioni incoerenti sui requisiti di conformità. In questo senso, si spera che la task force dell’EDPB sulla ChatGPT garantisca un certo livello di coerenza.

Nel complesso, l’accordo provvisorio del Parlamento europeo sull’AI Act è una buona notizia, in quanto creerà maggiore certezza giuridica in un settore che è stato spesso soggetto a posizioni contraddittorie ed eccessivamente protezionistiche. Le aziende che intendono incorporare l’IA nella loro operatività e nei loro servizi ai clienti dovranno già tenerne conto per garantire che la loro strategia sull’intelligenza artificiale sia a prova di futuro. Questa valutazione dovrebbe essere fatta insieme all’analisi dell’impatto delle norme sulla proprietà intellettuale, sulla privacy e sulla cybersecurity, nonché degli standard tecnici come le ISO, che le autorità di regolamentazione spesso utilizzano per definire i requisiti di conformità.

Le aziende non possono quindi permettersi di perdere il treno dell’intelligenza artificiale, ma devono prepararsi alle normative e alle potenziali sfide che le attendono.

Su un simile argomento, il seguente articolo può essere di interesse “ChatGPT avrà regole più severe ai sensi dell’AI Act come foundation model“.

(Visited 210 times, 1 visits today)
Close Search Window