Un report sviluppato dalla Commissione europea rileva l’impatto positivo della proposta di Regolamento sull’intelligenza artificiale, approfondendo i pro e i contro del Regolamento. Un recente report, sviluppato dal gruppo DG CONNECT su incarico della Commissione europea, si propone di analizzare nel dettaglio l’impatto della proposta di un framework europeo sull’intelligenza artificiale (il Regolamento AI) pubblicato dalla Commissione il 21 Aprile. Lo studio, comprensivo di approfondimenti sui pro e i contro della nuova proposta di Regolamento europeo AI, si divide in quattro aree di interesse principali.
La prima macro-area di interesse è dedicata a una panoramica completa su rischi e benefici attuali e futuri delle tecnologie basate sull’intelligenza artificiale. Se da un lato tali soluzioni sollevano importanti prospettive di sviluppo per gli Stati Membri, l’utilizzo di strumenti di social-credit e sorveglianza sollevano considerevoli rischi per i diritti fondamentali e per la sicurezza dei cittadini europei. Proprietà inerenti ai sistemi di intelligenza artificiale come la connettività, la algorithm transparency e l’interdipendenza tra componenti sono al centro dell’attenzione nel complesso bilanciamento tra sviluppo economico, sicurezza informatica e tutela dei diritti dei cittadini. In settori strategici come la sanità, la cybersecurity assume un ruolo ancora più rilevante data la natura critica dei sistemi da gestiti con il supporto delle AI. In molti settori, inoltre, la preparazione e l’addestramento di data set accurati sarà cruciale: qualsiasi errore o bias potrebbe porre a rischio i diritti fondamentali degli interessati ed ostacolare l’operatività di interi sistemi AI-enabled.
In tal senso, la seconda area di focus fornisce una panoramica comparativa delle esperienze nazionali e dei framework emergenti in questo settore, con un’enfasi specifica sulle strategie di governance del rischio europee ed extra-europee.
La terza sezione, invece, riporta un’analisi dettagliata dei risultati della consultazione pubblica sul White Book della Commissione Europea sull’intelligenza artificiale, pubblicato a febbraio 2020. Il report sintetizza le reazioni degli stakeholders con riferimento a 18 domande a testo libero e riporta le conclusioni dei 408 position papers presentati in ragione della consultazione. Dai position paper emerge come il punto di maggiore criticità del framework sia relativo alla definizione di tecnologie AI “ad alto rischio”. Molti intervistati ritengono che la definizione di alto rischio sia ambigua o migliorabile attraverso l’introduzione di un sistema di misurazione multi-livello. Inoltre, alcuni feedback redarguiscono la Commissione europea per aver adottato una formulazione eccessivamente restrittiva. Per quanto riguarda i costi di compliance attesi, circa l’84% dei position papers non ritiene costituiscano una criticità per le imprese.
Da ultimo, la quarta area di interesse è dedicata alla valutazione dei costi di compliance che potrebbero essere generati dall’adozione del quadro normativo sull’intelligenza artificiale. Sulla base di interviste di esperti ed indagini di mercato, il report si sofferma sugli gli oneri amministrativi e sulle spese “vive” che gli attori interessati sarebbero chiamati a sostenere per assicurare la conformità delle nuove tecnologie agli standard europei. Nello stimare i costi di compliance, il report prende in considerazione i margini temporali ed i costi di implementazione indotti dai requisiti fissati dal Regolamento. Secondo l’analisi, il costo di compliance per l’industria globale dell’IA è stimato da 1,6 miliardi di euro a 3,3 miliardi di euro nel 2025, assumendo che solo il 10% delle unità AI unità saranno soggette a stringenti requisiti normativi (i.e, le AI “ad alto rischio”). La seconda parte della valutazione dei costi si concentra, invece, sui processi di certificazione. Secondo quanto riportato, l’ottenimento di certificazioni per prodotti AI-enabled costerebbe tra i 16.800 ed i 23.000 euro, circa il 10-14% dei costi di sviluppo inerenti. Tuttavia, le stime riportate risentono della difficoltà di razionalizzare l’ecosistema AI e le relative catene di approvvigionamento: una delle sfide più importanti legate all’implementazione del nuovo quadro normativo.
Da ultimo, anche il Garante europeo della protezione dei dati ha espresso il suo sostegno per la proposta della Commissione europea, ribadendo la necessità di vietare quanto prima l’uso di sistemi di identificazione biometrica a distanza nelle aree pubbliche a livello europeo.
Su un argomento simile può essere interessante l’articolo “Commissione europea: pubblicata la Proposta di Regolamento sull’intelligenza artificiale”.