Report tecnico del Centro comune di ricerca (JRC) della Commissione europea sulla robustezza e spiegabilità dell’intelligenza artificiale

In linea con gli obiettivi fissati dalla Commissione europea recentemente insediatasi, il JRC, la cui funzione principale è quella di fornire sostegno scientifico e tecnico alla progettazione, sviluppo, attuazione e controllo delle politiche dell’Unione europea, attraverso questo report, intende contribuire al processo di regolamentazione delle tecnologie AI, proponendo un collegamento tra le legittime aspettative in termini di robustezza e spiegabilità e l’attuale panorama scientifico.

Tra i principali obiettivi perseguiti dal JCR rientrano quelli di fornire una descrizione “policy-oriented” delle attuali prospettive in materia di AI, di analizzare l’impatto futuro di queste tecnologie sulla società fotografando allo stesso modo lo stato attuale delle cose, anche in considerazione dei potenziali rischi in tema di sicurezza, cybersecurity e protezione dei dati evidenziando alcune delle soluzioni scientifiche attualmente in fase di sviluppo nella comunità AI, con lo scopo di pubblicare un elenco di raccomandazioni per l’adozione di strumenti standardizzati e di apposite certificazioni da applicare ai sistemi AI.

A parere della JRC tre sono i principi guida per una corretta diffusione dei modelli di IA: trasparenza, affidabilità e protezione dei dati. In conclusione, il JRC raccomanda l’adozione di procedure volte a valutare l’impatto effettivo dei sistemi AI sul modello DPIA (“valutazione d’impatto sulla protezione dei dati”) introdotto dalla nuova regolamentazione in materia di protezione dei dati; di adottare metodologie standardizzate volte a valutare la robustezza dei modelli di AI, con particolare riferimento ai dati utilizzati per il loro sviluppo e i modelli matematici impiegati; incrementare la consapevolezza tra gli esperti del settore circa le principali vulnerabilità dei modelli AI offrendo le soluzioni tecniche necessarie per affrontarle, ed infine promuovendo la trasparenza tramite un approccio di “explainability-by-design” soprattutto dei modelli di machine learning.