L’europarlamento chiede maggiori tutele per i consumatori in materia di intelligenza artificiale e processi decisionali automatizzati

In vista della presentazione da parte della Commissione europea delle nuove regole per l’economia digitale il 19 febbraio di quest’anno, il Parlamento europeo ha adottato una risoluzione non legislativa volta ad affrontare gli aspetti più rilevanti e le principali sfide poste dall’utilizzo delle nuove tecnologie di intelligenza artificiale e dai processi decisionali automatizzati, mettendo in particolare luce gli aspetti relativi alla protezione dei consumatori.

Tra i principi affermati nella risoluzione, di centrale rilevanza per l’organo legislativo europeo risulta la riconducibilità della responsabilità finale delle decisioni prese in ambito di servizi professionali, come le professioni mediche, forensi, contabili e bancarie sempre in capo agli essere umani. A tal proposito gli eurodeputati sostengono l’importanza di utilizzare solo dati di alta qualità e algoritmi imparziali creando apposite strutture di revisione volte a rimediare ai possibili errori causati dalle decisioni automatizzate.

La risoluzione chiede inoltre il riconoscimento di una serie di diritti per proteggere i consumatori che si interfacciano con tecnologie di intelligenza artificiale e con processi decisionali automatizzati, come ad esempio assistenti virtuali e chatbot, tra i quali il diritto ad essere adeguatamente informati su come contattare un essere umano dotato di potere decisionale e le modalità attraverso cui le decisioni automatizzate possono essere revisionate ed eventualmente corrette.

Infine i deputati, tramite la proposta, chiedono alla Commissione di formulare delle proposte volte ad affrontare il tema della sicurezza dei prodotti in chiave di responsabilizzazione dei produttori, da un lato, e di tutela dei consumatori, dall’altro. In particolare viene suggerito di rivedere i concetti di “prodotto”, “danno” e “difetto” stabiliti dalla direttiva sulla responsabilità per danno da prodotti difettosi adottata ormai 30 anni fa.

Riconoscimento facciale e intelligenza artificiale: l’UE pensa ad un divieto

La Commissione europea ha iniziato ad osservare da vicino gli sviluppi, le novità e i rischi connessi all’uso dell’intelligenza artificiale (“AI”) con la pubblicazione del White Paper on artificial intelligence, un documento analitico che traccia le possibili evoluzioni legislative dell’Unione europea in tema di AI. Margrethe Vestager, Executive Vice President della Commissione UE e commissaria per la politica digitale europea e per la concorrenza, dovrebbe presentare tale documento all’attenzione della neo-eletta presidente della Commissione, Ursula von der Leyen, durante una seduta prevista per la metà di febbraio.

Nell’auspicare la creazione di un quadro normativo sull’AI idoneo a disciplinare adeguatamente gli obblighi in capo tanto agli sviluppatori quanto agli utilizzatori, la Commissione sta valutando, tra le altre, l’introduzione di una misura volta a vietare l’uso della facial recognition. In particolare, tale divieto proibirebbe a soggetti privati o pubblici l’uso di tale tecnologia limitatamente agli spazi pubblici o comunque aperti al pubblico e soltanto per un periodo determinato (che oscilla dai 3 ai 5 anni), durante il quale il legislatore europeo si prefigge l’obiettivo di identificare e sviluppare una metodologia strutturata per valutarne gli impatti, in modo da determinare le possibili misure legate alla gestione del rischio della stessa.

Ad opinione della Commissione, tale divieto sarebbe necessario a salvaguardare i diritti degli interessati, in particolare contro ogni potenziale abuso di una tecnologia per sua natura invasiva. Tuttavia, si specifica anche che un tale divieto sarebbe comunque necessariamente accompagnato dalla previsione di alcune eccezioni (in particolare per le attività nel contesto della ricerca e dello sviluppo, ovvero a fini di sicurezza).

La portata di una simile misura, per quanto attenuata, è comunque talmente ampia da arrivare ad ostacolare lo sviluppo e l’uso di questa tecnologia. Pertanto, in maniera cautelativa, almeno in questa fase di assestamento rispetto alla futura emanazione di un framework legislativo in materia di AI, la Commissione ritiene preferibile concentrarsi sulla piena attuazione delle disposizioni del GDPR e far leva sui principi stabiliti in tale sede. In un secondo momento, l’organo europeo si riserverà di valutare l’opportunità di adottare diversi orientamenti per facilitare tale attuazione nonché per consentire un corretto utilizzo di tecnologie invasive, quali il riconoscimento facciale, in modo da garantire il rispetto dei principi generali che regolano il trattamento di dati personali in UE.

Commissione UE, pubblicato il White Paper on artificial intelligence

La recente pubblicazione del White Paper on artificial intelligence da parte della Commissione Europea fornisce un interessante spaccato sul programma seguito dall’Unione Europea per la futura regolamentazione dell’intelligenza artificiale (“AI”). Tale documento cavalca l’onda di una copiosa attività da parte di Stati Membri e organismi internazionali, volta a rispondere alla crescita esponenziale dell’utilizzo dell’AI e si concentra in particolare sulle implicazioni dell’AI sui diritti fondamentali dell’individuo, sia perché tali sistemi assumono decisioni autonome, sia perché sostituiscono ruoli potenzialmente svolti dagli esseri umani.

Il documento traccia, da un lato, il framework legislativo esistente in UE, prospettando, dall’altro, una futura legislazione in materia di AI. Tuttavia, la forma che la regolamentazione potrebbe assumere non è definita e il paper propone una serie di modelli che vanno da sistemi meno stringenti, fino a regolamentazioni basate sul rischio, cercando, specialmente nei settori ad alto rischio (e.g., sanità), un equilibrio tra l’uso di AI e il potenziale di impatto di tale tecnologia sui diritti degli interessati.

Inoltre, il paper, evidenziando come gli investimenti in materia di AI da parte dell’UE continueranno a crescere, fornisce una definizione di AI e sottolinea anche gli obblighi da implementare ex ante, quali: (i) necessità di trasparenza da parte degli sviluppatori, inclusa la divulgazione dei parametri di progettazione (con evidenti criticità per i profili IP), nonché (ii) trasparenza per gli utenti e consumatori sui processi AI e potenziali risultati e (iii) definizione di requisiti minimi di sicurezza, di qualità e diversità dei dati utilizzati per la creazione dei sistemi di AI. Si aggiungono inoltre misure ex post, quali obblighi di responsabilità per danni provocati da sistemi basati sull’AI, garantendo al contempo mezzi di ricorso effettivo. In definitiva, si ribadisce la necessità della supervisione e revisione umana delle decisioni prese da un sistema di AI, anche per eliminare la discriminazione.

In relazione ai profili privacy, il Consiglio dell’UE già da tempo si interrogava su come il GDPR si sarebbe applicato alle nuove tecnologie, visto il suo carattere “technologically neautral”, con principi generali abbastanza malleabili da poter essere costantemente ricalibrati rispetto ad esigenze impreviste al momento della relativa entrata in vigore. L’approccio seguito nel paper indica contemporaneamente che l’applicazione del GDPR è pertinente con l’uso di AI, sia per fase di sviluppo, sia per quella di utilizzo, ma sarà comunque necessario integrarlo con una regolamentazione specifica per l’AI.

Le ragioni dell’EPO per cui un’intelligenza artificiale non possa essere designata come “inventore”

L’Ufficio europeo dei brevetti (“EPO”) ha pubblicato in data 29 gennaio 2020 le ragioni a sostegno della sua decisione di rigettare le domande di brevetto europeo, presentate nell’autunno del 2018, in cui una tecnologia di intelligenza artificiale nominata “DOBUS” veniva designata come inventore. Le domande riguardavano rispettivamente un “contenitore per alimenti” e dei “dispositivi e metodi per attirare l’attenzione”. In entrambe le domande il richiedente riteneva di aver acquistato il diritto al brevetto europeo dall’inventore, sostenendo che, in quanto proprietario della macchina, tutti i diritti di proprietà intellettuale creati da quest’ultima gli fossero stati ceduti.

L’EPO ha ritenuto che sulla base della normativa europea in materia brevettuale, l’inventore designato in un brevetto europeo non possa che essere una persona fisica. Tale interpretazione sarebbe supportata da varie ragioni. In particolare, la qualifica di inventore attribuirebbe una serie di diritti i quali potrebbero essere esercitati solamente da un soggetto titolare di apposita personalità giuridica, di cui i sistemi di intelligenza artificiale attualmente non godono. Allo stesso modo, le macchine non sarebbero nemmeno in grado di trasferire tali diritti ai propri aventi causa mancando di personalità giuridica.

Infine l’Ufficio europeo ha osservato come una tale interpretazione del termine “inventore”, come riferimento ad una persona fisica, sembra essere uno standard riconosciuto a livello internazionale e ripreso in più occasioni anche dalle decisioni dei tribunali nazionali in materia.

Un articolo di giornale scritto da un sistema di intelligenza artificiale è protetto dal diritto d’autore

Per la prima volta un tribunale di Shenzhen in Cina ha sanzionato una piattaforma online chiamata Shanghai Yingxun Technology Company per aver ripubblicato, senza autorizzazione, un articolo di giornale scritto da un software di intelligenza artificiale chiamato Dreamwriter, sviluppato dal gigante tecnologico Tencent, violandone così i diritti d’autore.

Il tribunale ha riconosciuto come la formulazione, il contenuto e la struttura dell’articolo fossero tali da soddisfare i requisiti legali per poterlo classificare come opera originale e quindi meritevole di protezione in base alla normativa in materia di diritto d’autore.

La rilevanza di questa decisione è data dall’approccio seguito dal tribunale cinese, che sembrerebbe aver superato l’annosa questione relativa alla paternità umana delle opere e concentrando la propria attenzione invece sul concetto di originalità. La decisione potrebbe rappresentare un importante passo avanti per il futuro sviluppo dei sistemi di intelligenza artificiale e la protezione dei contenuti da loro generati, evidenziando un’altra volta la centralità della questione a livello globale.

Report tecnico del Centro comune di ricerca (JRC) della Commissione europea sulla robustezza e spiegabilità dell’intelligenza artificiale

In linea con gli obiettivi fissati dalla Commissione europea recentemente insediatasi, il JRC, la cui funzione principale è quella di fornire sostegno scientifico e tecnico alla progettazione, sviluppo, attuazione e controllo delle politiche dell’Unione europea, attraverso questo report, intende contribuire al processo di regolamentazione delle tecnologie AI, proponendo un collegamento tra le legittime aspettative in termini di robustezza e spiegabilità e l’attuale panorama scientifico.

Tra i principali obiettivi perseguiti dal JCR rientrano quelli di fornire una descrizione “policy-oriented” delle attuali prospettive in materia di AI, di analizzare l’impatto futuro di queste tecnologie sulla società fotografando allo stesso modo lo stato attuale delle cose, anche in considerazione dei potenziali rischi in tema di sicurezza, cybersecurity e protezione dei dati evidenziando alcune delle soluzioni scientifiche attualmente in fase di sviluppo nella comunità AI, con lo scopo di pubblicare un elenco di raccomandazioni per l’adozione di strumenti standardizzati e di apposite certificazioni da applicare ai sistemi AI.

A parere della JRC tre sono i principi guida per una corretta diffusione dei modelli di IA: trasparenza, affidabilità e protezione dei dati. In conclusione, il JRC raccomanda l’adozione di procedure volte a valutare l’impatto effettivo dei sistemi AI sul modello DPIA (“valutazione d’impatto sulla protezione dei dati”) introdotto dalla nuova regolamentazione in materia di protezione dei dati; di adottare metodologie standardizzate volte a valutare la robustezza dei modelli di AI, con particolare riferimento ai dati utilizzati per il loro sviluppo e i modelli matematici impiegati; incrementare la consapevolezza tra gli esperti del settore circa le principali vulnerabilità dei modelli AI offrendo le soluzioni tecniche necessarie per affrontarle, ed infine promuovendo la trasparenza tramite un approccio di “explainability-by-design” soprattutto dei modelli di machine learning.

Responsabilità civile per l’IA e per le tecnologie digitali emergenti: pubblicato il report del Gruppo di Esperti della Commissione UE

Il Gruppo di Esperti della Commissione europea su Responsabilità e Nuove Tecnologie ha pubblicato un report in materia di “Liability for Artificial Intelligence and other emerging digital technologies”, nel quale sono individuate le principali criticità in tema di responsabilità civile legate alla nuova società dell’informazione e vengono enucleate delle possibili soluzioni al riguardo.

In particolare, alla luce dei regimi esistenti negli Stati Membri, il Gruppo rileva che non è necessario attuare una revisione completa delle discipline in merito alla valutazione della responsabilità civile (ad esempio, conferendo alle nuove tecnologie una personalità giuridica distinta), ma è sufficiente introdurre delle previsioni che tengano in debito conto il mondo delle nuove tecnologie digitali.

Così, il report suggerisce l’impiego degli strumenti giuridici tradizionalmente usati nel diritto civile, prevedendo in particolare l’introduzione, in determinate circostanze, di una responsabilità oggettiva per i danni causati da prodotti difettosi e dai loro componenti, o di una responsabilità indiretta ove venga provocato un danno che – qualora fosse stato causato dall’uomo – avrebbe dato luogo a tale responsabilità. Ancora, nei casi in cui un prodotto sia costituito da elementi forniti da vari soggetti, questi ultimi potrebbero essere chiamati a rispondere in solido dei danni causati. Vengono altresì analizzate delle ipotesi in cui potrebbe essere opportuno invertire o ridurre l’onere della prova a carico del danneggiato, come nel caso in cui tale onere fosse sproporzionato o qualora il danno sia stato causato da una violazione di determinate norme (ad esempio, le norme sulla sicurezza informatica).

Il Gruppo rileva, inoltre, l’esigenza di intensificare i controlli sui sistemi utilizzati e sui prodotti messi in commercio, suggerendo a tal fine l’introduzione di nuovi obblighi di diligenza in capo agli operatori e ai produttori di tali tecnologie. D’altro canto, i produttori, in conformità con le leggi applicabili, dovrebbero prevedere by design dei mezzi idonei a registrare le informazioni relative al funzionamento dei propri prodotti essenziali per stabilire se si concretizza un rischio connesso agli stessi. La mancata registrazione o l’ingiustificato diniego di accesso alle informazioni potrebbe rilevare quale presunzione juris tantum di sussistenza della responsabilità.

In ultimo, viene analizzato anche il rischio che gli utenti che hanno subito un pregiudizio non possano in effetti essere risarciti dei danni subiti. Pertanto, viene suggerita l’introduzione di una assicurazione obbligatoria per determinate tecnologie per le quali il danno potenziale è più frequente o più grave e qualora sia improbabile che gli operatori siano in grado di risarcire gli interessati individualmente.