by

Accanto ai tradizionali profili della responsabilità civile per fatto dell’uomo, dobbiamo confrontarci con i profili legali della responsabilità civile derivante dall’uso di sistemi di intelligenza artificiale (AI).

I sistemi di intelligenza artificiale stanno raggiungendo livelli di autonomia sempre più avanzati, soprattutto nei casi di machine learning, in cui le “macchine”, opportunamente istruite, acquisiscono capacità di imparare e di elaborare soluzioni in maniera (quasi) del tutto autonoma.

Ma cosa si intende per intelligenza artificiale? L’Unione Europea, per prima, ha dato una definizione di intelligenza artificiale nel “Piano coordinato sull’intelligenza artificiale COM (2018) 795 final”: “Perintelligenza artificiale” (IA) si intendono quei sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici”.

Analoga definizione è contenuta nel “Libro bianco sull’intelligenza artificiale” del 2020 e nella successiva comunicazione dell’UE COM (2021) 205.

Nella proposta di AI Act, l’intelligenza artificiale è definita come “un software sviluppato…, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”. Nella proposta si ipotizza anche la regolamentazione delle cd. intelligenze artificiali “ad alto rischio”, ossia quei sistemi il cui utilizzo può comportare rischi per i “diritti fondamentali”.

A livello italiano ci si è limitati a recepire i principi fissati a livello europeo, come emerge dal “Programma Strategico di Intelligenza Artificiale 2022 – 2024”.

L’assenza di regolamentazione sulla responsabilità dell’intelligenza artificiale

In assenza di una regolamentazione specifica della responsabilità derivante dall’utilizzo di sistemi di intelligenza artificiale, a quali disposizioni possiamo/dobbiamo fare riferimento oggi in Italia in questo ambito?

Conosciamo la dicotomia, nell’ambito della responsabilità civile, tra responsabilità extracontrattuale e responsabilità contrattuale.

Tralasciando il tema della responsabilità da prodotto difettoso (applicabile in astratto anche ai sistemi di intelligenza artificiale) le prime norme cui fare riferimento, in caso di responsabilità extracontrattuale, potrebbero essere gli articoli 2050 c.c. e 2051 del Codice Civile che prevedono, rispettivamente, la responsabilità da “attività pericolosa” e da “cosa in custodia”.

Si tratta tuttavia di disposizioni che potrebbero non essere del tutto adeguate rispetto ai nuovi scenari. Non è detto che l’attività di intelligenza artificiale sia necessariamente una “attività pericolosa”, tale cioè da comportare una rilevante probabilità di causare danni a terzi. Dall’altra parte, anche la nozione tradizionale di “custodia” potrebbe rivelarsi inadeguata. rispetto ad un sistema in grado di prendere decisioni o esprimere opinioni in maniera indipendente.

Tali disposizioni, inoltre, non esonerano comunque il danneggiato dalla prova del danno subito, oltre che del nesso causale tra il danno sofferto e, rispettivamente, l’attività pericolosa o la cosa in custodia.

Dall’altra parte, anche la regola generale della responsabilità per fatto illecito di cui all’art. 2043 del Codice Civile, richiede al danneggiato (in ipotesi dal sistema di intelligenza artificiale) la prova della colpa o del danneggiante.

La responsabilità contrattuale potrebbe soccorrere solo laddove sussista effettivamente una relazione tra il fornitore del servizio di intelligenza artificiale e l’utilizzatore. Qualora poi un prodotto o servizio fosse fornito/prestato avvalendosi di un sistema di intelligenza artificiale, potrebbe ipotizzarsi l’applicazione dell’art. 1228 del Codice Civile in materia di responsabilità per il fatto dell’ausiliario, assumendo che si possa configurare una relazione terzo (i.e. sistema di intelligenza artificiale) – debitore (i.e. soggetto che ne fa uso per fornire un prodotto od un servizio), relazione appunto richiesta dall’art. 1228.

Qualche spunto dall’esperienza giurisprudenziale recente

In alcuni casi che sono stati portati all’attenzione dei tribunali, al fine di stabilire la responsabilità per danno da intelligenza artificiale, sono state applicate le norme in materia di responsabilità del produttore mentre in altri casi la responsabilità è stata individuata in capo al soggetto che comunque aveva il controllo dell’utilizzo della macchina (v. Brouse vs. United States).

Interessante, sotto un diverso profilo, è la decisione della Corte Federale australiana nel caso Thaler vs. Commissioner of Patents che ha negato la possibilità di brevettare un’invenzione creata da un sistema di intelligenza artificiale perchè privo della personalità giuridica, ossia della capacità di essere titolare di situazioni giuridiche soggettive.

Ancora sotto un diverso profilo, la Corte di Cassazione ha recentemente deciso una controversia relativa alla responsabilità per danno causato da un sistema di intelligenza artificiale di rating reputazionale per illecito trattamento di dati personali. In questo caso, la causa del danno da illecito trattamento di dati personali da parte di un sistema di intelligenza artificiale è stata individuata nella assenza di trasparenza circa l’algoritmo utilizzato dal sistema stesso per determinare il rating.

Su di un simile argomento, può essere interessante l’articolo “L’intelligenza artificiale generativa e le sue problematiche legali”.

Autori: David Marino e Andrea Olivieri

(Visited 926 times, 1 visits today)
Close Search Window