by

Il 19 settembre 2024 è stato pubblicato il “Complementary Impact Assessment” (“Studio”) sulla proposta di Direttiva sulla responsabilità dell’Intelligenza Artificiale (“AILD”). Commissionato dalla commissione giuridica del parlamento europeo, lo Studio mira a identificare eventuali lacune e problematiche nella normativa proposta, nonché a rispondere alle presunte incompletezze della valutazione d’impatto condotta dalla Commissione Europea.

L’AILD, insieme alla revisione della Direttiva sulla responsabilità da prodotto difettoso (“PLD”), rappresenta lo strumento principale per affrontare la responsabilità civile derivante dall’uso dell’intelligenza artificiale (“IA”). In particolare, l’AILD si propone di armonizzare gli aspetti procedurali delle cause legali relative all’IA promosse dinnanzi ai tribunali degli Stati membri. Un punto focale è la semplificazione dell’onere della prova, questione particolarmente complesse a causa dell’opacità dei sistemi di IA (il cosiddetto “Black Box Problem”). Per affrontare questa sfida, la normativa prevede, in casi specifici, il diritto della parte lesa di ottenere la disclosure di prove e documenti decisivi per comprendere il funzionamento del sistema di IA, nonché una presunzione di causalità in caso di danno derivante da un utilizzo dell’IA non in conformità con le disposizioni dell’AI Act.

Interazione tra AILD, PLD e AI Act

Lo Studio esamina come l’AILD si intersechi con altri strumenti normativi in materia di responsabilità da prodotto e IA. In particolare, raccomanda di:

  • Allineare le definizioni chiave al fine di assicurare coerenza terminologica tra l’AILD e l’AI Act per evitare ambiguità interpretative; e
  • Garantire l’applicazione dell’AILD a quei casi (e.g. discriminazione, diritti della personalità, danno causato da utilizzatori non professionali) che non rientrano nell’ambito di applicazione della PLD.

Ambito di applicazione

Lo Studio valuta altresì l’opportunità di ampliare l’ambito di applicazione dell’AILD oltre i sistemi di IA ad alto rischio, includendo sistemi che vengono definiti ad “alto impatto” quali i General Purpose AI (es. ChatGPT) e quei software che pur non qualificandosi propriamente quali sistemi di IA presentino problemi di trasparenza e opacità analoghi a quelli posti dai sistemi di IA “puri”, trasformando l’AILD in ciò che viene definito nello Studio come “Software liability instrument”. Tale approccio risulta ragionevole, dal momento che in presenza delle medesime sfide al sistema di responsabilità civile tradizionale, non avrebbe senso operare una distinzione basata meramente su una differenza tecnologica, dovendosi applicare le stesse regole a tutti quei sistemi che, a prescindere dalla loro qualificazione, pongono le suddette problematiche di opacità e trasparenza.

Responsabilità oggettiva o colposa?

Lo Studio mette in luce le conseguenze derivanti dalla qualificazione della responsabilità come oggettiva o colposa.

Per quanto riguarda la responsabilità oggettiva, la quale era originariamente prevista dalla Risoluzione del Parlamento europeo del 2020 per i sistemi di IA ad alto rischio, viene confermata come una possibile soluzione nel caso di sistemi vietati/ad alto rischio, prevalendo la protezione dei cittadini sull’effetto esacerbante che la stessa avrebbe sull’innovazione. Allo stesso tempo, viene sottolineata la differenza tra “legitimate-harm models“, i quali potrebbero causare un effetto negativo a un soggetto anche se correttamente utilizzati (e.g. sistemi di score dei candidati), e “illegitimate-harm models“, i quali non potrebbero in nessun caso causare un danno se utilizzati correttamente, auspicando un regime di responsabilità oggettiva solo per i secondi.

Relativamente invece alla responsabilità colposa e ai sistemi di alleviamento dell’onere probatorio, lo Studio sottolinea che:

  • L’obbligo di disclosure potrebbe risultare di scarsa utilità pratica alla luce dell’elevata tecnicità dei documenti oggetto dello stesso. Inoltre, non è chiaro come verrà affrontato il requisito secondo cui il ricorrente deve fornire elementi volti a dimostrare la plausibilità della sua pretesa, o se la presunzione si applichi in caso di violazione dell’obbligo di formazione sull’IA (la c.d. AI literacy), ad esempio se un dipendente non adeguatamente formato causasse un danno; e
  • La presunzione di causalità risulta di difficile attivazione, posto che per ottenerla il ricorrente dovrebbe comunque dimostrare, tra gli altri, la colpa del danneggiante e il danno stesso.

In ogni caso, pur riconoscendo i limiti insiti nella proposta, lo Studio non si sbilancia fino a proporre una presunzione di colpa che avrebbe effetti dirompenti sull’innovazione nel territorio dell’Unione.

Da direttiva a regolamento?

Infine, lo Studio valuta l’opportunità di trasformare l’AILD da direttiva a regolamento. Questo cambiamento, già avviato e solidificato in altri settori, garantirebbe un’applicazione uniforme delle norme in tutta l’UE, evitando le discrepanze che deriverebbero dal recepimento nazionale della Direttiva. Ciò è particolarmente vero se si considera che l’AILD persegue un livello di armonizzazione minima, lasciando margini di implementazione agli Stati membri che potrebbero dunque introdurre norme più specifiche. Pur in presenza dell’AI Act, si sarebbe dunque esposti a possibili differenze di trattamento sotto il profilo della responsabilità civile.

Conclusioni

Lo Studio sottolinea l’importanza di un quadro di responsabilità per l’IA chiaro, coerente ed efficace, al fine di garantire agli operatori una normativa unitaria in tutta l’UE e ai cittadini un ristoro efficace nel caso in subiscano un danno causato dall’IA. In questa ottica, le osservazioni contenute nello Studio costituiscono uno spunto importante in vista dello sviluppo della direttiva che siede attualmente in uno stato di attesa dopo la sua proposta avvenuta ormai quasi due anni fa. Infatti, laddove venisse seguita la proposta di adottare un regolamento, vi sarebbe anche il concreto rischio che la stessa venga ritirata.

Su un argomento simile può essere di interesse l’articolo “La responsabilità di sviluppatori e produttori di software AI secondo la Direttiva sul risarcimento dei danni da prodotti difettosi

(Visited 86 times, 1 visits today)
Close Search Window