by

L’intelligenza artificiale è sempre più parte integrante della nostra quotidianità, ma al tempo stesso genera preoccupazioni, anche legali, riguardo ai c.d. “bias” cognitivi, ovvero i pregiudizi, e le conseguenti discriminazioni dell’algoritmo.

In questo articolo analizziamo le problematiche legali dei bias cognitivi dei sistemi di intelligenza artificiale.

Gli algoritmi di machine learning

L’intelligenza artificiale può essere definita come l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività, ed è composta da diversi algoritmi che apprendono attraverso il c.d. machine learning.

Sulla base degli algoritmi di machine learning è infatti possibile guidare ed “insegnare” all’algoritmo quali sono i risultati da generare: proprio come un bambino a cui bisogna insegnare le lettere dell’alfabeto, mostrate attraverso dei libri illustrati, anche in questo caso l’intelligenza artificiale può “apprendere” da un set di dati e produrre un output predefinito (nei casi di c.d. machine learning supervisionato).

In altri casi, invece, sempre partendo da un set di dati, impara a identificare processi e schemi complessi senza la guida attenta di una mente umana (c.d. machine learning non supervisionato): è come se si volessero pur sempre insegnare a un bambino le lettere dell’alfabeto attraverso libri illustrati, e questo riuscirà a fare dei “ragionamenti propri” producendo parole e frasi che non sono output predefiniti.

Si tratta della svolta dell’intelligenza artificiale generativa che non solo apprende, ma genera autonomamente dei contenuti alla luce di quello che ha appreso.

I bias cognitivi dei sistemi di intelligenza artificiale

È in questi scenari che troviamo modelli di intelligenza artificiale generativa come quello di ChatGPT, dove si possono produrre i c.d. bias cognitivi. Come detto, gli algoritmi non sono altro che modelli matematici che vengono “addestrati” attraverso set di dati forniti dall’uomo: riprendendo il nostro esempio del bambino, se alla lettera “A” viene associato sempre il colore rosso, è più facile che il bambino, quando dovrà riprodurre tale lettera su un foglio bianco, lo faccia proprio attraverso il colore rosso.

Allo stesso tempo, attraverso i set di dati forniti in prima istanza all’algoritmo, è possibile che l’algoritmo riproduca dei “pregiudizi” che sono dati semplicemente dall’insieme di informazioni fornite. Il pregiudizio, infatti, può insinuarsi in diversi modi: quelli su cui ci concentreremo saranno i bias in relazione a preconcetti, opinioni, questioni etniche, culturali, sociali, e così via.

La selezione del personale e la valutazione del rischio assicurativo tramite algoritmi di ML

Uno dei panorami in cui l’utilizzo dell’intelligenza artificiale può, da un lato, creare grande efficienza, e dall’altro destare preoccupazioni, sono i luoghi di lavoro, e più nello specifico la selezione del personale attraverso algoritmi di machine learning: se l’algoritmo di selezione del personale viene addestrato su un set di dati storici di candidati che hanno avuto maggior successo in un certo ruolo, potrebbe considerare gli attributi che questi candidati hanno in comune come più rilevanti per quel ruolo.

È ciò che è successo ad una nota multinazionale alla ricerca di nuove risorse per un ruolo IT: l’algoritmo scartava in automatico le figure femminili, in quanto si basava su un set di dati raccolti negli ultimi dieci anni dove la maggior parte delle risorse assunte in ambito tech era di genere maschile e non femminile. Gli algoritmi hanno quindi individuato e messo in luce i pregiudizi dei loro stessi creatori, dimostrando così che l’addestramento dei sistemi automatizzati su dati imparziali porta a future decisioni non neutra.

Ma ancora, per quanto attiene al panorama assicurativo, i sistemi di intelligenza artificiale vengono utilizzati con crescente frequenza per fornire prodotti e servizi sempre più personalizzati, a prezzi più competitivi partendo dalla protezione della salute e della vita, fino alla sottoscrizione e valutazione dei sinistri. Se non adeguatamente sviluppati, anche in quest’ottica, i sistemi di intelligenza artificiale possono portare a rilevanti rischi per la vita delle persone, tra cui la discriminazione. Ad esempio, un algoritmo di valutazione del rischio assicurativo potrebbe utilizzare i dati dei clienti, come l’età, il sesso, il reddito, la professione e lo stato di salute, per determinare il prezzo dell’assicurazione e il livello di rischio associato al cliente, escludendo alcuni utenti.

I rimedi tecnici e legali ai bias cognitivi ai sensi dell’AI Act

I rischi generati dai bias cognitivi di cui sopra possono essere limitati, attraverso azioni sia da un punto di vista tecnico, nonché legale. Innanzitutto, agendo sull’algoritmo stesso: è infatti necessario addestrare gli algoritmi su un set di dati il più diversificato e rappresentativo possibile, monitorando costantemente gli output prodotti al fine di segnalare e correggere i bias in origine. Inoltre, nel processo di selezione, potrebbe essere rilevante includere nella revisione dell’algoritmo non solo tecnici, ma una varietà di esperti, in modo da prevenire la creazione involontaria di discriminazioni.

Dall’altro lato, i sistemi di intelligenza artificiale sopra descritti ricadano già nella bozza dell’AI Act. L’AI Act si fonda su un approccio basato sul rischio (come per il GDPR), individuando tre livelli di rischio (inaccettabile, alto, e limitato). Tali sistemi sono attualmente elencati nell’Allegato III alla proposta di AI Act, e includono anche sistemi che ricadono nel contesto lavorativo e occupazionale, inclusa la fase di selezione e assunzione del personale. Per questi sistemi sono previsti una serie di obblighi (e.g., sistemi di gestione del rischio, trasparenza, supervisione umana, ecc.) cui i fornitori devono attenersi sin dalla fase di progettazione e sviluppo e la conformità ai quali dovrà essere attentamente valutata prima della commercializzazione del sistema stesso.

Tuttavia, l’applicazione di queste norme riguarderà solo il futuro prossimo – per il momento è necessario fare riferimento al combinato disposto di altre disposizioni normative, che si limitano ad obblighi di trasparenza o di diritto alla rinuncia rispetto al trattamento svolto da questi sistemi, nonché diritto a richiedere che vi sia sempre un intervento umano dietro al trattamento di questi dati. Queste disposizioni si rinvengono nell’art. 22 del GDPR, e nelle nuove disposizioni in tema di trasparenza recepite dal D.lgs. n. 104/2022 (il c.d. Decreto Trasparenza), che prevedono degli importanti obblighi normativi qualora vengano utilizzati “sistemi decisionali o di monitoraggio automatizzati” nei confronti dei lavoratori.

In sintesi, l’utilizzo di intelligenza artificiale nei processi di selezione del personale, nella creazione di offerte personalizzate e nell’accesso a determinati servizi può portare a miglioramenti significativi dell’efficienza e dell’accuratezza. Tuttavia, è importante prestare attenzione ai rischi di discriminazione e bias cognitivi che possono essere associati all’utilizzo di questi algoritmi. Solo attraverso una combinazione di trasparenza, equità e disposizioni normative chiare, che impongano degli obblighi ben specifici in capo all’utilizzatore di sistemi intelligenza artificiale, possiamo garantire che l’intelligenza artificiale sia utilizzata in modo più responsabile ed equo.

Per supportare le aziende nella valutazione di conformità dei sistemi di intelligenza artificiale, DLA Piper ha sviluppato un tool di legal tech denominato Prisca su cui potete visionare un video di presentazione QUI.

Su un simile argomento può essere interessante l’articolo “Il Dott. Ghiglia del Garante privacy sull’intelligenza artificiale e la loro prospettiva”.

(Visited 265 times, 1 visits today)
Close Search Window