by

I sistemi di intelligenza artificiale (AI) generativa, come Chat-GPT, continuano a evolversi e a cambiare il nostro modo di vivere e lavorare rendendo sempre più importante comprenderne le problematiche legali.

La crescita dell’intelligenza artificiale (AI) generativa e le sue problematiche legali

Negli ultimi mesi, tutti parlano del GPT-3 creato da Open AI e della sua applicazione Chat-GPT, che è in grado di generare testi dal tono naturale, consentendo lo sviluppo di chatbot più realistici e di applicazioni di AI basate sul linguaggio.

GPT-3 sfrutta la cosiddetta intelligenza artificiale generativa (AI), nota anche come Generative Adversarial Networks (GANs), un tipo di intelligenza artificiale in grado di generare nuovi contenuti, come immagini, video e testi, senza l’intervento umano. Lo fa addestrandosi su un ampio set di esempi e imparando a creare nuovi esempi simili, diversi da quelli visti in precedenza. Può essere utilizzata in qualsiasi campo per creare contenuti e migliorare l’efficienza di aziende in diversi settori, come la sanità, la finanza e la produzione industriale, anche attraverso la creazione di dati sintetici per addestrare altri modelli di IA e migliorarne le prestazioni.

Dai diritti di proprietà intellettuale delle opere generate dall’AI alla responsabilità dell’AI generativa, ci sono una serie di questioni legali che devono essere affrontate. Ma a queste sfide si accompagna una serie di possibilità con una rivoluzione dell’operatività aziendale e al miglioramento della sua efficienza. E’ fondamentale trovare un equilibrio tra l’abbracciare il potenziale dell’AI generativa e l’affrontare le problematiche legali che ne derivano.

Questo articolo intende fornire alcuni frammenti dei potenziali problemi legali dell’IA generativa, che saranno affrontati in modo più dettagliato nei prossimi articoli.

Diritti di proprietà intellettuale delle opere generate dall’AI: Chi detiene i diritti delle opere create dall’AI?

Una delle problematiche legali cruciali dell’AI generativa riguarda la proprietà dei diritti di proprietà intellettuale. La capacità dei sistemi di AI di creare nuove opere senza l’intervento umano solleva questioni su chi detiene i diritti di queste opere e su come proteggerle da eventuali violazioni. Alcuni sostengono che le opere generate dall’AI dovrebbero essere considerate “opere orfane” e non soggette alla tutela del diritto d’autore, poiché il creatore non può essere identificato. Allo stesso modo, in alcuni contenziosi è stato stabilito che un’AI non può essere l’inventore ai sensi della normativa sui brevetti.

Questo scenario solleva preoccupazioni per la mancanza di protezione di queste opere e per il loro potenziale uso improprio. Per affrontare questo problema, una possibile soluzione è quella di creare una nuova categoria di diritti di proprietà intellettuale specifica per le opere generate dalle IA. Ma questo creerebbe un ulteriore livello di diritti di proprietà intellettuale che devono essere attribuiti a qualcuno e potrebbe limitare lo sfruttamento dell’intelligenza artificiale.

Lo stesso vale per i dati sintetici, che sono dati generati artificialmente dai sistemi di AI, piuttosto che raccolti da fonti reali. Ad esempio, se un sistema di AI genera immagini sintetiche basate su immagini reali, chi possiede i diritti sulle immagini sintetiche? Ciò solleva questioni relative ai diritti dei creatori dei dati originali, nonché ai diritti dei creatori dei dati sintetici. E la questione sta già dando origine a controversie.

Responsabilità dei sistemi di intelligenza artificiale: Chi è responsabile quando le decisioni generate dall’AI sono sbagliate?

Poiché i sistemi di AI stanno diventando sempre più avanzati, prenderanno esponenzialmente decisioni che possono avere conseguenze significative, come la diagnosi di condizioni mediche, l’approvazione di prestiti e persino la guida dei nostri veicoli.  Esistono alcune restrizioni normative e, ad esempio nel settore sanitario, un sistema di AI non è autorizzato a fornire cure mediche e quindi può solo supportare i medici. Allo stesso modo, la normativa del codice della strada è concepita per garantire che i conducenti abbiano sempre il controllo del proprio veicolo, anche se alcuni incidenti degli ultimi anni dimostrano che qualcuno sta abusando delle potenzialità delle auto a guida autonoma.

Inoltre, le norme sulla privacy prevedono che gli individui abbiano il diritto di non essere soggetti a decisioni automatizzate e in ogni caso di chiedere la revisione di tali decisioni da parte di un essere umano (Leggi “Seconda sanzione del Garante privacy contro una società di food delivery“) che sono state amplificate in Italia per i sistemi di IA utilizzati per monitorare i lavoratori con il cosiddetto Decreto Trasparenza (Leggi “La circolare ministeriale chiarisce i sistemi automatizzati del Decreto Trasparenza“).

In caso di errori dovuti a errori del sistema di AI, sorgono domande su chi ne sia responsabile. Alcuni sostengono che i creatori del sistema di IA dovrebbero essere ritenuti responsabili, mentre altri suggeriscono che il sistema di IA stesso dovrebbe essere ritenuto responsabile.

Un regime di responsabilità per l’intelligenza artificiale è fondamentale per favorirne lo sfruttamento. Di conseguenza, la Commissione europea sta affrontando la questione con una proposta di direttiva UE sull’argomento (Leggi “Presentate le proposte di normativa europea sulla responsabilità per l’intelligenza artificiale e l’era digitale“). La questione è se tali proposte raggiungano il giusto equilibrio tra rendere le aziende responsabili degli errori causati dall’intelligenza artificiale ed evitare obblighi onerosi che potrebbero ostacolare la crescita dell’AI.

Trasparenza nei sistemi di intelligenza artificiale e come limitare le problematiche legali dei potenziali pregiudizi nei modelli di AI?

Con l’aumento della complessità dei sistemi di AI generativa, gli stessi diventano più difficili da capire e da spiegare, rendendo difficile determinare il motivo per cui è stata presa una determinata decisione. Questo può rendere complesso ritenere qualcuno responsabile in caso di errori. Allo stesso modo, i modelli di AI potrebbero incorporare un pregiudizio (il c.d. “bias”) che potrebbe portare a un trattamento ingiusto di alcuni gruppi/categorie di individui. Ciò potrebbe accadere, ad esempio, se i dati utilizzati per addestrare il modello di AI sono alterati a causa del pregiudizio dei relativi programmatori, portando il sistema di AI a prendere decisioni che discriminano determinati individui o gruppi.

Le distorsioni nell’AI generativa possono portare non solo a problemi legali, ma anche a problemi etici per il potenziale rischio di discriminazione.

La Commissione europea sta cercando di affrontare questo aspetto dell’intelligenza artificiale, con la legge sull’AI che è stata ora adottata dal Consiglio europeo e che dovrebbe introdurre diversi livelli di certificazione e regimi per i vari tipi di AI, a seconda dei rischi potenziali che ne derivano (Leggi “Il Consiglio dell’UE adotta la proposta di AI Act sull’intelligenza artificiale“).

Problemi privacy e di cybersicurezza dell’AI generativa: come proteggere gli individui?

Con la capacità dei sistemi di AI di generare immagini e video realistici, si teme che questa tecnologia possa essere utilizzata per invadere la privacy e la sicurezza delle persone. Inoltre, l’uso dell’AI generativa nei contenuti deepfake, che possono essere utilizzati per creare video e immagini false, solleva ulteriori preoccupazioni sulla fiducia nelle informazioni e nei media.

L’uso dell’intelligenza artificiale generativa nei contenuti deepfake può essere utilizzato per creare video e immagini falsi, che possono essere usati per diffondere disinformazione o per molestare o ricattare le persone. Questa tecnologia può anche essere utilizzata per creare immagini realistiche di persone, che possono essere usate per scopi malevoli come il catfishing e il furto di identità. Inoltre, l’uso dell’AI generativa nella creazione di dati sintetici, che possono essere utilizzati per addestrare altri modelli di AI, solleva preoccupazioni sulla privacy delle persone che possono essere rappresentate nei dati.

Un ulteriore aspetto preoccupante è poi che i sistemi di AI generativa possono essere utilizzati per identificare bug nei codici che facilitano potenziali cyberattacchi, compresi gli attacchi ransomware. Allo stesso modo, l’AA generativa può essere utilizzata per riprodurre la voce e/o l’immagine di amministratori delegati e dirigenti di alto livello per eseguire i cosiddetti attacchi informatici del tipo “Fake CEO”.

Nei prossimi articoli parleremo sicuramente di molte altre problematiche legali legate all’AI generativa. Nel frattempo, consigliamo di leggere i post ai link in questo articolo e seguiteci per altri articoli sull’argomento.

(Visited 1.571 times, 1 visits today)
Close Search Window