Un giudice distrettuale della corte federale della California ha respinto alcune richieste di risarcimento in una causa promossa dalle artiste Sarah Andersen, Kelly McKernan e Karla Ortiz contro sistemi di intelligenza artificiale generativa, che avrebbero utilizzato illecitamente opere autoriali delle attrici. Il giudice ha tuttavia concesso a queste ultime la possibilità di modificare le rispettive domande.
La causa prende le mosse da un complaint depositato lo scorso gennaio da un trio di artiste che ha intentato una causa contro alcune società proprietarie di ormai noti e diffusi sistemi di AI generativa. Secondo le attrici, le modalità attraverso le quali tali sistemi sono stati addestrati violerebbero i diritti d’autore di milioni di artisti, in quanto opere già esistenti sarebbero state date in pasto ai sistemi di AI generativa per insegnare loro a generare nuove immagini. Il tutto, senza ottenere un preventivo consenso per la loro utilizzazione. Gli output realizzati dai sistemi di AI, sostanzialmente basati sulla assimilazione e rielaborazione di queste immagini, replicano, infatti, lo “stile” di tali artisti. Inoltre, secondo le attrici “[ogni] immagine in uscita dal sistema è derivata esclusivamente dalle immagini latenti, che sono copie di immagini protette da diritto d’autore. Per queste ragioni, ogni immagine ibrida è necessariamente un’opera derivata”.
Successivamente, le tre società convenute hanno depositato separatamente un cd. motion to dismiss, vale a dire una richiesta di archiviazione del caso. Nel diritto americano, per evitare che una richiesta di archiviazione venga accolta, l’attore è tenuto ad “addurre fatti sufficienti per formulare una richiesta di risarcimento che sia plausibile”, ossia fatti che permettano al tribunale di trarre la ragionevole deduzione che il convenuto sia responsabile della condotta scorretta denunciata. Si tratta, in altre parole, di una soglia di plausibilità della violazione che può essere tradotta, nel nostro ordinamento, con il concetto di fumus boni iuris.
L’atto introduttivo della causa era stato molto criticato dagli esperti del settore, in quanto impreciso dal punto di vista tecnico. Ad esempio, nell’atto si afferma che i modelli artistici di intelligenza artificiale “memorizzano copie compresse di immagini di addestramento” e le “ricombinano”, funzionando come “strumenti per collage del Ventunesimo secolo”. A ben vedere, i sistemi di AI generativa non memorizzano le immagini, ma piuttosto rappresentazioni matematiche dei modelli raccolti da queste immagini.
Con la decisione del 30 ottobre 2023, la corte distrettuale ha respinto quasi tutte le richieste di risarcimento delle artiste (tranne una per violazione ‘diretta’ del copyright), ritenendo le domande delle attrici “carenti sotto diversi profili”. Il giudice ha tuttavia concesso a queste ultime la possibilità di ripresentare le proprie domande, chiedendo però di indicare in modo più specifico il coinvolgimento di ciascun convenuto nella presunta violazione. Le diverse società convenute, infatti, hanno business differenti e negli atti introduttive delle artiste gli addebiti, secondo il giudice, erano eccessivamente generici e a-tecnici.
Inoltre, particolare rilevanza assume l’affermazione del giudice secondo cui, al fine di provare la violazione, le attrici dovranno essere in grado di provare che le immagini di output dei sistemi di AI sono “sostanzialmente simili” alle opere d’arte originali. In altri termini, non è sufficiente una generica somiglianza tra lo stile di un certo artista e l’output dell’AI per provare violazione del diritto d’autore, ma è necessario che le immagini generate da AI siano “così simili allo stile o alle opere dell’artista da poter essere interpretate come dei falsi”.
Questa prima, anche se non definitiva, decisione, assume una particolare rilevanza nell’indirizzare autori e artisti in merito alla soglia di prova richiesta per dimostrare che l’output generato da un sistema di AI violi la propria opera originale. Si tratta, inoltre, di una decisione che potrebbe avere un notevole impatto anche sulle altre vicende giudiziarie in materia di AI generativa attualmente pendenti.
Su un simile argomento può essere di interesse: “La tutela dei prompt nei sistemi di intelligenza artificiale generativa”.