by

Un avvocato per sostenere la sua strategia difensiva, avrebbe fatto ricorso a ChatGPT inciampando in una serie di precedenti fasulli.

Arriva qualche giorno fa dagli Stati Uniti la notizia di un caso riguardante un avvocato che, per sostenere la sua strategia difensiva, avrebbe fatto ricorso a ChatGPT inciampando in una serie di precedenti fasulli.

La vicenda di un avvocato che ha usato ChatGPT

Il caso riguarda un avvocato di New York il quale avrebbe dovuto difendere il suo assistito, un passeggero di un volo di una aviolinea colombiana, a causa di una ferita al ginocchio causato da un carrello delle vivande presente sull’aereo. Al fine di creare la miglior linea difensiva, l’avvocato in questione aveva necessità di raccogliere e fornire al giudice quanti più precedenti possibili che potessero rafforzare le argomentazioni per il quale la compagnia aerea avrebbe dovuto fornire un risarcimento al passeggero.

L’avvocato era pertanto riuscito a raccogliere molti precedenti, che hanno però fatto storcere il naso sia al giudice nonché a controparte. Quest’ultimi, sorpresi dalla quantità di precedenti raccolti, avrebbero chiesto all’avvocato maggiori dettagli sulle sentenze in quanto non ne riuscivano a trovare riscontro – le citazioni alle sentenze erano però state ottenute attraverso una interrogazione a ChatGPT. L’avvocato avrebbe poi nuovamente interrogato l’AI per chiedere anche le date dei procedimenti, e il numero delle sentenze. Il giudice anche in questo caso non riusciva a trovare riscontro rispetto a tali precedenti, ed è stato a quel punto che, interrogando ChatGPT una terza volta, quest’ultimo ha ammesso di essersi inventato tali risultati.

L’avvocato, accortosi del (forse ingenuo) errore commesso, si è scusato con la corte affermando che il suo errore è derivato semplicemente da ingenuità, e che non credeva che ChatGPT potesse mentire.

Il modello probabilistico di ChatGPT

Questo caso mette in risalto una serie di problemi rispetto all’utilizzo dell’AI, che non si limitano solo alle professioni legali ma si estendono invece a qualsiasi professionista/utente che decide di utilizzare l’AI. Innanzitutto, uno dei principali errori che si commette con l’AI è utilizzare questa come motore di ricerca – l’AI non ha alcuna conoscenza del contenuto che generale.

ChatGPT, per esempio, utilizza una tecnica chiamata “generazione di linguaggio condizionato”, in cui prende in considerazione il contesto precedente e genera una risposta appropriata (molto convincente). La generazione della risposta non è completamente casuale, ma è basata sulla probabilità stimata dal modello. Il modello cerca di generare una risposta che sia coerente con il contesto e il tipo di domanda o input ricevuti: ma una risposta probabile, non è per forza una risposta giusta!

Ma di chi è la responsabilità?

Un altro tema interessante che viene messo in luce con questa vicenda è la responsabilità di ChatGPT sul contenuto generato. Prima di poter inviare un input all’AI, viene presentato un disclaimer agli utenti in cui si informano questi ultimi che ChatGPT potrebbe generare informazioni inesatte su persone, luoghi o fatti:

Abbiamo chiesto proprio a ChatGPT se può essere ritenuto responsabile per la generazione di informazioni inesatte, e questa è stata la sua risposta: “Come modello di intelligenza artificiale, non posso essere ritenuto responsabile per l’uso che viene fatto delle informazioni o dei contenuti generati da me. La responsabilità delle azioni che intraprendi utilizzando i contenuti generati da me ricade su di te come utente. È importante ricordare di utilizzare le informazioni in modo responsabile, rispettando la legge e considerando le conseguenze delle proprie azioni”.

Si potrebbe fare un parallelismo tra ChatGPT e gli ISP (nonostante ChatGPT non sia collegato ad internet) per argomentare che in linea di massima, i modelli di AI non possono essere ritenuti responsabili dei contenuti che generano in quanto non ne hanno coscienza. In ogni caso, rimane una questione aperta, e un altro tema si potrebbe aprire sulla prominenza del disclaimer come sopra rappresentato agli utenti, che potrebbe non essere sufficientemente chiaro.

Considerazioni finali

In ogni caso, un utilizzo inconsapevole di ChatGPT, o di altri modelli di AI simili, deriva proprio da una scarsa conoscenza degli stessi. Il caso presentato in questo articolo riguarda un professionista legale, che, nonostante tutte le conseguenze che subirà per non essere stato in grado di utilizzare lo strumento con la dovuta diligenza, avrà solo a che fare con sé stesso. Ma cosa succede se è un dipendente di un’azienda a commettere un tale errore? È dunque necessario educare i dipendenti della propria organizzazione sull’utilizzo dell’AI attraverso anche delle procedure interne su come utilizzare, e non utilizzare gli strumenti di AI, anche in ottica di protezione di trade secrets.

Su un simile argomento, potrebbe interessarvi “Come l’intelligenza artificiale generativa cambierà il settore legale”.

(Visited 73 times, 1 visits today)
Close Search Window