by

Il NIST Artificial Intelligence Risk Management Framework definisce le linee guida per valutare i rischi derivanti dall’intelligenza artificiale e aumentare la fiducia nell’attuale situazione di incertezza sul regime applicabile.

Il NIST è il National Institute of Standards and Technology del Dipartimento del Commercio degli Stati Uniti e ha sviluppato l’Artificial Intelligence Risk Management Framework (AI RMF).

L’AI RMF è costituito da un framework di principi volontari, flessibili, completi e guidati dalle imprese che hanno l’obiettivo di incorporare regole sull’affidabilità nella progettazione, nello sviluppo, nell’uso e nella valutazione di prodotti, servizi e sistemi di intelligenza artificiale. Questi elementi sono un aspetto esponenzialmente rilevante dell’intelligenza artificiale in un periodo in cui gli utenti e le aziende sono preoccupati per l’invasività e la mancanza di controllo sul funzionamento dell’IA.

Il NIST Artificial Intelligence Risk Management Framework si basa su quattro componenti che lavorano insieme per supportare i processi di gestione del rischio per i sistemi di IA:

  • Core: Un insieme di obiettivi di affidabilità (come l’accuratezza, l’equità, la privacy e la sicurezza) e di attività (come la valutazione della qualità dei dati e la mitigazione delle distorsioni i c.d. bias) che possono essere applicati a diversi aspetti dei sistemi di IA (come gli input, output e processi dei dati). In particolare, il Core è composto da quattro sottocomponenti:
    • Govern che stabilisce politiche/linee guida/principi per la gestione del rischio dell’IA;
    • Map che identifica/analizza/divide gli elementi rilevanti del sistema di IA;
    • Measure che valuta/monitora/rendiconta le prestazioni/risultati del sistema di IA; e
    • Manage che gestisce la mitigazione/risoluzione/risposta ai problemi/rischi del sistema di IA;
  • Profiles: Una prioritizzazione degli obiettivi di affidabilità basata su fattori specifici del contesto, come missione/obiettivi/valori/stakeholder;
  • Implementation Tiers: Una caratterizzazione della preparazione organizzativa a gestire i rischi dell’IA, come risorse/capacità/cultura/governance; e
  • Roadmap: Un piano per il miglioramento e l’allineamento alle best practice, fornendo raccomandazioni per affrontare lacune/sfide/opportunità nell’implementazione dell’AI RMF.

L’AI RMF del NIST può essere utilizzato da varie organizzazioni in diversi ambiti, settori e casi d’uso per identificare, valutare e mitigare i rischi associati ai sistemi di intelligenza artificiale durante il loro ciclo di vita. Ad esempio,

  • Un fornitore di servizi sanitari può utilizzare il NIST Artificial Intelligence Risk Management Framework per garantire che un sistema di intelligenza artificiale per la diagnosi di malattie soddisfi elevati standard di accuratezza, equità, privacy e sicurezza;
  • Un istituto finanziario può utilizzare l’AI RMF per monitorare e verificare un sistema di intelligenza artificiale per individuare frodi o riciclaggio di denaro;
  • Un’istituzione educativa può utilizzare l’AI RMF per valutare e migliorare un sistema di intelligenza artificiale per l’apprendimento o i test personalizzati.

L’applicazione del NIST Artificial Intelligence Risk Management Framework può comportare alcune sfide, come ad esempio

  • disponibilità dei dati, qualità dei dati e diversità dei dati;
  • impegno, coinvolgimento e responsabilità delle parti interessate;
  • conformità etica, legale e normativa;
  • spiegabilità, trasparenza e interpretabilità delle operazioni dell’intelligenza artificiale; e
  • supervisione, controllo e intervento umano.

Tuttavia, la candidatura all’AI RMF può anche offrire alcune opportunità, come ad esempio

  • migliorare la soddisfazione, la fiducia e la sicurezza dei clienti;
  • migliorare le prestazioni, l’efficienza e l’innovazione dell’organizzazione;
  • ridurre i costi operativi, i rischi e le responsabilità; e
  • aumentare il benessere sociale, i benefici e la responsabilità.

Ci troviamo in un momento storico in cui l’intelligenza artificiale è oggetto di un enorme clamore, guidato dalla crescita dei sistemi di intelligenza artificiale generativa. La Commissione europea ha pubblicato una bozza dell’AI Act sull’intelligenza artificiale che fornirà una definizione di intelligenza artificiale e dei diversi regimi applicabili e la direttiva sulla responsabilità dell’intelligenza artificiale. Tuttavia, questi atti legislativi non sono ancora stati adottati perché faticano a tenere il passo con l’innovazione e potrebbero ostacolare lo sviluppo di queste tecnologie. Allo stesso tempo, è necessaria una maggiore fiducia dei clienti in queste tecnologie a causa della loro potenziale invasività, mentre le imprese ne vedono l’enorme potenziale.

In questo contesto, DLA Piper ha sviluppato uno strumento di legal tech di valutazione della conformità dei sistemi di intelligenza artificiale, in grado di valutare un sistema di intelligenza artificiale rispetto agli atti legislativi più rilevanti, agli standard internazionali e ai progetti di legge, per fornire un punteggio di conformità e le azioni raccomandate da seguire. Se volete saperne di più sull’argomento, contattateci.

(Visited 462 times, 1 visits today)
Close Search Window