by

L’articolo 15 dell’EU AI Act richiede che i sistemi di intelligenza artificiale ad alto rischio soddisfino un livello adeguato di accuratezza, robustezza, sicurezza e cybersecurity.

Un report dettagliato del servizio per la scienza e la conoscenza della Commissione europea, offre spunti di riflessione e analizza gli obblighi previsti dall’EU AI Act in termini di cybersicurezza.

Infatti, come qualsiasi altra legge dell’UE, l’AI Act è basata su principi e le aziende dovranno dimostrare la conformità attraverso la documentazione a sostegno delle loro pratiche. L’articolo 9.1 della versione dell’AI Act approvata dal Parlamento europeo prevede solo che:

I sistemi di intelligenza artificiale ad alto rischio devono essere progettati e sviluppati secondo il principio della sicurezza per progettazione e per impostazione predefinita. Alla luce dello scopo che si prefiggono, devono raggiungere un livello adeguato di accuratezza, robustezza, sicurezza e cybersicurezza e funzionare in modo coerente sotto questi aspetti per tutto il loro ciclo di vita. La conformità a questi requisiti comprende l’implementazione di misure all’avanguardia, in base allo specifico segmento di mercato o ambito di applicazione.

Gli obblighi derivanti dall’articolo 9 dell’AI Act si sono concretizzati in quattro principi guida:

  1. L’AI Act si concentra sui sistemi di intelligenza artificiale

Un sistema di intelligenza artifciale è definito dall’articolo 3, paragrafo 1, ed è un software che contiene diversi modelli di AI e componenti integrali come interfacce e database. È fondamentale comprendere che i modelli di AI, sebbene essenziali, non rappresentano il sistema di AI nel suo complesso. Gli obblighi di cybersecurity previsti dall’AI Act si applicano all’intero sistema di AI, non solo ai suoi componenti interni.

Questo obbligo sembra ovvio, ma non è sempre così. Spesso vediamo clienti che immettono sul mercato sistemi di AI che combinano diversi modelli di AI, anche di fornitori diversi, che vengono poi incorporati in un unico sistema di AI. Normalmente, si tende a concentrarsi sui singoli moduli piuttosto che sulla loro interazione, il che potrebbe lasciare spazio a potenziali bug che potrebbero essere sfruttati durante un attacco informatico.

  1. La conformità alla legge sull’AI richiede necessariamente una valutazione del rischio di cybersecurity

Per garantire che un sistema di AI sia ad alto rischio è necessaria una meticolosa valutazione del rischio di cybersecurity, che colleghi i requisiti a livello di sistema ai singoli componenti. Questo compito comporta l’identificazione e la gestione di rischi specifici, traducendo i requisiti generali di cybersecurity della normativa in mandati specifici per i componenti del sistema.

La valutazione del rischio di cybersecurity fa parte del sistema di gestione del rischio di cui all’articolo 9 della legge sull’AI. Questo requisito ricorda alle aziende quanto sia importante la capacità di documentare la conformità piuttosto che limitarsi a eseguire le attività richieste. Ci capita continuamente di consigliare clienti che eseguono le attività richieste, ma non hanno una procedura che le regolamenta e non documentano gli esiti delle valutazioni. Questo approccio non è in linea con l’AI Act che, come il GDPR, si basa sul principio di responsabilità e richiede alle aziende di fornire prove delle loro attività di conformità.

  1. La sicurezza dei sistemi di AI richiede un approccio integrato e continuo che utilizzi pratiche collaudate e controlli specifici per l’AI

La creazione di sistemi di AI solidi richiede l’integrazione delle pratiche di cybersecurity esistenti con misure specifiche per l’AI, incarnando un approccio olistico basato su principi di sicurezza approfondita e di security by design che devono essere applicati durante l’intero ciclo di vita del prodotto.

Questo requisito è fondamentale per i sistemi di AI che imparano continuamente dal loro utilizzo e possono quindi generare bug e punti deboli potenzialmente sfruttabili dagli attori delle minacce informatiche. Gli hacker hanno infatti degli spider che monitorano continuamente i sistemi cercando di individuare una “porta” che possa essere sfruttata.

  1. Lo stato dell’arte della sicurezza dei modelli di intelligenza artificiale presenta dei limiti

Data la molteplicità della diversa maturità delle attuali tecnologie di AI, è indispensabile riconoscere che non tutte sono adatte a scenari ad alto rischio, a meno che non vengano affrontate le loro carenze in termini di cybersecurity. Soprattutto per le tecnologie emergenti, la conformità può essere raggiunta solo adottando l’approccio olistico precedentemente menzionato, a causa delle limitazioni intrinseche.

L’adozione di standard approvati può generare una presunzione di conformità. Tuttavia, è fondamentale ricordare che le aziende non possono garantire che non si verifichi alcun attacco informatico, ma devono dimostrare di aver eseguito tutto ciò che è necessario per garantire la conformità. E questo aspetto è rilevante anche per difendere l’azienda in relazione a potenziali richieste di risarcimento.

Per aiutare le aziende a garantire la conformità dei loro sistemi di intelligenza artificiale, DLA Piper ha sviluppato PRISCA AI Compliance, una soluzione tecnologica legale che facilita la valutazione della maturità dei sistemi di intelligenza artificiale. Per saperne di più QUI

Inoltre, su un argomento simile, potete trovare interessante il seguente articolo “Report ENISA sulla cybersicurezza dell’intelligenza artificiale e la sua standardizzazione”.

(Visited 344 times, 3 visits today)
Close Search Window