by

Il 6 febbraio 2025, la Commissione Europea ha pubblicato delle linee guida interpretative per chiarire la definizione di “sistema di IA” ai sensi dell’Articolo 3(1) del Regolamento (UE) 2024/1689 (AI Act).

Queste linee guida rispondono all’obbligo previsto dall’art. 96(1)(f) del Regolamento e offre prezioso (quanto atteso) orientamento per stabilire se un determinato sistema possa considerarsi IA ai fini dell’AI Act. L’obiettivo dichiarato, infatti, è facilitare un’applicazione efficace delle prime disposizioni del Regolamento entrate in vigore il 2 febbraio, tra cui rientrano quelle relative all’alfabetizzazione in materia di IA ed ai divieti su determinate pratiche considerate troppo rischiose per i diritti fondamentali.

Elementi costitutivi di un sistema di IA

Le linee guida scompongono in modo chiaro gli elementi (sette, individualmente trattati) che caratterizzano la definizione di “sistema di IA” di cui all’Articolo 3(1) AI Act. Viene sottolineato come tali elementi possano manifestarsi in modo diverso nelle due fasi principali del ciclo di vita di un sistema IA: la fase di costruzione (pre-deployment) e la fase di uso (post-deployment). Non è pertanto necessario che tutti gli aspetti siano sempre presenti in entrambe le fasi.

Di seguito, riportiamo una sintesi degli elementi trattati:

  • Sistema automatizzato

Il termine (come già chiarito all’interno del Considerando 12) si riferisce al fatto che il funzionamento dei sistemi di IA prevede l’uso di macchine, comprendendo sia le componenti hardware che software necessarie al suo funzionamento.

  • Autonomia

Il sistema è progettato per operare con un “certo grado di indipendenza” dall’intervento umano. Nel chiarire la portata del concetto espresso nel Considerando 12, il riferimento vuole escludere sistemi progettati per operare esclusivamente con il coinvolgimento e l’intervento manuale dell’uomo.

  • Adattabilità

Intrinsecamente connesso al tema della autonomia, la adattabilità del sistema può includere la capacità di modificarsi nel tempo, apprendendo dai dati o dall’esperienza anche dopo la sua messa in servizio. Tale adattabilità può manifestarsi attraverso cambiamenti nel comportamento del sistema, generando risultati diversi in risposta agli stessi input con il passare del tempo.

Si chiarisce come, d’altra parte, un sistema può ma non deve necessariamente possedere capacità di adattamento o di autoapprendimento post-deployment per costituire un sistema di IA.

  • Obiettivi del sistema

Un sistema di IA è tipicamente progettato per raggiungere uno o più obiettivi, che possono essere espliciti (perché si riferiscono a obiettivi direttamente codificati dallo sviluppatore nel sistema) ed impliciti (non dichiarati espressamente, ma deducibili dal comportamento o dalle assunzioni di base del sistema).

Se gli obiettivi del sistema sono interni allo stesso, le c.d. finalità previste sono esterne e comprendono il contesto in cui il sistema è stato progettato per essere utilizzato e come deve essere gestito.

  • Deduzione degli output utilizzando tecniche di IA, che possono influenzare ambienti fisici o virtuali

Il sistema deve essere in grado di dedurre in che modo produrre un output partendo dagli input che riceve. Tale capacità risulta essere condizione indispensabile per distinguere i sistemi di IA da altri tipi di sistemi.

Il termine “deduce”, utilizzato nell’articolo 3, paragrafo 1, e chiarito nel considerando 12 del Regolamento, è volutamente ampio e non si limita a un’accezione ristretta del concetto di deduzione/inferenza come capacità di un sistema di ricavare un output da un input, e quindi di dedurre il risultato.

Di conseguenza, la formulazione utilizzata, ossia “deduce, come generare output”, deve essere intesa come riferita alla fase di costruzione, in cui un sistema ricava output attraverso tecniche di IA (che includono machinelearning, supervised/unsperised learning, deep learning, etc.) che innescano la capacità deduttiva.

Come noto, gli output di un sistema IA possono assumere forme diverse: previsioni, contenuti, raccomandazioni o decisioni che possono avere un impatto su un ambiente fisico (ad esempio, il movimento di un robot) o virtuale (processi digitali, interazioni con applicazioni esterne).

Casi esclusi dalla definizione

Le linee guida chiariscono, inoltre, quali sistemi non siano da considerarsi IA perché privi di quella fondamentale capacità deduttiva che deve caratterizzare il sistema. Fra questi:

  • Sistemi basici: sistemi sviluppati e distribuiti per eseguire compiti basati su input o regole manuali, senza alcun “apprendimento, ragionamento o modellazione” in nessuna fase del ciclo di vita del sistema.
  • Sistemi basati su metodi euristici tradizionali: sistemi che risolvono problemi con logiche predeterminate, senza modificare il proprio comportamento basandosi su nuovi dati.
  • Sistemi predittivi semplici: anche se tecnicamente possono essere considerati basati su approcci automatizzati, sono esclusi altresì tutti i sistemi machine-based le cui prestazioni possono essere ottenute attraverso regole di apprendimento statistico di base.

Conclusioni

Per quanto non vincolanti, le linee guida forniscono comunque un primo importante strumento per assistere fornitori ed altri soggetti coinvolti nel valutare se un software possa rientrare nella definizione di “sistema di IA” secondo l’AI Act.

Grazie a una lettura pratica dei sette elementi approfonditi al suo interno, risulta più semplice orientarsi in un quadro normativo caratterizzato da grande complessità.

Sul tema, può essere di interesse “Agenti di intelligenza artificiale: Implicazioni legali dell’intelligenza artificiale autonoma”.

(Visited 1 times, 1 visits today)
Close Search Window