by

La Commissione europea ha avviato una consultazione sui sistemi di AI ad alto rischio per sostenere l’adozione dell’atto di esecuzione ai sensi dell’articolo 6, paragrafo 2, dell’AI Act, che rappresenta un passo fondamentale per qualsiasi tipo di attività commerciale.

Con l’inizio dell’adozione graduale dell’AI Act in tutta l’Unione europea, uno dei suoi elementi più critici, ovvero la classificazione dei sistemi di AI ad alto rischio, è ora al centro dell’attenzione. La Commissione europea sta raccogliendo feedback attraverso una consultazione pubblica sull’AI ad alto rischio che definirà le modalità di applicazione pratica dei requisiti normativi più rigorosi.

Contesto: l’AI Act e la categoria ad alto rischio

L’AI Act, entrato in vigore il 1° agosto 2024, istituisce il primo quadro normativo completo a livello dell’UE per la regolamentazione dell’intelligenza artificiale. Esso mira a creare un mercato unico per un’AI sicura e affidabile, salvaguardando i diritti fondamentali, la democrazia e lo Stato di diritto.

La legge adotta un approccio basato sul rischio, classificando i sistemi di AI in quattro categorie: rischio inaccettabile (vietato), rischio elevato, rischio limitato e rischio minimo. Tra questi, i sistemi di AI ad alto rischio sono soggetti agli obblighi più rigorosi. Essi comprendono i sistemi di AI che:

  1. fungono da componenti di sicurezza in prodotti disciplinati dal diritto dell’UE (articolo 6, paragrafo 1, e allegato I), oppure
  2. che presentano rischi significativi per la salute, la sicurezza o i diritti fondamentali in settori sensibili quali l’istruzione, l’occupazione, l’applicazione della legge e i servizi pubblici (articolo 6, paragrafo 2, e allegato III).

Questi sistemi devono soddisfare requisiti tecnici e organizzativi dettagliati, tra cui la gestione dei rischi, la trasparenza, la supervisione umana e le valutazioni di conformità prima dell’immissione sul mercato.

In cosa consiste la consultazione sull’AI ad alto rischio?

A norma dell’articolo 6, paragrafo 5, dell’AI Act, la Commissione europea è incaricata di adottare, entro il 2 febbraio 2026, linee guida che spieghino come attuare l’articolo 6 nella pratica. Ciò include come interpretare i criteri di classificazione e come applicare le esenzioni di cui all’articolo 6, paragrafo 3. La Commissione deve inoltre fornire esempi pratici di sistemi di IA che devono essere classificati come ad alto rischio e di quelli che non devono esserlo.

A sostegno di questo processo, la Commissione ha avviato una consultazione sull’IA ad alto rischio, aperta per sei settimane (dal 6 giugno al 18 luglio 2025). I risultati serviranno da base sia per le linee guida sulla classificazione che per gli obblighi applicabili lungo tutta la catena del valore dell’AI.

Chi dovrebbe partecipare?

La consultazione è mirata, ma ampiamente inclusiva. Sono graditi i commenti di:

  • Fornitori e utilizzatori di sistemi di AI
  • Organismi industriali e associazioni
  • Autorità pubbliche e autorità di regolamentazione
  • Il mondo accademico e gli esperti indipendenti
  • Le organizzazioni della società civile

I partecipanti possono scegliere quali parti del questionario compilare e sono vivamente incoraggiati a fornire esempi pratici e scenari reali che possano contribuire all’elaborazione delle linee guida definitive.

Struttura del questionario di consultazione

La consultazione è suddivisa in cinque sezioni principali:

  1. Articolo 6, paragrafo 1 – AI nei prodotti regolamentati

Riguarda le domande sui sistemi di AI integrati in prodotti regolamentati (ad esempio macchinari, dispositivi medici) e il concetto di “componenti di sicurezza” di cui all’allegato I.

  1. Articolo 6, paragrafo 2 – Casi d’uso settoriali nell’allegato III

Si concentra sui casi d’uso in settori quali l’identificazione biometrica, l’istruzione, l’occupazione, l’applicazione della legge e i servizi pubblici. Affronta inoltre le esenzioni di cui all’articolo 6, paragrafo 3, per i sistemi che, pur essendo elencati, potrebbero non presentare un rischio significativo.

  1. Domande generali sulla classificazione

Comprende domande sullo “scopo previsto” dei sistemi di AI, sulle sovrapposizioni tra gli allegati I e III e sul trattamento dei sistemi di AI per uso generico.

  1. Requisiti e obblighi della catena del valore

Richiama contributi sugli obblighi tecnici e procedurali per l’IA ad alto rischio, compresi i sistemi di gestione della qualità, le valutazioni di conformità e i ruoli dei vari attori ai sensi dell’articolo 25 dell’AI Act.

  1. Revisione annuale dell’allegato III e dell’articolo 5

Raccoglie feedback per la revisione annuale obbligatoria dell’elenco dei casi d’uso ad alto rischio e delle pratiche di AI vietate.

Perché questa consultazione sull’AI ad alto rischio è fondamentale

La posta in gioco è alta. I sistemi di AI classificati come ad alto rischio dovranno soddisfare norme complete che riguardano:

  • Governance e qualità dei dati
  • Meccanismi di controllo umano
  • Obblighi di trasparenza
  • Robustezza, accuratezza e sicurezza informatica
  • Valutazione della conformità prima dell’immissione sul mercato

Per i fornitori, ciò significa implementare sistemi di gestione della qualità e garantire la piena conformità prima di immettere un sistema sul mercato. I distributori, a loro volta, sono responsabili del monitoraggio dell’utilizzo, della garanzia di un controllo adeguato e della trasparenza nei confronti delle persone interessate.

Dando forma alla consultazione sull’AI ad alto rischio, le parti interessate hanno l’opportunità di:

  • Influenzare l’ambito di applicazione e l’applicabilità della classificazione ad alto rischio
  • Evitare oneri normativi sproporzionati
  • Chiarire l’interazione tra l’AI Act e altre normative dell’UE
  • Definire le future strategie di applicazione e la certezza del diritto

Calendario e prossime tappe

📅Termine per la consultazione: 18 luglio 2025

📝Scadenza per le linee guida di attuazione: 2 febbraio 2026

📜 Conformità totale per i sistemi di IA ad alto rischio richiesta entro: 2 agosto 2026

📍 Accedi alla consultazione qui: https://ec.europa.eu/eusurvey/runner/AIhighrisk2025

Conclusione

La consultazione sull’AI ad alto rischio segna una tappa fondamentale nell’attuazione dell’AI Act. Che le aziende stiano sviluppando l’AI, implementandola in settori critici o pianificando di sfruttarla, questa è l’occasione per plasmare il futuro della legge sull’AI. Noi di DLA Piper assistiamo i clienti su questo tema, non esitate a contattarci se desiderate discuterne.

Su un argomento simile può essere d’interesse l’articolo: “Terza bozza del Codice di condotta per l’AI per finalità generali: aggiornamenti chiave e implicazioni per gli stakeholder dell’AI generativa

(Visited 1 times, 1 visits today)
Close Search Window