by

Il 17 maggio il Consiglio d’Europa ha adottato la Convenzione quadro sull’intelligenza artificiale e i diritti umani. Si tratta del primo trattato internazionale in materia di intelligenza artificiale. Lo scopo è quello di affrontare i rischi che l’uso di tali sistemi può presentare in relazione ai diritti umani, alla democrazia e, in generale, allo Stato di diritto.

Intelligenza Artificiale, trattato, internazionale, Consiglio d’Europa, rischi

La Convenzione contribuisce a formare un quadro comune e armonico nell’approccio che le istituzioni internazionali (europee in primis) intendono adottare al fine di mappare correttamente i rischi generati dai sistemi di IA. Il testo, infatti, è pienamente in linea con quello del Regolamento europeo sui sistemi di intelligenza artificiale (il noto “AI Act”). L’adozione della Convenzione, inoltre, mira ad incoraggiare altri Paesi al di fuori dell’Europa ad adottare misure simili, promuovendo una maggiore coerenza internazionale nella governance dell’IA.

L’obiettivo primario, sancito dall’Articolo 1, è “assicurare che le attività durante l’intero ciclo di vita dei sistemi di IA siano pienamente coerenti con i diritti umani, la democrazia e lo stato di diritto“. A tal fine, il trattato delinea regole applicabili a tutte le fasi del ciclo di vista dei sistemi di IA: progettazione, sviluppo, utilizzo e disattivazione, adottando un innovativo approccio incentrato sulla valutazione e gestione dei rischi.

Cuore dell’impianto normativo è l’Articolo 16, che obbliga le Parti ad adottare misure graduate per “identificare, valutare, prevenire e mitigare i rischi posti dai sistemi di IA, considerando gli impatti effettivi e potenziali“. L’entità di tali misure dovrà naturalmente essere commisurata alla severità e probabilità di accadimento di conseguenze negative.

Inoltre, viene sancito il principio di responsabilità, imponendo di stabilire l’obbligo di “rendere conto per gli impatti negativi sui diritti umani, la democrazia e lo stato di diritto“. L’Articolo 14 prevede poi tutele procedurali e rimedi accessibili per le vittime di violazioni connesse all’uso dell’IA.

Non da ultimo, la Convenzione fissa stringenti requisiti in materia di trasparenza (Art. 8), non discriminazione e parità di genere (Art. 10), protezione della privacy e dei dati (Art. 11). Un focus specifico è posto poi sui rischi per la democrazia, con l’obbligo per le Parti di adottare norme che evitino l’uso distorto dell’IA per minare istituzioni come la separazione dei poteri, l’indipendenza della magistratura e l’accesso alla giustizia (Art. 5).

Un aspetto significativo della Convenzione è l’inclusione di rappresentanti della società civile, dell’industria e del mondo accademico nel processo di negoziazione. Questo approccio inclusivo garantisce che le preoccupazioni e le prospettive di vari stakeholder siano prese in considerazione, migliorando la legittimità e l’efficacia delle norme adottate.

Interessante è poi l’approccio flessibile e “futureproof” scelto dal Consiglio d’Europa. Di fronte alla rapidità con cui i sistemi di IA mutano ed evolvono il Consiglio ha ritenuto opportuno evitare di adottare uno strumento eccessivamente rigido, mitigando il rischio dell’obsolescenza normativa di fronte all’evoluzione della tecnologia (basti pensare alle rilevantissime novità recentemente apportate da OpenAI a ChatGPT con la pubblicazione del nuovo modello 4-omni).

Come spiega il rapporto esplicativo, infatti, i negoziatori hanno volutamente utilizzato formulazioni ampie come “attività nel ciclo di vita dei sistemi di IA” per catturare ogni fase rilevante, attuale e futura. Un’impostazione “tecnologicamente neutrale” per mantenere validità nonostante i veloci progressi dell’innovazione.

Naturalmente, come evidenzia il Consiglio stesso, la promozione della “digital literacy” e delle competenze digitali tra la popolazione costituisce un aspetto essenziale senza il quale la Convenzione rischia di rimanere lettera morta.

In ogni caso, l’intenzione del Consiglio è quella di gettare le basi per uno sviluppo etico e responsabile dell’Intelligenza Artificiale, contemperando innovazione tecnologica e piena tutela dei diritti e delle libertà fondamentali. Un passo di portata rilevantissima che dovrà ora essere concretizzato negli ordinamenti nazionali.

La Convenzione quadro sarà ufficialmente aperta alla firma il 5 settembre a Vilnius. Questo evento segnerà un importante passo avanti nella cooperazione internazionale per affrontare le sfide e sfruttare le opportunità presentate dall’IA in modo responsabile e rispettoso dei diritti fondamentali.

Per un ulteriore approfondimento sul IA e i recenti sviluppi normativi può interessare l’articolo “L’AI Act è stato approvato: Cosa devono fare le aziende ora?

(Visited 56 times, 1 visits today)
Close Search Window