by

A pochi mesi dall’adozione dell’AI Act nell’Unione Europea, un gruppo bipartisan di senatori statunitensi ha introdotto una nuova roadmap per guidare il Congresso nella regolamentazione e nello sviluppo dell’intelligenza artificiale (AI) e promuovere l’innovazione.

Parallelamente, quasi tutti gli stati degli Stati Uniti, più recentemente il Colorado, si sono mossi per introdurre proposte di legge relative all’AI, molte delle quali con un focus specifico sulle problematiche legate ai deepfake, anche se ad oggi poche hanno visto un’implementazione concreta.

Innovazione e priorità legislative

Il rapporto di 20 pagine intitolato “Driving U.S. Innovation in Artificial Intelligence”, pubblicato il 15 maggio dal gruppo di lavoro sull’AI del Senato degli Stati Uniti, si concentra sulla promozione dell’innovazione affrontando al contempo i potenziali rischi associati alla tecnologia AI. A differenza dell’AI Act adottato dai vicini europei, questa roadmap mira a informare gli sforzi legislativi senza imporre regole rigide allo sviluppo e utilizzo di AI che, dalla prospettiva statunitense, potrebbero ostacolarne la crescita.

Dietro la proposta della National Security Commission on Artificial Intelligence, la roadmap raccomanda al Congresso di stanziare 32 miliardi di dollari all’anno per l’innovazione dell’AI. Un finanziamento significativo, di cui è stata sottolineata l’importanza al fine di consolidare la leadership degli Stati Uniti nel campo dell’AI, in particolare in settori come la sanità, in cui il potenziale rivoluzionario dell’AI è solo agli inizi.

Accanto alle proposte di finanziamento, la roadmap incoraggia una cauta accelerazione in ambito normativo. Quale risultato di una serie di “forum di approfondimento sull’AI” che hanno coinvolto oltre 150 esperti di vari settori, la roadmap pur non includendo specifiche proposte legislative, offre una serie di spunti diretti a guidare i legislatori nelle future proposte legislative.

Tra i temi centrali in cui viene stata incoraggiata una legislazione mirata sono inclusi:

  • Indicazione di requisiti di trasparenza per i sistemi di AI, tali da bilanciare innovazione e gestione del rischio.
  • Previsione di incentivi per gli sviluppatori a fornire informazioni sulla provenienza dei contenuti per i software integrati con AI.
  • Protezione contro utilizzi non autorizzati del nome, dell’immagine, della voce o del volto di un individuo.
  • Aumento della consapevolezza del pubblico generale sul ruolo svolto dall’AI nella vita quotidiana.
  • Adozione di strumenti di ricerca e sviluppo per aiutare a gestire i rischi dell’IA, in particolare nei settori ad alto rischio come la finanza, la sanità e l’edilizia abitativa.

Considerata inoltre la stretta connessione tra AI e dati personali, il documento promuove l’adozione una legislazione federale sulla privacy per affrontare, in maniera coesa questioni quali minimizzazione dei dati, sicurezza, diritti dei consumatori, regolamentazione dei broker di dati e i requisiti di consenso che hanno un impatto orizzontale nello sviluppo e utilizzo di sistemi di AI.

Più in generale, il gruppo di lavoro suggerisce in via preferenziale di revisionare le normative esistenti per valutarne l’adeguatezza nell’affrontare i problemi legati all’AI, considerata in particolare la natura opaca di alcuni di tali sistemi.

Approccio complessivo e problemi legati all’IA

Nell’ottica di adottare un approccio omnicomprensivo e condiviso, il gruppo di lavoro ha sollecitato il Congresso a collaborare sulla legislazione relativa all’AI, definendo in primo luogo i termini chiave del settore e mantenendosi aggiornato sulle iniziative dell’AI del ramo esecutivo. A questo, si aggiungono richieste più specifiche, tra cui una ricerca intersettoriale sull’AI da parte del governo, un supporto infrastrutturale per il National Institute of Standards and Technology e un potenziamento delle capacità per il Bureau of Industry and Security, sempre nell’ottica di assicurare un controllo costante ma non opprimente sull’evoluzione del settore.

La roadmap affronta anche una serie di questioni problematiche emerse a seguito dei rapidi sviluppi dell’IA, in particolare:

  • Protezione per i bambini: il gruppo ha sollecitato lo sviluppo di una legislazione per proteggere i bambini dai potenziali danni online causati dall’AI, assicurando che le aziende adottino misure ragionevoli per considerare tali rischi nella progettazione e nel funzionamento dei prodotti. Inoltre, il gruppo di lavoro sull’AI è preoccupato per i dati che dimostrano l’impatto dei social media sulla salute mentale e sostiene ulteriori studi e azioni da parte delle agenzie competenti per comprendere e affrontare questo problema.
  • Social scoring: il gruppo ha evidenziato i rischi associati al social scoring tramite AI e ha incoraggiato una legislazione per vietare questa pratica, proteggendo la libertà fondamentale dei cittadini statunitensi.
  • Forza lavoro: il gruppo ha sottolineato la necessità di formare e riqualificare i dipendenti per adattarsi a un’economia guidata dall’AI, suggerendo di sfruttare programmi esistenti come lo S. Digital Service e i Presidential Innovation Fellows per attrarre e trattenere talenti nell’AI.
  • Regolamentazione dei deepfake: il Senate Rules Committee ha recentemente avanzato una legislazione bipartisan per proteggere le elezioni dai contenuti ingannevoli generati dall’AI, inclusi i deepfake. La roadmap supporta questi sforzi e chiede regolamentazioni per proteggere contro l’uso non consensuale di immagini intime generate dall’IA.

Infine, alla luce dei molteplici e diversificati rischi che i sistemi di AI possono presentare, il gruppo di lavoro esorta le società a effettuare test approfonditi dei sistemi di AI per valutare e prevenire possibili danni, impedendo l’immissione nel mercato di quelli che non soddisfano determinati standard di sicurezza. Ai fini della valutazione del rischio, la roadmap raccomanda l’applicazione di metodologie flessibili, che tengano conto e bilancino adeguatamente le nuove capacità dell’AI, la protezione delle informazioni proprietarie e promuovano l’innovazione nel settore.

Legislazione nazionale emergente nel settore dell’AI

Sebbene il Congresso non abbia ancora adottato una legge specifica in materia di AI, la roadmap getta le basi per una discussione più approfondita sulle previsioni normative, regolandone il potenziale e sfruttando il potere tecnologico.

Allo stesso tempo, in assenza di chiare regole a livello federale, gli stati degli Stati Uniti si sono mossi introducendo previsioni nazionali che, in maniera più o meno diretta, regolano alcune delle principali questioni sorte con lo sviluppo dell’AI. A marzo 2024, lo Utah è stato il primo stato a emanare uno statuto mirato sull’AI per tutelare i consumatori da pratiche ingannevoli perpetrate tramite l’utilizzo di AI generativa. Altri stati, tra cui California, Connecticut, Delaware e Indiana, hanno integrato le loro leggi sulla privacy dei dati con disposizioni specifiche in materia di profilazione, che impattano direttamente anche l’utilizzo dell’AI. Più recentemente, l’8 maggio, i legislatori del Colorado hanno varato una legge innovativa sull’AI che presenta significative affinità con l’AI Act dell’UE. La legge adotta infatti un approccio basato sul rischio, introducendo regole per i sistemi ad alto rischio e definendo linee guida per la divulgazione dell’utilizzo dell’AI.

Numerose altre proposte sono attualmente in fase di discussione a livello nazionale. Tuttavia, la principale preoccupazione riguarda la possibilità di un panorama politico frammentato in assenza di un quadro federale. Questa frammentazione, anziché promuovere l’innovazione, potrebbe invece portare a un sistema regolamentare complesso e intricato.

Su un argomento simile può essere d’interesse il podcast: “Artificial Intelligence & Media Unleashed: Exploring the Opportunities and Legal Challenges

(Visited 37 times, 1 visits today)
Close Search Window