by

Pubblichiamo in italiano la versione inizialmente pubblicata in inglese dai colleghi americani di DLA Piper disponibile QUI.

Il 30 ottobre 2023, la Casa Bianca ha firmato un ordine esecutivo (EO) sull’intelligenza artificiale (AI) sicura e affidabile. L’ordine esecutivo conferisce ampi mandati ai principali dipartimenti esecutivi, coinvolgendo le significative risorse del governo federale in un modo raramente visto al di fuori di una crisi nazionale.

Questi mandati coprono tutti gli aspetti del ciclo di vita dell’AI e si basano su diverse iniziative chiave già adottate dalla Casa Bianca per lo sviluppo e l’utilizzo di un’AI sicura e responsabile negli Stati Uniti. L’EO richiede lo sviluppo (per lo più entro tre-dodici mesi) di standard, pratiche e persino nuove normative per lo sviluppo e l’utilizzo dell’AI nella maggior parte degli aspetti dell’economia e in importanti settori regolamentati come la finanza a dettaglio, il lavoro e l’occupazione, l’assistenza sanitaria, l’istruzione, la sicurezza nazionale e altri, come illustrato più dettagliatamente di seguito.

Fatta eccezione per i nuovi requisiti di rendicontazione per gli sviluppatori di modelli linguistici di grandi dimensioni e cluster di calcolo, la maggior parte delle disposizioni dell’EO non modificano immediatamente i requisiti normativi. Tuttavia, l’EO esorta i regolatori e le agenzie federali a utilizzare le loro autorità esistenti per testare la sicurezza dei sistemi di AI e prevenire danni come la discriminazione, la perdita di posti di lavoro, le minacce straniere ad infrastrutture critiche e la mancanza di talenti. Il documento chiarisce che le risorse e l’autorità del governo federale si concentreranno sull’uso sicuro ed etico dell’AI in ogni aspetto importante del commercio e della società. Si prevede che nei prossimi dodici mesi, con l’adempimento di questi mandati e l’elaborazione di linee guida, standard e regole, verranno introdotti nuovi requisiti.

  1. AI sicura e affidabile

La Legge sulla sicurezza dell’AI si inserisce in un contesto di intensa attività internazionale nel settore dell’AI, con l’Unione Europea che dovrebbe concludere i negoziati per lo sviluppo del quadro normativo proposto per la regolamentazione dell’AI (AI Act) e la riunione della comunità internazionale al Vertice sulla sicurezza dell’AI nel Regno Unito, con l’obiettivo di consolidare la cooperazione globale.

L’EO è l’ultima iniziativa degli Stati Uniti nella corsa all’intelligenza artificiale ed è la prima iniziativa del governo che offre passi pratici che possono e devono essere seguiti sia dalle autorità di regolamentazione che dalle aziende del settore. Ciò contrasta con i precedenti sforzi del governo statunitense, tra cui il “Blueprint for an AI Bill of Rights” e gli impegni volontari assunti dalle principali aziende di intelligenza artificiale all’inizio di quest’anno che, pur essendo lodevoli, sono stati criticati da alcuni per la loro mancanza di “mordente” quando si tratta di obblighi pratici e applicabili.

L’EO si basa su questi mandati e si concentra sulle seguenti aree chiave:

  1. Red-teaming, banchi di prova per l’AI e standard industriali

Migliori pratiche e standard industriali: Una componente centrale del EO è la definizione di linee guida, standard e migliori pratiche per la sicurezza dell’AI. In particolare, il National Institute of Standards and Technology (NIST) del Dipartimento del Commercio (DOC) è incaricato di promuovere standard industriali di consenso per lo sviluppo e l’implementazione di sistemi di AI sicuri e affidabili. Tra gli obiettivi specifici di questo lavoro c’è lo sviluppo di una risorsa complementare al popolare AI Risk Management Framework (NIST AI 100-01), specifica per l’AI generativa.

Linee guida e parametri di riferimento: Oltre allo sviluppo di best practice, l’EO prevede l’avvio di un’iniziativa per la creazione di linee guida e parametri di riferimento per la valutazione e la verifica delle capacità dell’AI, con particolare attenzione alle capacità attraverso le quali l’AI potrebbe causare danni, ad esempio nei settori della sicurezza informatica e della biosicurezza. Questo accompagnerà una nuova serie di linee guida per consentire agli sviluppatori di AI, in particolare di modelli fondazionali a duplice uso, quelli abbastanza potenti da rappresentare un serio rischio per la sicurezza, la sicurezza economica nazionale, la salute o la sicurezza pubblica nazionale, di condurre test di red-teaming dell’AI per consentire l’implementazione di sistemi sicuri e affidabili. Il NIST si coordinerà con il Dipartimento dell’Energia (DOE) e con il Direttore della National Science Foundation (NSF) per garantire la disponibilità di ambienti di test, come i banchi di prova, per sostenere lo sviluppo di tecnologie di AI sicure e degne di fiducia.

Test e monitoraggio del sistema: In tutto l’EO, si pone l’accento sul monitoraggio e sul collaudo continuo dei modelli per garantire che siano implementati in modo sicuro (e continuino a funzionare in maniera consistente). Ad esempio, l’EO prevede che il Consumer Financial Protection Bureau (CFPB) e la Federal Housing Finance Agency (FHFA) debbano valutare diversi aspetti delle loro infrastrutture, tra cui i modelli di sottoscrizione, le perizie automatizzate e i modelli automatizzati di valutazione delle garanzie.

  1. Il Defense Production Act

Sviluppo legale: Nell’ambito della sua attenzione alla sicurezza, l’EO invoca il Defense Production Act (DPA), come modificato, 50 U.S.C. 4501 e seguenti, per garantire e verificare la disponibilità continua di AI sicura, affidabile ed efficace, anche per la difesa nazionale e la protezione delle infrastrutture critiche.

Obblighi del modello fondazionale a doppio uso: Poco dopo l’entrata in vigore dell’EO, il DOC è tenuto a richiedere alle aziende che sviluppano o dimostrano l’intenzione di sviluppare potenziali modelli di fondazione a duplice uso di fornire al governo degli Stati Uniti, su base continuativa, diversi rapporti incentrati sulle informazioni necessarie per monitorare le aree di preoccupazione o di potenziale rischio per la sicurezza degli Stati Uniti. Questi rapporti includono informazioni quali:

  • attività relative alla formazione, allo sviluppo o alla produzione di modelli di fondazione a duplice uso, con particolare attenzione al modo in cui cercano di affrontare le minacce alla sicurezza fisica e informatica
  • proprietà e possesso dei pesi dei modelli di fondazione a duplice uso e misure adottate per proteggere tali pesi
  • i risultati delle prestazioni di qualsiasi modello di base a duplice uso sviluppato nei pertinenti test dell’AI red-team, come indicato sopra e
  • descrizioni di qualsiasi misura associata adottata da un’azienda per soddisfare gli obiettivi di sicurezza e qualsiasi risultato del red teaming che riguardi l’abbassamento della barriera all’ingresso per lo sviluppo, l’acquisizione e l’uso di armi biologiche da parte di attori non statali; la scoperta di vulnerabilità del software e lo sviluppo di exploit associati; l’uso di software o strumenti per influenzare eventi reali o virtuali; la possibilità di auto-replicazione o propagazione; e misure associate per soddisfare gli obiettivi di sicurezza.

Cluster di calcolo su larga scala: l’EO prevede inoltre che il Ministero dell’Interno richieda alle aziende, agli individui o ad altre organizzazioni o entità che acquisiscono, sviluppano o possiedono un potenziale cluster di calcolo su larga scala di segnalare tale acquisizione, sviluppo o possesso, compresa l’esistenza e l’ubicazione di tali cluster e la quantità di potenza di calcolo totale disponibile in ciascun cluster.

  1. La privacy

L’EO affronta la protezione della privacy per i dati che alimentano i sistemi di AI in diversi contesti. Uno dei principi guida dell’EO è che la privacy e le libertà civili degli americani devono essere protette con il progresso dell’AI. L’EO riconosce che l’AI mette a repentaglio la privacy in quanto rende più facile l’estrazione, l’identificazione e lo sfruttamento dei dati personali degli individui, aumentando al contempo gli incentivi a farlo data la necessità di dati di addestramento per i sistemi di AI. La scheda informativa dell’EO invita il Congresso ad approvare una legislazione bipartisan sulla privacy e il Presidente Joe Biden ha chiesto una legislazione federale sulla privacy dei dati durante la cerimonia della firma alla Casa Bianca.

Tecnologie che migliorano la privacy e garanzie di privacy differenziate: l’EO richiede che le agenzie federali utilizzino le politiche e gli strumenti disponibili, comprese le tecnologie di rafforzamento della privacy (PET), per proteggere la privacy e combattere i rischi associati alla raccolta e all’uso improprio dei dati personali. Le PET possono essere qualsiasi soluzione software o hardware, processo tecnico, tecnica o altro mezzo tecnologico per mitigare i rischi per la privacy derivanti dal trattamento dei dati. Per agevolare l’uso delle PET da parte delle agenzie, l’EO incarica il DOC di creare linee guida per valutare l’efficacia delle protezioni differenziali di garanzia della privacy, anche per l’AI. Il direttore dell’NSF dovrà inoltre (i) impegnarsi con le agenzie federali per identificare le attività in corso e le potenziali opportunità di incorporare le tecnologie PET nelle loro operazioni e (ii) dare priorità alla ricerca che incoraggia l’adozione di soluzioni PET per l’uso da parte delle agenzie.

Rete di coordinamento della ricerca: Per far progredire la ricerca e lo sviluppo relativi alle tecnologie PET, il direttore della National Science Foundation finanzierà la creazione di una rete di coordinamento della ricerca (RCN).

Uso da parte del governo federale di informazioni disponibili in commercio: Il direttore dell’OMB (i) identificherà e valuterà le modalità con cui le agenzie federali raccolgono e utilizzano le informazioni disponibili in commercio (CAI), in particolare quelle che contengono informazioni di identificazione personale, comprese quelle ottenute da intermediari di dati, e (ii) rafforzerà le linee guida sulla privacy per le agenzie al fine di mitigare i relativi rischi per la privacy.

Il direttore dell’OMB valuterà inoltre, attraverso una richiesta di informazioni, le possibili revisioni delle linee guida per l’attuazione delle disposizioni sulla privacy dell’E-Government Act del 2002, compreso il modo in cui le valutazioni d’impatto sulla privacy possono essere più efficaci per mitigare i danni alla privacy legati all’AI.

Altri effetti sulla privacy: Tra gli ulteriori effetti dell’EO sulla privacy vi sono:

  • l’incoraggiamento alle agenzie a implementare pratiche di gestione del rischio per garantire la conformità ai requisiti di registrazione, sicurezza informatica, privacy e protezione dei dati;
  • l’obbligo per il Ministero della Difesa di stabilire un piano per l’impegno globale nella promozione e nello sviluppo di standard per l’AI
  • sottolineare che il governo federale applicherà le leggi e i principi esistenti in materia di protezione dei consumatori e adotterà le opportune misure di salvaguardia contro le violazioni della privacy e
  • richiedere al Dipartimento della Salute e dei Servizi Umani (DHHS) di istituire una Task Force HHS per l’AI che svilupperà politiche e quadri di riferimento come dettagliato più avanti.
  1. Sicurezza informatica

L’EO riconosce che, affinché l’AI sia sicura, oltre alle misure sulla privacy è necessario affrontare il tema della cybersecurity.

Infrastruttura statunitense come servizio: L’EO riconosce i rischi legati all’uso di prodotti statunitensi Infrastructure as a Service (IaaS) da parte di attori informatici malintenzionati stranieri e cerca di evitare che i potenti modelli di AI che possono essere creati da questi prodotti cadano nelle loro mani. Di conseguenza, il Ministero dell’Interno proporrà regolamenti che richiedano ai fornitori di IaaS statunitensi di presentare un rapporto “quando un soggetto straniero effettua transazioni con tale fornitore di IaaS per addestrare un modello di AI di grandi dimensioni con potenziali capacità che potrebbero essere utilizzate in attività malevole di tipo informatico”. Questi regolamenti richiederanno inoltre che i fornitori di IaaS statunitensi vietino ai rivenditori stranieri dei loro servizi di fornire i loro servizi a meno che il rivenditore straniero non presenti un rapporto simile.

Definizione delle condizioni tecniche: Il Ministero dell’Economia e delle Finanze determinerà anche l’insieme delle condizioni tecniche necessarie affinché un modello di AI di grandi dimensioni abbia capacità potenziali che potrebbero essere utilizzate in attività malevole di tipo informatico. Fino ad allora, l’EO elenca criteri provvisori, definiti dalla quantità di potenza di calcolo necessaria per crearli, in base ai quali i modelli saranno considerati potenzialmente in grado di essere utilizzati in attività informatiche dannose.

Sicurezza informatica e infrastrutture critiche: Le agenzie competenti dovranno valutare e riferire al Dipartimento per la Sicurezza Nazionale (DHS) i rischi potenziali legati all’uso dell’AI nelle infrastrutture critiche (ad esempio, guasti critici, attacchi informatici). Dovranno inoltre considerare le potenziali mitigazioni.

Linee guida e rapporti sulla sicurezza: Il DHS emetterà linee guida sulla sicurezza per i proprietari e gli operatori di infrastrutture critiche basate sul NIST AI 100-1. Entro otto mesi dall’emanazione di tali linee guida, saranno adottate misure per renderle obbligatorie. Verrà inoltre istituito un Comitato consultivo per la sicurezza dell’AI con il compito di fornire consulenza sul miglioramento della sicurezza, della resilienza e della risposta agli incidenti legati all’uso dell’AI nelle infrastrutture critiche. La prossima primavera il pubblico potrà inoltre attendersi un rapporto del Dipartimento del Tesoro sulle migliori pratiche per le istituzioni finanziarie per gestire i rischi di cybersicurezza specifici dell’AI.

Migliorare le difese informatiche degli Stati Uniti: L’EO riconosce i potenziali benefici dell’AI nel contesto informatico e richiede ai Segretari del DoD e del DHS di condurre ciascuno un progetto pilota operativo per l’impiego di capacità di AI al fine di scoprire e correggere le vulnerabilità nei software, nei sistemi e nelle reti critiche del governo statunitense. Ciascuno di essi pubblicherà un rapporto sulle vulnerabilità trovate e risolte grazie alle capacità dell’AI, nonché sulle lezioni apprese su come utilizzare efficacemente le capacità dell’AI per la difesa informatica.

Altri impatti sulla sicurezza informatica: Tra gli ulteriori effetti dell’EO sulla sicurezza informatica vi sono:

  • Richiedere al Ministero della Difesa di lanciare un’iniziativa per creare linee guida e parametri di riferimento per la valutazione e l’audit delle capacità di AI, con particolare attenzione alle capacità attraverso le quali l’AI potrebbe causare danni, come la sicurezza informatica e la sicurezza informatica.
  • Richiedere alle aziende che sviluppano modelli fondamentali a doppio uso di riferire costantemente al governo federale le informazioni relative alle protezioni di cybersecurity adottate per assicurare l’integrità del loro processo di formazione contro minacce sofisticate.
  1. Commissione Federale del Commercio (FTC) e Commissione Federale delle Comunicazioni (FCC)

L’ambito di applicazione dell’EO si estende oltre le infrastrutture specifiche dell’AI e cerca di indirizzare le agenzie, in particolare la FTC, a considerare come l’AI possa influire sui consumatori e sulle infrastrutture di rete. L’EO incoraggia la FTC a esercitare i poteri esistenti, compreso il potere di regolamentazione. La FTC ha già dichiarato di voler applicare la Sezione 5 del FTC Act, il Fair Credit Reporting Act e l’Equal Credit Opportunity Act come esempi di autorità esistenti per la regolamentazione dell’AI.

Gestione delle reti e dello spettro: L’EO incoraggia la FCC a considerare le azioni che può intraprendere per migliorare l’efficienza nell’uso dello spettro e ampliare le misure per la condivisione dello spettro non federale, dato che l’uso dell’AI aumenta l’uso della larghezza di banda complessiva. Questo obiettivo potrebbe essere raggiunto attraverso il coordinamento con la National Telecommunications and information Administration per creare opportunità e iniziative per la condivisione dello spettro. L’EO chiede inoltre alla FCC di prendere in considerazione metodi per fornire sostegno agli sforzi per migliorare la sicurezza, la resilienza e l’interoperabilità attraverso le tecnologie di prossima generazione che possono costituire la base per la diffusione su larga scala di reti wireless superveloci come il 6G.

Lotta allo spam robotico: L’EO cerca anche di combattere gran parte del rumore prodotto su queste reti attraverso programmi di spam di tipo robocall e robotext. La FCC è incoraggiata a prendere in considerazione l’implementazione di regole che contrastino direttamente questi programmi, assistiti (e per molti versi esacerbati) dalle capacità dell’AI.

  1. Proprietà intellettuale

Nell’ambito della spinta della Casa Bianca verso l’innovazione, l’EO indirizza diversi mandati a chiarire le questioni in via di sviluppo che circondano l’AI e la sua capacità di creare opere inedite.

Posizione sui brevetti: l’EO incarica l’Ufficio brevetti e marchi degli Stati Uniti (PTO) di emanare una guida iniziale che assista sia gli esaminatori dei brevetti sia i richiedenti in merito ai diversi modi in cui l’AI generativa può essere coinvolta nel processo inventivo e a come le relative questioni di invenzione debbano essere analizzate in base alla legge vigente. È inoltre richiesta una guida successiva per affrontare altre questioni e tecnologie emergenti e aggiornare la guida iniziale, se necessario. In particolare, l’EO non richiede alcuna guida sulla registrazione dei marchi.

Chiarimenti sul copyright: l’EO richiede inoltre che il direttore del PTO si consulti con il direttore (Register of Copyrights) dell’US Copyright Office per fornire raccomandazioni per ulteriori azioni esecutive, tra cui la potenziale protezione delle opere create utilizzando l’AI generativa e il trattamento delle opere protette da copyright in relazione all’addestramento dei modelli di AI. Tali raccomandazioni dovranno essere emanate entro 180 giorni dalla pubblicazione da parte dell’Ufficio statunitense per il diritto d’autore dello studio sull’AI e il diritto d’autore, aperto ai commenti del pubblico.

  1. Salute

Riconoscendo i potenziali rischi significativi per l’uso dell’AI in alcuni settori critici, come l’assistenza sanitaria, l’EO prevede le seguenti protezioni per salvaguardare i danni ai pazienti e ai consumatori. Se da un lato si prospettano maggiori orientamenti normativi, l’elaborazione di regole e l’applicazione di norme per l’uso e l’impiego dell’AI da parte delle aziende del settore sanitario e delle scienze della vita, dall’altro si riconosce l’enorme opportunità di migliorare l’assistenza sanitaria, se sviluppata e impiegata in modo appropriato e responsabile, sotto forma di opportunità di finanziamento.

Nuova protezione dei pazienti e dei consumatori: L’EO specifica che il DHHS dovrà:

  • istituire una Task Force HHS per l’AI, incaricata di sviluppare un piano strategico per la diffusione e l’uso responsabile dell’AI nel settore della salute e dei servizi umani;
  • sviluppare una strategia di qualità dell’AI, compreso lo sviluppo di una politica di garanzia e delle esigenze infrastrutturali per consentire la valutazione pre-mercato e la supervisione post-mercato dei sistemi algoritmici di tecnologia sanitaria abilitati all’AI;
  • prendere in considerazione azioni appropriate per far progredire la pronta comprensione e il rispetto delle leggi federali sulla non discriminazione da parte dei fornitori di servizi sanitari e umani che ricevono assistenza finanziaria federale;
  • stabilire un programma di sicurezza dell’AI che definisca un quadro comune per l’identificazione degli errori clinici derivanti dall’AI, un archivio centrale di tracciamento degli incidenti associati che causano danni e raccomandazioni per le migliori pratiche e linee guida informali per evitare i danni; e
  • sviluppare una strategia per regolamentare l’uso dell’AI nel processo di sviluppo dei farmaci.

Applicazione attiva delle protezioni esistenti: Inoltre, l’EO incarica la FTC, già attiva, di “far rispettare le leggi e i principi esistenti in materia di protezione dei consumatori e di adottare misure di salvaguardia adeguate contro le frodi, i pregiudizi involontari, le violazioni della privacy e altri danni causati dall’AI”, al fine di proteggere, tra l’altro, i pazienti dall’uso improprio o dagli errori causati dall’uso dell’AI nell’assistenza sanitaria.

Dare priorità alle sovvenzioni e ai premi dell’HHS: L’EO indica al DHHS di identificare e dare priorità alle sovvenzioni e ad altri finanziamenti per sostenere lo sviluppo e l’uso responsabile dell’AI. In particolare, individua l’avanzamento di strumenti abilitati all’AI che sviluppano profili di risposta immunitaria personalizzati per i pazienti, il miglioramento della qualità dei dati sanitari per supportare lo sviluppo di strumenti di AI per l’assistenza clinica, i programmi di evidenza del mondo reale, la salute della popolazione, la salute pubblica e la ricerca correlata, nonché le sovvenzioni destinate ai programmi di AI per l’equità sanitaria nelle comunità meno servite. L’EO indirizza anche una serie di iniziative per lo sviluppo di sistemi di AI per migliorare la qualità dell’assistenza sanitaria per i veterani.

  1. Minacce chimiche, biologiche, radiologiche e nucleari (CBRN):

Per ridurre i rischi dell’AI in relazione ai CBRN, l’EO intraprende diverse azioni degne di nota, in particolare per quanto riguarda le armi biologiche: il Dipartimento della Difesa deve stipulare un contratto con le Accademie Nazionali delle Scienze, dell’Ingegneria e della Medicina per condurre uno studio volto a valutare i modi in cui l’AI può aumentare i rischi per la biosicurezza e le implicazioni per la sicurezza nazionale dell’uso dei dati associati agli agenti patogeni e agli studi “omici”, oltre a raccomandare modi per mitigare i rischi identificati.

La Sicurezza nazionale valuterà la possibilità che l’AI venga utilizzata in modo improprio per consentire minacce CBRN e prenderà in considerazione i potenziali vantaggi dell’AI per contrastare tali minacce. Un rapporto sarà presentato al Presidente per descrivere i tipi di modelli di AI che possono presentare rischi CBRN e formulare raccomandazioni per regolamentare o supervisionare l’addestramento, l’impiego o l’uso di questi modelli, compresi i requisiti per le valutazioni di sicurezza e le salvaguardie.

L’Office of Science and Technology Policy è incaricato di stabilire un quadro per incoraggiare i fornitori di sequenze di acidi nucleici sintetici a implementare meccanismi di screening completi, scalabili e verificabili per l’approvvigionamento di acidi nucleici sintetici. Tutte le agenzie che finanziano la ricerca nel campo delle scienze della vita richiederanno che l’approvvigionamento di acidi nucleici sintetici avvenga tramite fornitori o produttori che aderiscono al quadro, come requisito per il finanziamento. Il DOC è stato incaricato di sfruttare il quadro di riferimento per sviluppare le specifiche e le migliori pratiche a sostegno dell’implementazione tecnica di tale screening.

Il Dipartimento dell’Energia è incaricato di sviluppare strumenti di valutazione dei modelli di intelligenza artificiale e banchi di prova per l’intelligenza artificiale al fine di ridurre i rischi nei modelli che generano risultati che possono rappresentare minacce o pericoli nucleari, di non proliferazione, biologici, chimici, di infrastrutture critiche e di sicurezza energetica. Il banco di prova specifico ha “lo scopo di proteggersi da queste minacce” e deve anche sviluppare salvaguardie per i modelli, che riducano tali rischi.

  1. Pratiche competitive e innovazione

Al di là degli elementi specifici del ciclo di vita dell’AI, l’EO riconosce i potenziali danni e rischi per la sicurezza nazionale derivanti da un’eccessiva concentrazione del controllo su elementi chiave, come l’accesso ai dati, alla potenza di calcolo e alla tecnologia. In risposta, l’EO attua diverse disposizioni specificamente mirate a promuovere l’innovazione e la concorrenza nel settore.

Supervisione normativa: l’EO richiede che ogni agenzia che sviluppa politiche e regolamenti relativi all’AI utilizzi la propria autorità per promuovere pratiche competitive all’interno dei mercati dell’AI (così come all’interno di altri mercati tecnologici). Ogni agenzia di sua competenza è tenuta a monitorare il settore dell’AI, adottando misure per prevenire collusioni illecite e “impedire alle imprese dominanti di svantaggiare i concorrenti”. Laddove le aziende continuino ad agire in modo sleale e anticoncorrenziale, l’EO incoraggia la FTC a perseguire attivamente le organizzazioni attraverso l’applicazione delle normative esistenti o lo sviluppo di nuove misure specifiche per l’AI.

Programmi di assistenza rivitalizzati per l’AI: in un ulteriore sforzo per aiutare la concorrenza, l’EO attribuisce diverse misure mirate a indirizzare finanziamenti e opportunità alle piccole imprese e agli sviluppatori attraverso la Small Business Administration. Questi programmi, come il Regional Innovation Cluster Program e il Growth Accelerator Fund Competition da 2 milioni di dollari, convoglieranno i finanziamenti verso le organizzazioni più piccole e aumenteranno la consapevolezza generale delle opportunità che gli sviluppatori e i fornitori di AI possono sfruttare nella loro ricerca di innovazione, formazione e sviluppo tecnico dell’AI. Oltre alle nuove misure, l’EO richiede che le agenzie rivedano i programmi esistenti, come il Programma di finanziamento per l’assistenza tecnica e commerciale, per determinare se sono adatti allo scopo. In caso contrario, si prevede una revisione dei criteri di ammissibilità.

Promozione dell’industria dei semiconduttori: l’EO ha inoltre concentrato il suo approccio alla promozione della concorrenza attuando diverse iniziative rivolte all’industria dei semiconduttori. L’EO si basa sulle iniziative esistenti create nell’ambito del Creating Helpful Incentives to Produce Semiconductors (CHIPS) Act del 2022 e incarica il DOC di sviluppare iniziative per incoraggiare la concorrenza nel settore dei semiconduttori. In particolare, il Ministero della Difesa è stato incaricato di implementare strutture flessibili per l’adesione al National Semiconductor Technology Center (anche per le startup e le organizzazioni più piccole), implementare programmi di mentorship per aumentare l’interesse e la partecipazione nel settore e aumentare la disponibilità di risorse per le startup e le piccole imprese in modo che abbiano accesso alle risorse necessarie per competere equamente.

  1. Immigrazione

L’EO riconosce la necessità di lavoratori qualificati all’interno dell’industria tecnologica per perseguire un’AI sicura e affidabile e stabilisce diverse direttive volte ad attrarre e trattenere lavoratori dall’estero attraverso la semplificazione di diversi processi di immigrazione.

Snellimento dei processi di immigrazione: L’EO chiede al Dipartimento di Stato (DOS) e al DHS di snellire il processo di rilascio dei visti per gli immigrati che intendono lavorare con l’AI o con altre tecnologie critiche, compresa la modernizzazione dei percorsi per l’ottenimento dei visti da parte degli esperti di AI. L’EO raccomanda inoltre al DOS di prendere in considerazione la creazione di nuove regole per rendere più facile per i cittadini stranieri con visti H-1B e per quelli che partecipano a programmi di scambio educativo temporaneo lavorare con l’AI senza “inutili interruzioni”.

Reclutamento internazionale: L’EO punta ai lavoratori al di fuori degli Stati Uniti e richiede che diverse agenzie, tra cui il DOS, creino programmi per identificare e attrarre i migliori talenti dell’AI in tutto il settore, comprese le università, gli istituti di ricerca e il settore privato. Ciò deve essere accompagnato da una guida chiara ed esaustiva da parte del DHS, del DOC e del Direttore dell’Ufficio per la politica scientifica e tecnologica che illustri chiaramente come gli esperti possono lavorare negli Stati Uniti e i potenziali vantaggi.

Relazioni periodiche: l’EO riconosce che queste iniziative sono di scarso valore senza una comprensione del loro impatto più ampio. L’EO richiede pertanto che le agenzie, compreso il DOC, pubblichino relazioni pubbliche che illustrino in dettaglio informazioni quali l’attuale tendenza all’uso del processo di immigrazione da parte degli esperti di AI e dove è probabile che emergano lacune nelle attuali competenze.

  1. Istruzione

Sviluppo di risorse per un impiego sicuro: l’EO indica al Dipartimento dell’Istruzione di sviluppare risorse, politiche e linee guida per affrontare “l’uso sicuro, responsabile e non discriminatorio dell’AI nell’istruzione” e di informare le parti sull’impatto che l’AI può avere sulle comunità vulnerabili e poco servite.

Sviluppo di un kit di strumenti per l’AI: l’EO richiede inoltre al Dipartimento dell’Istruzione di sviluppare un “kit di strumenti per l’AI” per aiutare i responsabili dell’istruzione ad attuare le raccomandazioni del Dipartimento sull’uso dell’AI nei contesti educativi. L’EO sottolinea che l’uso dell’AI nel settore dell’istruzione richiederà non solo mitigazioni applicabili in generale – ad esempio, un’adeguata revisione umana dei risultati e il rispetto delle normative sulla privacy – ma anche lo sviluppo di “guardrail specifici per l’istruzione”.

  1. Alloggi

Prevenzione di pregiudizi e discriminazioni: l’EO sottolinea l’importanza di prevenire pregiudizi e discriminazioni nei contesti legati agli alloggi. Per affrontare questo problema, l’EO incoraggia il direttore della FHFA – che supervisiona Fannie Mae e Freddie Mac – e il direttore della CFPB a “valutare i loro modelli di sottoscrizione per individuare eventuali pregiudizi o disparità che colpiscono i gruppi protetti”[9] e a “valutare i processi automatizzati di valutazione delle garanzie e delle perizie in modo da ridurre al minimo i pregiudizi”.

Orientamenti sulla legislazione esistente: l’EO richiede inoltre al Dipartimento per gli alloggi e lo sviluppo urbano di emanare ulteriori orientamenti sull’uso dei sistemi di screening degli inquilini e su come le leggi e i regolamenti esistenti (ad esempio, il Fair Housing Act e l’Equal Credit Opportunity Act) si applichino alla pubblicità digitale per gli alloggi e il credito e incoraggia il direttore del Consumer Financial Protection Bureau a intraprendere gli stessi sforzi.

  1. Lavoro

Approccio incentrato sui lavoratori: l’EO chiarisce che l’amministrazione Biden si concentra sull’impatto potenzialmente negativo dell’AI sulla forza lavoro americana. L’EO sottolinea il ruolo della contrattazione collettiva nel garantire che tutti i lavoratori abbiano un “posto a tavola” nel momento in cui l’AI viene integrata nel luogo di lavoro e mette in guardia contro applicazioni dell’AI che abbiano un impatto negativo sulla qualità del lavoro, che comportino un’indebita sorveglianza dei lavoratori, che danneggino la concorrenza o che creino rischi per la salute e la sicurezza, tra le altre preoccupazioni.

Intervento attivo delle agenzie: oltre a promuovere un approccio più generale incentrato sui lavoratori, l’EO richiede a diverse agenzie chiave di intervenire entro i prossimi sei mesi:

Il Consiglio dei consulenti economici deve preparare una relazione per il Presidente sugli “effetti dell’AI sul mercato del lavoro”.

Il Dipartimento del Lavoro (DOL) è incaricato di presentare al Presidente un rapporto che analizzi le capacità delle agenzie federali esistenti di “sostenere i lavoratori sfollati a causa dell’adozione dell’AI e di altri progressi tecnologici”, che deve valutare se sia possibile utilizzare l’assicurazione contro la disoccupazione e altri programmi e identificare altre opzioni o un ulteriore sostegno federale per i lavoratori sfollati.

La DOL è inoltre incaricata di sviluppare e pubblicare principi e buone pratiche per aiutare i datori di lavoro a mitigare il potenziale impatto negativo dell’AI sul posto di lavoro. Tali principi devono includere misure specifiche che i datori di lavoro possono adottare e devono riguardare i rischi di dislocazione dei posti di lavoro e le opportunità di carriera legate all’AI, le questioni relative alla qualità del lavoro e del luogo di lavoro e le implicazioni della raccolta di dati sui lavoratori da parte dei datori di lavoro legati all’AI.

La DOL è tenuta a emanare “linee guida per chiarire che i datori di lavoro che impiegano l’AI per monitorare o aumentare il lavoro dei dipendenti devono continuare a rispettare le protezioni che assicurano che i lavoratori siano compensati” per le ore lavorate secondo la FLSA.

Il Direttore della NSF è tenuto a dare priorità alle risorse disponibili per sostenere l’istruzione e lo sviluppo della forza lavoro legati all’AI attraverso i programmi esistenti.

Orientamenti sull’AI generativa: per quanto riguarda la forza lavoro federale, l’EO incarica anche il direttore dell’Office of Personnel Management di sviluppare orientamenti sull’uso dell’AI generativa entro 180 giorni, nell’ambito di un’iniziativa più ampia volta a migliorare il livello dei dipendenti federali e a prepararli all’uso dell’AI generativa nelle loro responsabilità.

  1. Cosa possiamo aspettarci in seguito?

A differenza delle precedenti iniziative del governo statunitense, l’EO fa scattare l’orologio per i dipartimenti e le agenzie federali che devono agire in base ai mandati di cui sopra. A partire dalla data dell’EO, ogni dipartimento avrà all’incirca tra i tre e i dodici mesi per adempiere a tali mandati. Durante questo periodo, possiamo aspettarci l’emanazione di nuovi standard e di nuove linee guida sulle misure di applicazione esistenti in tutti i dipartimenti federali.

L’enfasi posta sui test e sul monitoraggio dei sistemi di AI per individuare eventuali danni dovrebbe motivare le aziende a progettare e implementare meccanismi di test ben prima dell’entrata in vigore dei nuovi requisiti.

L’EO e alcune delle sue direttive serviranno probabilmente a delineare i contorni di un’eventuale legislazione sull’AI in sede di Congresso. I legislatori bipartisan stanno attualmente cercando di bilanciare gli imperativi concorrenti di agire rapidamente e di fare le cose per bene.

Il leader della maggioranza del Senato Chuck Schumer (D-NY) ha annunciato a metà maggio che stava lavorando con un piccolo nucleo bipartisan di suoi colleghi – identificati come i senatori Mike Rounds (R-SD), Todd Young (R-IN) e Martin Heinrich (D-NM), presidente del Caucus AI del Senato – per elaborare una legislazione che possa attirare un ampio sostegno bipartisan. Schumer e Young hanno collaborato in modo trasversale all’iniziativa che alla fine è stata promulgata in legge l’anno scorso, il CHIPS and Science Act, che comprendeva finanziamenti per incentivare la ricerca e la produzione di semiconduttori negli Stati Uniti.

A giugno, il senatore Schumer ha annunciato una serie di nove forum sull’intelligenza artificiale che si terranno in autunno per contribuire a integrare e accelerare il tradizionale processo di audizione in commissione ai fini dell’elaborazione di una legislazione completa sull’intelligenza artificiale.

A settembre, i senatori Richard Blumenthal (D-CT) e Josh Hawley (R-MO) hanno annunciato un approccio bipartisan alla regolamentazione dell’AI incentrato su licenze, responsabilità e trasparenza. Il senatore John Thune (R-SD) dovrebbe introdurre una legislazione bipartisan sull’AI insieme alla senatrice Amy Klobuchar (D-MN) in materia di valutazioni d’impatto e certificazione, forse la più completa legislazione in materia di AI fino ad oggi.

Nonostante i passi positivi compiuti da entrambe le parti, i progressi continuano a ritmo lento, con il rischio che il processo rimanga indietro rispetto ai rapidi progressi dell’AI. Molti operatori del settore si augurano quindi che la legge sulla pubblicità genererà un ulteriore slancio per il Congresso e spingerà gli Stati Uniti verso un regime di AI leader a livello mondiale che incoraggi gli investimenti e l’innovazione, garantendo al contempo la protezione di coloro che sono colpiti dall’AI.

Su un simile argomento, il seguente articolo può essere di interesse “Gli ultimi sviluppi sull’EU AI Act introducono cambiamenti”.

(Visited 296 times, 1 visits today)
Close Search Window