Il governo americano ha raggiunto un’importante pietra miliare sull’Intelligenza Artificiale (AI), ottenendo l’impegno volontario delle principali aziende di IA a rispettare le regole per la gestione dei rischi posti da questa tecnologia.
In risposta ai progressi dell’Unione Europea verso l’approvazione dell’AI Act, il Presidente degli Stati Uniti, Biden, ha convocato un incontro alla Casa Bianca con sette importanti aziende di IA: Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI. Durante l’incontro, le aziende si sono impegnate volontariamente a rispettare le regole specifiche necessarie a garantire uno sviluppo sicuro, protetto e trasparente dell’IA.
Cosa prevedono gli impegni volontari sull’AI nei confronti del governo americano?
Questi impegni volontari ruotano attorno a tre principi fondamentali per il futuro dell’IA: sicurezza, protezione e fiducia. Le aziende si sono impegnate a:
- garantire la sicurezza dei prodotti prima della messa sul mercato, conducendo accurati test di sicurezza interni ed esterni dei loro sistemi di IA per affrontare i rischi significativi dell’IA come la biosicurezza, la cybersicurezza e gli effetti più ampi sulla società. Condivideranno inoltre informazioni vitali sulla gestione dei rischi dell’IA e sulle migliori pratiche in tutto il settore, con i governi, la società civile e il mondo accademico;
- investire nella cybersecurity e nelle protezioni contro le minacce dei modelli proprietari e non divulgati. Inoltre, faciliteranno la scoperta e la segnalazione da parte di terzi delle vulnerabilità nei loro sistemi di IA, assicurando una rapida identificazione delle stesse; e
- sviluppare meccanismi tecnici solidi per informare gli utenti quando i contenuti sono generati dall’IA, incorporando funzioni come i sistemi di watermarking. Inoltre, segnaleranno pubblicamente le capacità, i limiti e l’uso appropriato e inappropriato dei loro sistemi di IA, comprendendo sia la sicurezza che i rischi sociali, come l’equità e la parzialità, con particolare attenzione alla ricerca.
Cosa differenzia gli impegni nei confronti del governo americano dall’AI Act dell’UE?
Confrontando gli impegni volontari degli Stati Uniti con la Legge europea sull’IA, emergono tre differenze principali:
- l’EU AI Act è un atto legislativo più dettagliato e strutturato, che definisce un regime specifico basato sui rischi del sistema AI, mentre gli impegni statunitensi consistono in principi generali senza lo stesso livello di dettaglio;
- l’EU AI Act è inteso come un Regolamento UE direttamente applicabile a tutte le entità che rientrano nel suo campo di applicazione, mentre gli impegni statunitensi sono volontari senza sanzioni, limitati alle aziende partecipanti; e
- l’EU AI Act deve ancora essere approvato, con un periodo di transizione prima dell’entrata in vigore, mentre gli impegni amercani sono immediatamente applicabili, sollevando questioni di conformità per i prodotti AI esistenti.
Cosa aspettarsi in futuro?
Nonostante queste differenze, gli approcci degli Stati Uniti e dell’Unione Europea presentano delle similitudini e in ogni caso l’Unione Europea sta lavorando contemporaneamente a un codice di condotta volontario per l’IA. Pur non essendo vincolanti, queste regole possono essere applicate immediatamente e potrebbero allinearsi agli impegni degli Stati Uniti. Anche se non ci saranno sanzioni, i principi alla base dell’AI Act sono in qualche modo presenti in altre legislazioni esistenti. Se le autorità interpretano gli obblighi normativi in linea con il codice di condotta e i principali attori del mercato si conformano, il codice potrebbe essenzialmente diventare una disciplina vincolante.
Questo momento entusiasmante per il futuro dell’AI richiede che le aziende adottino un approccio di lungo termine, abbracciando l’AI e garantendo al contempo la conformità al regime normativo imminente. Con la convergenza degli approcci e l’impegno delle aziende leader nell’AI, il percorso verso un’implementazione responsabile dell’AI è più chiaro che mai.
Per supportare le aziende nella gestione della conformità delle loro soluzioni di AI, DLA Piper ha sviluppato uno strumento di legal tech denominato “Prisca”, che consente di valutare la maturità dei sistemi di intelligenza artificiale rispetto ai principali atti legislativi e standard tecnici in modo efficiente ed economico. Si può guardare una presentazione del prodotto QUI.
Su un argomento simile, si può leggere l’articolo “Cosa prevede l’accordo sull’AI Act raggiunto dal Parlamento europeo“.