Il Parlamento europeo ha approvato una nuova e più ampia definizione di intelligenza artificiale nell’ambito dell’AI Act, mentre anche i politici statunitensi spingono per l’introduzione di una normativa.
Una definizione di intelligenza artificiale che include l’IA generativa nell’ambito dell’AI Act comunitario
Nella corsa alla regolamentazione del mercato in rapida evoluzione dell’intelligenza artificiale (IA), l’Unione europea (UE) sta compiendo notevoli passi per creare una disciplina che bilanci innovazione e protezione. In un precedente articolo abbiamo parlato dell’approvazione da parte del Consiglio dell’UE di una proposta di legge sull’IA. Ora la proposta è nelle mani del Parlamento europeo e le autorità europee stanno spingendo per definire più chiaramente l’IA.
Ma è più facile a dirsi che a farsi, poiché uno dei maggiori ostacoli alla regolamentazione dell’IA è la mancanza di una definizione standard. Creare un quadro normativo coeso è quasi impossibile senza una comprensione condivisa di cosa sia l’IA e di cosa possa fare. Per questo motivo i politici dell’UE stanno lavorando per trovare una nuova definizione che possa fornire chiarezza e coerenza.
La nuova definizione di intelligenza artificiale descriverebbe l’IA come
un sistema di machine learning progettato per operare con vari livelli di autonomia che può, per obiettivi espliciti o impliciti, generare risultati come previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali.
La formulazione è stata ampliata per eliminare qualsiasi riferimento ai sistemi di “machine learning” e include una previsione per garantire che la nuova definizione comprenda i modelli di IA generativa come ChatGPT.
Ma la definizione di IA è solo la punta dell’iceberg. Le autorità dell’UE devono anche concordare varie misure per garantire che l’IA sia sviluppata e utilizzata in modo etico e responsabile. L’AI Act comprende proposte per la valutazione obbligatoria dei rischi per i sistemi di IA ad alto rischio e per la creazione di un sistema di certificazione che garantisca la conformità alle normative dell’UE. Il regolamento prevede inoltre la creazione di un Consiglio europeo per l’IA, con il compito di supervisionare lo sviluppo e l’impiego dei sistemi di IA nell’UE, garantendo che essi rispettino gli standard etici e i diritti umani e siano privi di pregiudizi.
La necessità di un’azione rapida sta diventando sempre più urgente con l’accelerazione del mercato dell’IA dovuta a innovazioni come ChatGPT. Con una posta in gioco così alta, i legislatori dell’UE stanno lavorando instancabilmente per bilanciare i potenziali benefici dell’IA e i rischi che essa comporta per la privacy, la sicurezza e i diritti umani. In ultima analisi, gli sforzi dell’UE per regolamentare l’IA avranno un impatto di vasta portata, modellando il modo in cui questa potente tecnologia viene sviluppata e utilizzata in tutto il mondo.
I politici statunitensi fanno eco all’appello per una regolamentazione dell’intelligenza artificiale
La Commissione sull’intelligenza artificiale della Camera di commercio degli Stati Uniti per la competitività, l’inclusione e l’innovazione ha appena pubblicato un report sull’intelligenza artificiale. Questo report è una chiamata all’azione, che sollecita un quadro normativo basato sul rischio per l’impiego responsabile ed etico dell’intelligenza artificiale.
Secondo la Presidente e CEO della Camera Suzanne P. Clark, “l‘Intelligenza Artificiale è una tecnologia di trasformazione che promette di aumentare le opportunità economiche e i redditi, di accelerare i progressi nei risultati sanitari e nella qualità della vita e di inaugurare una nuova era di innovazione tecnologica che darà vita a imprese, industrie e posti di lavoro non ancora immaginati“. La Commissione ha lavorato per oltre un anno allo sviluppo di raccomandazioni politiche e best practice del settore, fornendo ai politici e ai leader aziendali una tabella di marcia per massimizzare i benefici e mitigare i rischi.
Le normative sull’IA stanno andando nella giusta direzione?
Considerato lo scenario attuale, sembra che le normative sull’intelligenza artificiale saranno adottate molto presto. L’ostacolo principale è se saranno in grado di regolare il rapido ritmo dell’innovazione intorno all’IA. Il ChatGPT 4.0 dovrebbe essere lanciato a breve e sarà probabilmente una nuova rivoluzione. In questa fase, ogni disciplina rischia di essere obsoleta non appena entra in vigore, e questo scenario potrebbe ritardare l’innovazione.
Su un tema simile, potrebbe essere interessante il seguente articolo “Come sfruttare il potenziale dell’intelligenza artificiale (AI) generativa gestendo le problematiche legali“.