Con comunicato stampa del 4 maggio scorso l’autorità antitrust del Regno Unito, la Competition and Markets Authority (CMA), ha informato dell’avvio di un’indagine (Initial Review) relativa all’impatto dei sistemi di intelligenza artificiale denominati “foundation models” sulla concorrenza e sulla tutela dei consumatori.
I foundation models sono sistemi basati sull’intelligenza artificiale (AI), che comprendono i c.d. Large Language Models (modelli linguistici) e sistemi di intelligenza artificiale generativa, sviluppati mediante l’elaborazione di ampie quantità di dati e che possono avere diverse applicazioni come, ad esempio, i “chatbot” o la creazione di immagini a fini artistici o commerciali.
L’indagine della CMA fa seguito all’adozione nel mese di marzo 2023 del Libro Bianco sull’AI (intitolato “A pro-innovation approach to AI regulation”), con il quale il Governo britannico ha affidato alle autorità regolamentari del Regno Unito, inclusa l’autorità antitrust, il compito di analizzare come gli sviluppi dell’AI possano coniugarsi con varie esigenze fondamentali, quali, ad esempio, sicurezza, trasparenza, equità e responsabilità.
Al fine di realizzare tale compito, con questa Initial Review la CMA intende comprendere: (i) come i mercati dei foundation models e il loro utilizzo possano evolvere nel tempo; (ii) quali siano le potenziali opportunità e i possibili rischi che l’evoluzione di tali mercati possa comportare per la concorrenza e la tutela dei consumatori; (iii) quali siano i principi più idonei per sostenere il continuo sviluppo dei mercati riguardanti l’intelligenza artificiale, in modo da supportare l’innovazione e, al contempo, far sì che si realizzino benefici per individui, imprese e più in generale per l’economia.
Nel documento di avvio dell’indagine la CMA spiega che tale analisi è anche in linea con il suo obiettivo prioritario di assicurare una concorrenza effettiva nei mercati emergenti. Nel medesimo documento l’autorità antitrust UK chiarisce che la Initial Review si focalizzerà su tre tematiche principali:
- il contesto competitivo e le barriere all’ingresso rilevanti nello sviluppo dei foundation models. Sotto questo profilo, la CMA intende indagare il funzionamento delle attuali dinamiche concorrenziali nello sviluppo dei foundation models e se queste possono essere migliorate alla luce degli sviluppi del settore. A questo scopo la CMA analizzerà, tra l’altro, le potenziali barriere all’ingresso (come ad esempio l’accesso ai dati, alle risorse per l’elaborazione di tali dati e ai finanziamenti necessari) nonché se la possibilità di accesso e utilizzo dei foundation models possano rafforzare la posizione delle imprese più grandi;
- l’impatto che i foundation models possono avere sulla concorrenza in altri mercati, come ad esempio in quelli di alcune tipologie di software. Come evidenzia la CMA, molte aziende stanno incorporando tali modelli nei loro prodotti e servizi, e l’autorità ipotizza che tale situazione potrebbe far sorgere criticità anticoncorrenziali, laddove, ad esempio, l’accesso ai foundation models divenisse necessario per competere efficacemente in alcuni mercati e tale accesso fosse controllato o impedito da grandi player del mercato. Un simile scenario, come evidenziato dall’autorità, potrebbe pregiudicare l’innovazione e la concorrenza nonché comportare un danno per utenti ed imprese;
- la tutela dei consumatori. Se da un lato – osserva la CMA – i foundation models e i servizi basati sull’AI potrebbero produrre benefici a favore dei consumatori, dall’altro occorre valutarne i potenziali rischi. La CMA analizzerà quindi se i foundation models che si stanno sviluppando siano conformi agli obblighi posti dalla normativa in materia di tutela dei consumatori.
Secondo quanto affermato dall’autorità britannica, i risultati dell’analisi costituiranno tra l’altro la base per raccomandazioni eventualmente rivolte dalla CMA ad altri soggetti istituzionali nonché per eventuali linee guida destinate agli operatori attivi nei vari livelli del mercato.
Le parti interessate potranno trasmettere i propri contributi ai fini dell’iniziativa in commento entro il 2 giugno 2023. Come reso noto dalla CMA, gli esiti delle analisi svolte nell’ambito dell’Initial Review saranno pubblicati nel mese di settembre 2023.
Su un simile argomento può essere interessante l’articolo “Cybersecurity nell’era dell’intelligenza artificiale (IA): evoluzione delle minacce e delle difese”.
Autori: Massimo D’Andrea e Flaminia Perna