L’Organizzazione internazionale delle commissioni dei valori mobiliari (“IOSCO”) ha pubblicato il Final Report sulla regolazione e supervisione degli intermediari di mercato e dei gestori patrimoniali nell’uso dell’intelligenza artificiale (AI) e del machine learning (ML) sui servizi finanziari.
Il report nasce dall’assunto che le nuove tecnologie stiano acquisendo un’importanza sempre crescente nel mercato finanziario, in quanto in grado di aumentare la velocità di esecuzione dei servizi di investimento, nonché ridurne il costo. Il Report si pone l’obiettivo di definire le misure necessarie da adottare al fine di fronteggiare i possibili rischi derivanti dall’utilizzo dell’intelligenza artificiale e del machine learning nell’ambito dei servizi finanziari da parte dei suddetti soggetti.
In particolare, dopo aver lanciato una consultazione su una guida recante misure di ausilio per i regolatori e aver successivamente racchiuso tutte le risposte ricevute nel Report di Consultazione di giugno 2020, la IOSCO oggi propone, tramite il report, una guida, per i propri membri, nella supervisione degli intermediari di mercato e dei gestori patrimoniali che utilizzino l’intelligenza artificiale e il machine learning.
Nello specifico, tale guida consiste in sei misure che riflettono degli standard di condotta che tali soggetti sono invitati a rispettare nell’uso della tecnologia. Nonostante non si tratti di un obbligo, i membri IOSCO sono fortemente incoraggiati a considerare tali misure. A tal riguardo, i regolatori dovrebbero considerare di richiedere a intermediari e gestori di:
- incaricare un senior management, composto da uno o più soggetti competenti in materia, responsabile della supervisione dello sviluppo, del monitoraggio e dei controlli di AI e ML. Ciò dovrebbe includere la previsione di un framework di internal governance documentato e la definizione di chiari livelli di responsabilità;
- testare e monitorare adeguatamente e su base continuativa gli algoritmi affinché i risultati ottenuti e relativi ad una determinata tecnica di AI e ML possano ritenersi validi. Il test dovrebbe essere condotto in un ambiente separato da quello reale prima dell’implementazione, per garantire che AI e ML:
- si comportino come previsto sia in condizioni critiche che non critiche del mercato;
- operino nel rispetto degli obblighi normativi.
- possedere le adeguate capacità, competenze ed esperienza per sviluppare, testare, implementare, monitorare e supervisionare i controlli su AI e ML utilizzati. Le funzioni di compliance e risk management dovrebbero essere in grado di comprendere e mettere in discussione gli algoritmi, conducendo delle due diligence relativamente ad ogni provider terzo;
- comprendere il proprio livello di affidamento e gestire le proprie relazioni con i provider terzi, incluso il monitoraggio delle loro performance e la loro supervisione. Al fine di assicurare un adeguato livello di responsabilità, tali soggetti dovrebbero delineare chiari accordi circa i livelli di servizio, nonché un accordo che precisi l’ambito delle funzioni esternalizzate e la responsabilità del service provider. Tale accordo dovrebbe includere chiari KPI e dovrebbe altresì specificare diritti e rimedi in caso di non rispetto degli indicatori;
- comunicare informazioni significative ai propri clienti circa l’uso di AI e ML che possano impattare sulle loro prestazioni. I regolatori dovrebbero altresì considerare quali tipologie di informazioni debbano richiedere a intermediari e gestori che utilizzano tali tecnologie al fine di assicurare un’adeguata supervisione sugli stessi;
- avere in essere sistemi di controllo appropriati per garantire che i dati sfruttati da AI e ML rispettino determinati requisiti qualitativi e quantitativi al fine di evitare distorsioni e avere una buona base applicativa di AI e ML.
Su un simile argomento può essere interessante l’articolo “Intelligenza artificiale: le sue potenzialità, la bozza di regolamento UE e rischi legali”.