L’IVASS (Istituto per la vigilanza sulle assicurazioni) ha pubblicato i risultati di un’indagine svolta nel 2022 sull’utilizzo di algoritmi di Machine Learning (ML) da parte delle compagnie assicurative nei rapporti con gli assicurati.
L’indagine ha coinvolto 93 compagnie e rientra in una più ampia strategia dell’IVASS volta ad analizzare evoluzione e impatto dell’Insurtech, favorendo lo sviluppo digitale in un contesto di tutela per i consumatori.
Dall’indagine emerge che poco meno della metà delle compagnie intervistate (40 su 93) utilizza sistemi di intelligenza artificiale (AI) e che la gran parte di esse (33) utilizza sistemi di machine learning.
Tra i principali ambiti di utilizzo vi sono la prevenzione delle frodi e la gestione dei sinistri, principalmente in ambito r.c. auto, i processi di assunzione del rischio, il pricing e l’identificazione delle intenzioni di abbandono dei clienti (modelli c.d. di churn).
In termini di governance dei sistemi di intelligenza artificiale/machine learning, la maggior parte delle compagnie partecipanti all’indagine non si è ancora dotata di policy specifiche. Soltanto una compagnia ha indicato di aver adottato una policy specifica, mentre altre 19 hanno dichiarato che ne stanno sviluppando e 5 di non aver ancora programmato nulla in tal senso.
Anche l’impatto su altre policy aziendali (ad esempio, risk management, compliance, internal auditing o IT) risulta per il momento limitato: 19 compagnie hanno indicato di non aver modificato le loro policy in virtù dell’impiego di sistemi di intelligenza artificiale/machine learning, mentre 7 stanno portando avanti un processo di adeguamento delle policy esistenti.
Interessante notare che più della metà delle compagnie che utilizzano algoritmi di ML abbia dichiarato di essersi dotata di meccanismi interni per valutare la fairness verso gli assicurati e rilevare esclusioni o discriminazioni dei clienti. Il principio di correttezza e non discriminazione rientra tra i sei principi fondamentali individuati da EIOPA nel suo paper del 2021 in materia di AI etica e affidabile in ambito assicurativo, assieme a proporzionalità, trasparenza e spiegabilità, controllo umano, data governance e record keeping, robustezza e performance. Le imprese che non si sono dotate di presidi in tema di fairness verso i clienti hanno dichiarato di non averne bisogno per la natura degli algoritmi impiegati e dei dati trattati.
Quanto al controllo umano, tutte le compagnie partecipanti all’indagine che impiegano sistemi di ML adottano un approccio “human in the loop”, con una supervisione umana che verifica i risultati e prende la decisione finale sul processo. In tema di trasparenza e spiegabilità, le compagnie che hanno indicato di utilizzare modelli di machine learning chiusi hanno previsto l’affiancamento di strumenti che aiutano a spiegarne le logiche e il funzionamento interno, al fine di evitare o limitare il c.d. effetto “black box”.
Infine, in termini di modalità di realizzazione e implementazione dei sistemi di machine learning, la maggior parte delle compagnie ha dichiarato di aver sviluppato progetti interni in partnership con fornitori tecnologici, mentre una minoranza (20%) di avvalersi di servizi in outsourcing.
Su un simile argomento, potrebbe interessarti: “Open Insurance: gli scenari per il 2023 e le principali strategie legali” e “Principi di IA governance per il settore assicurativo secondo l’EIOPA”.