by

L’intelligenza artificiale (IA) offre numerosi vantaggi: può migliorare l’efficienza, aiutare a prendere decisioni migliori e stimolare l’innovazione in molti settori. Tuttavia, questi benefici si accompagnano a rischi significativi, in particolare la possibilità di un utilizzo illecito per fini fraudolenti o ingannevoli.

Come ogni tecnologia ricca di potenziale, l’IA può essere impiegata per scopi leciti o illeciti. Per questo, è fondamentale un sistema di governance solido e consapevole, in grado di massimizzare i benefici e contenere i rischi di abuso.

Roberto Copia, Direttore del Servizio Ispettorato dell’IVASS, ha affrontato questo tema in occasione del 4° Congresso Nazionale dell’Associazione CODICI, tenutosi il 17 maggio 2025, evidenziando una crescente preoccupazione a livello etico: se da un lato l’IA può aumentare l’efficienza del settore assicurativo, dall’altro fornisce strumenti sempre più sofisticati a coloro che intendono mettere in atto frodi di vario genere.

IA e assicurazioni: un’alleanza inscindibile

L’IA è ormai uno strumento imprescindibile per il settore assicurativo. Le sue applicazioni spaziano dalla valutazione del rischio allo sviluppo dei prodotti, dalla gestione dei sinistri alla prevenzione delle frodi. Algoritmi predittivi, reti neurali e modelli di apprendimento automatico consentono di elaborare grandi volumi di dati, migliorando l’accuratezza nella sottoscrizione, accelerando la liquidazione dei sinistri e rafforzando le capacità antifrode degli assicuratori.

Tuttavia, questi stessi strumenti, potenti, scalabili e sempre più accessibili, sono oggi impiegati in modo crescente anche dai malintenzionati. Come ha osservato Copia, “coloro che intendono commettere frodi sono abili innovatori e quasi sempre un passo avanti rispetto a coloro che sono chiamati a contrastarli”.

Frodi assicurative nell’era dell’IA: un salto in avantinella sofisticazione criminale

Le frodi assicurative rappresentano da sempre un problema strutturale del settore. Oggi, però, stiamo assistendo ad un salto qualitativo. Non si tratta più soltanto di danni materiali simulati (art. 642 c.p.) o richieste fittizie. Le frodi moderne sono digitali, automatizzate e altamente sofisticate. L’IA è diventata un potente strumento per chi manipola dati, falsifica documenti o crea identità digitali contraffatte.

Un esempio emblematico è la truffa del “Ghost Broker”: siti web che appaiono altamente verosimili, spesso costruiti con tecniche avanzate di ingegneria sociale, loghi reali e dati sottratti a ignari intermediari. L’IA consente a questi portali fraudolenti di apparire sempre più credibili, grazie a chatbot che simulano l’assistenza clienti, profiling automatizzato delle vittime e offerte false ma altamente personalizzate. Il risultato è un’esperienza utente apparentemente perfetta. Ma l’acquirente resta privo di copertura assicurativa, prendendone conoscenza solo in occasione di controlli o del verificarsi di un sinistro.

I costi della frode: ben più che un danno economico

I dati evidenziano una tendenza preoccupante. Secondo Forbes, le frodi assicurative generano costi globali stimati in circa 300 miliardi di dollari l’anno.

In Italia, il quadro è altrettanto allarmante: secondo il Rapporto Antifrode IVASS 2023, la quota di sinistri sospetti nel settore RC auto è passata in un solo anno dal 16% al 21%.

Ma gli effetti delle frodi assicurative vanno ben oltre le perdite economiche subite dalle compagnie. A livello sistemico, le conseguenze sono ancora più gravi. La sicurezza pubblica è compromessa quando veicoli privi di copertura assicurativa circolano sulle strade, mettendo a rischio le persone, che dovranno ricorrere al Fondo di Garanzia per le Vittime della Strada, finanziato dagli assicurati.

Anche il danno reputazionale è rilevante: la fiducia del pubblico verso compagnie e intermediari legittimi è a rischioerosione, soprattutto nei casi di furto d’identità, reato previsto dall’art. 494 c.p.

L’aumento delle frodi mina inoltre la fiducia nei canali digitali, rallentando la transizione verso servizi assicurativi più efficienti e accessibili online. E le vittime non mancano: spesso si tratta di giovani digitalmente competenti ma ignari delle dinamiche assicurative, e dunque più esposti alle truffe.

Il ruolo dell’AI Act e la risposta istituzionale

Per fronteggiare queste sfide, l’UE ha adottato il Regolamento (UE) 2024/1689 (AI Act), pietra angolare della governance e regolamentazione dell’IA nel mercato interno. Sebbene il suo obiettivo primario sia quello di garantire sicurezza e tutela dei diritti fondamentali attraverso un approccio basato sul rischio, l’AI Act ha implicazioni rilevanti anche per il settore assicurativo, in particolare in materia di prevenzione delle frodi e gestione del rischio.

Alcuni sistemi IA, come quelli per il riconoscimento biometrico, il credit scoring o l’analisi delle emozioni, sono classificati come “ad alto rischio” e devono rispettare requisiti rigorosi in termini di valutazione del rischio, trasparenza, tracciabilità e supervisione umana. Sebbene i “sistemi di IA utilizzati per rilevare frodi finanziarie” non rientrino automaticamente tra quelli ad alto rischio, potrebbero esserlo se integrati con altre funzionalità o sistemi ad alto rischio. Ciò apre la strada a una maggiore vigilanza sia sugli strumenti IA utilizzati dalle compagnie, sia su quelli impiegati illecitamente dai truffatori.

Il Regolamento introduce inoltre obblighi specifici per i sistemi capaci di generare contenuti sintetici (deepfake, imitazioni realistiche di persone), elementi frequenti nelle truffe da ghost broker e nei furti di identità. Fornitori e utentidi tali sistemi dovranno assicurare trasparenza, watermarkdigitali e documentazione idonea, migliorando la tracciabilità degli usi illeciti. Inoltre, l’AI Act impone agli Stati membri e alle autorità competenti l’obbligo di monitorare l’uso dei sistemi ad alto rischio e di coordinarsi a livello europeo.

Ciò rappresenta un’opportunità per autorità nazionali come l’IVASS di assumere un ruolo proattivo, non solo nella vigilanza del settore, ma anche nella segnalazione e repressione degli abusi dell’IA in ambito assicurativo.

L’IVASS, in collaborazione con le forze dell’ordine, ha già adottato diverse contromisure contro le frodi digitali: oscuramento di siti fraudolenti, campagne informative, analisi di rete, banche dati centralizzate dei sinistri, white list e utilizzo di strumenti IA per rilevare pattern sospetti. Nonostante questi sforzi, le risposte istituzionali faticano a tenere il passo con l’evoluzione delle tecniche fraudolente. Parallelamente, molte compagnie stanno investendo in sistemi di rilevamento anomalie e tecnologie di verifica incrociata. Tuttavia, le denunce penali restano limitate, e la frode è ancora spesso considerata un costo inevitabile del fare impresa.

Verso un nuovo paradigma: responsabilità, consapevolezza e diritto

Affrontare questa sfida richiede soluzioni tecniche ma anche un cambiamento culturale. Il quadro normativo deve recuperare terreno rispetto alla rapida diffusione dell’IA generativa, soprattutto quando è impiegata per fini illeciti come la contraffazione, la frode o il furto d’identità. Guardando al futuro, paiono essenziali alcune azioni chiave:

  • Meccanismi di responsabilità automatica: i sistemi IA devono non solo rilevare anomalie, ma anche certificare e documentare l’attività fraudolenta a supporto di procedimenti giudiziari.
  • Rafforzamento della collaborazione pubblico-privato: serve una maggiore condivisione dei dati e analisi congiunte dei rischi tra regolatori e operatori privati.
  • Educazione digitale obbligatoria: come già avviene nel settore bancario, i consumatori dovrebbero ricevere una formazione obbligatoria sull’uso sicuro e consapevole delle piattaforme assicurative digitali.
  • Un quadro normativo armonizzato a livello UE: è necessario un approccio europeo coordinato contro il ghost broking e le frodi assicurative digitali, che integri gli obiettivi del DSA con l’attività di vigilanza settoriale.
(Visited 1 times, 1 visits today)
Close Search Window