Gli sviluppi dell’intelligenza artificiale (IA) hanno portato a notevoli progressi in diversi campi, ma hanno anche introdotto nuovi rischi di cybersecurity
La natura “duale” dell’IA consente infatti applicazioni sia innocue che dannose, sia pacifiche che militari, rendendo fondamentale l’attenzione ai rischi associati all’utilizzo di queste tecnologie.
L’entusiasmo connesso agli strumenti di intelligenza artificiale ha subito una accelerazione vertiginosa nei primi mesi del 2023 grazie al rilascio di soluzioni accessibili al pubblico che sono presto diventate virali grazie alla loro capacità di generare contenuto testuale o visivo originale che ha catturato l’attenzione del pubblico.
Mentre le aziende cercano di potenziare i propri processi e prodotti integrando soluzioni di terzi tramite l’utilizzo delle interfacce di programmazione API o sviluppandone di proprie, è fondamentale procedere con cautela e valutare i potenziali rischi associati all’utilizzo di queste tecnologie, ma anche le opportunità derivanti dall’applicazione dell’IA a tutela della sicurezza cibernetica.
I rischi di cybersecurity dell’intelligenza artificiale
In primo luogo, i sistemi di IA presentano delle vulnerabilità note, come la possibilità di corruzione o manipolazione dei dataset di input. Questo può portare a risultati distorti e non rappresentativi della realtà. In secondo luogo, i sistemi di IA sono generalmente abilitati a effettuare deduzioni e svolgere azioni in modo automatizzato e senza il costante coinvolgimento umano, con una conseguente riduzione delle possibilità di individuare eventuali vulnerabilità che possono essere sfruttate da competitor poco scrupolosi o da criminali informatici per compromettere i sistemi aziendali. Inoltre, le ragioni per cui un programma di apprendimento automatico o di IA fa particolari deduzioni e prende determinate decisioni non sono sempre immediatamente chiare ai soggetti che si occupano della supervisione. I modelli decisionali e i dati sottostanti non sono necessariamente trasparenti o rapidamente interpretabili (anche se sono in corso sforzi significativi per migliorare la trasparenza di tali strumenti). Ciò significa che, anche se viene rilevata una violazione, il suo scopo o la sua causa possono essere difficili da ricostruire. Ci sono poi rischi derivanti dall’abuso della tecnologia stessa: sfruttando i modelli linguistici generativi è sempre più facile per gli aggressori creare e-mail di phishing altamente sofisticate e convincenti che possono ingannare anche gli utenti più esperti.
Chiaramente queste condotte sono in violazione dei termini e condizioni di utilizzo dei modelli di linguaggio generativi più noti e con il rilascio dei vari update tali servizi limitano sempre più la possibilità di bypassare i propri controlli di sicurezza, ma allo stesso tempo servizi paralleli meno noti e meno controllati vengono lanciati sul mercato. Per questo è assolutamente utile per le aziende dotarsi di policy che disciplinino l’utilizzo corretto degli strumenti di IA da parte del proprio personale, in modo da sfruttare le opportunità messe a disposizione da questa tecnologia e al contempo limitando i rischi di leak di dati confidenziali o di utilizzi potenzialmente dannosi all’azienda.
Le opportunità dell’intelligenza artificiale nella sicurezza cibernetica
Da un altro punto di vista però le organizzazioni possono contare sulle capacità dell’IA sia per aggiornare le loro prassi in termini di sicurezza informatica che per proteggere i loro sistemi dotati di Intelligenza Artificiale. L’ IA migliora le capacità di rilevamento e di risposta alle minacce esistenti, e permette di sviluppare nuove capacità di difesa preventiva. Grazie all’impiego dell’IA, ad esempio, le aziende possono snellire e migliorare il modello operativo della sicurezza riducendo i lunghi e complessi processi manuali di ispezione e intervento e riorientando gli sforzi umani verso compiti di supervisione e risoluzione dei problemi. In particolare l’IA può potenziare gli attuali sistemi e le prassi di sicurezza informatica in tre direzioni principali.
- Prevenzione e protezione: l’IA offre un modo per automatizzare il processo di rilevazione delle minacce – aumentando, piuttosto che sostituendo – l’analista umano attraverso tecniche di machine learning e deep learning. Molte delle applicazioni dell’A.I. per il rilevamento e la prevenzione delle minacce utilizzano una versione del machine learning chiamata “unsupervised learning”, attraverso cui i set di dati raccolti vengono utilizzati per trovare dei pattern che a loro volta sono utilizzati per individuare anomalie, come spostamenti o cambiamenti insoliti dei file.
- Rilevazione: l’intelligenza artificiale permette di passare da metodi di rilevamento statici (Signature Based Intrusion Detection System) che rilevano violazioni alla sicurezza informatica attraverso un’analisi del sistema alla ricerca di segni caratteristici delle violazioni informatiche, a metodi più dinamici e in continuo miglioramento. Gli algoritmi di A.I. sono in grado di rilevare qualsiasi cambiamento che appaia anormale, senza bisogno di una definizione anticipata di ciò che è anormale. In questo modo l’A.I. rappresenta un potente strumento per la qualificazione e l’indagine delle minacce che si rivela particolarmente utile per il monitoraggio delle indagini ad alto rischio, quali quelle nel settore dell’alta finanza. L’intelligenza artificiale è infatti in grado di riconoscere i cambiamenti significativi dei comportamenti degli utenti che possono rappresentare un rischio per la sicurezza.
- Reazione: grazie all’intelligenza artificiale è possibile ridurre il carico di lavoro per gli analisti di cybersecurity. Ad esempio, automatizzando in modo intelligente le ordinarie attività manuali ripetitive, come la ricerca dei segni di compromissione all’interno dei file di log, le risorse umane possono concentrarsi su attività a maggior valore e dare priorità alle aree a rischio. Inoltre, i sistemi di reazione dotati di intelligenza artificiale possono intervenire in maniera proattiva e segregare dinamicamente le reti per isolare le informazioni di valore in luoghi sicuri o reindirizzare gli aggressori lontano da vulnerabilità o dati importanti.
Come sviluppare e implementare IA in sicurezza
Proprio secondo Microsoft nel mondo si verificano 1.287 attacchi password al secondo mentre secondo il Threat Landscape report 2022 dell’ENISA la proliferazione di bot che creano personaggi virtuali può facilmente compromettere il processo di creazione delle normative, così come l’interazione tra comunità, inondando le agenzie governative con contenuti e commenti falsi.
In un contesto così ostile è fondamentale per le imprese, di tutte le dimensioni, elaborare una strategia di cybersecurity con solide fondamenta che tenga conto dei requisiti specifici a seconda del settore operativo: ad esempio il D. Lgs. n. 65/2018 che ha implementato la Direttiva NIS 1 richiede che le società rientranti nel suo ambito di applicazione siano tenute adottare misure tecniche ed organizzative adeguate e proporzionate rispetto alla gestione dei rischi cyber, dovendo altresì prevenire e minimizzare l’impatto degli eventuali incidenti di sicurezza subiti. Di recente è stata approvata anche la Direttiva NIS 2 che introduce obblighi di cybersecurity più dettagliati e stringenti, ed amplia l’ambito di applicazione anche a società che offrono ad esempio servizi digitali o sanitari.
La progettazione di soluzioni di cybersecurity aziendale efficaci passa attraverso l’elaborazione di processi di governance, management e legal compliance della sicurezza IT basati su una strutturata e sistematica acquisizione e analisi di informazioni sia sui requisiti normativi applicabili che sulle possibili minacce cyber al fine di guidare, progettare, verificare e monitorare le adeguate contromisure contro minacce aumentate grazie all’intelligenza artificiale. Le attività di Cyber Threat Intelligence devono inoltre proseguire per tutto il ciclo di vita dei sistemi informativi aziendali, in quanto driver essenziali per la loro corretta evoluzione e fattore abilitante per l’implementazione di efficaci misure di difesa e prevenzione.
Su un simile argomento, può essere interessante l’articolo: “Report ENISA sulla cybersicurezza dell’intelligenza artificiale e la sua standardizzazione”.