INTELLIGENZA ARTIFICIALE GENERATIVA E SICUREZZA INFORMATICA
L’importanza dei dati nello sviluppo dei modelli di IA generativa
L’intelligenza artificiale generativa sta cambiando profondamente il settore della cybersecurity, grazie alla sua capacità di analizzare grandi quantità di dati per individuare in anticipo potenziali minacce. I dati, infatti, svolgono un ruolo cruciale nel determinare l’efficacia delle soluzioni di cybersecurity basate sull’IA. La qualità e la quantità di dati utilizzati per addestrare e perfezionare i modelli generativi di IA sono fattori essenziali per garantire che questi strumenti siano in grado di rilevare e rispondere con precisione alle minacce emergenti. Con l’evoluzione delle minacce alla cybersecurity, è imperativo che le soluzioni basate sull’IA possano apprendere continuamente dai nuovi dati, adattandosi al mutevole panorama delle minacce e mantenendo la loro efficacia nell’identificare e mitigare i rischi. Ciò sottolinea l’importanza dei dati nello sviluppo e nel perfezionamento dei modelli generativi di IA, nonché la necessità per le organizzazioni di investire in una solida raccolta di dati e in pratiche di gestione per massimizzare i benefici degli strumenti di cybersecurity guidati dall’IA.
L’IA generativa: un’arma “a doppio taglio” per la sicurezza informatica
La maggioranza degli esperti concorda nel ritenere l’IA generativa una risorsa e, allo stesso tempo, una minaccia; in altri termini, un’arma “a doppio taglio” per la cybersecurity. Infatti, se da un lato l’IA può essere impiegata per migliorare il rilevamento e la risposta alle minacce informatiche, dall’altro consente agli hacker di sfruttare i contenuti generati dalla stessa IA per eseguire attacchi molto sofisticati. Di qui la necessità di mettere in campo sistemi efficaci di difesa basati su una intelligenza artificiale “predittiva”, in grado di monitorare il corretto comportamento dei sistemi informatici che deve proteggere e di intervenire immediatamente per frenare gli attacchi.
In particolare, tra i vantaggi più evidenti che l’IA generativa offre alle organizzazioni e ai professionisti della sicurezza informatica vi è quello del miglioramento del rilevamento e della risposta alle minacce: sfruttando grandi volumi di dati e algoritmi avanzati, gli strumenti basati sull’IA possono rilevare e mitigare minacce e vulnerabilità precedentemente sconosciute, adattarsi all’evoluzione delle tattiche e delle tecniche degli aggressori e aiutare le organizzazioni a fronteggiare i criminali informatici.
Inoltre, le soluzioni di cybersecurity basate sull’intelligenza artificiale consentono alle organizzazioni di automatizzare le attività che richiedono tempo e lavoro, migliorando l’efficienza e riducendo gli errori umani. Tali sistemi possono analizzare i dati per rilevare potenziali minacce molto più rapidamente di altri metodi, consentendo alle organizzazioni di rispondere in modo più efficace agli incidenti. Inoltre, questi strumenti basati sull’intelligenza artificiale sono in grado di monitorare costantemente sistemi e reti, assicurando che le potenziali vulnerabilità vengano identificate per tempo.
Sfide e minacce
Allo stesso tempo, l’IA generativa presenta diverse sfide nello sfruttamento del suo pieno potenziale per scopi di cybersicurezza. Una prima sfida significativa è rappresentata dalla rapida evoluzione delle minacce generate dalla stessa IA, che richiede un costante adattamento e lo sviluppo di nuove contromisure. Man mano che i modelli generativi di IA diventano più sofisticati, distinguere tra contenuti legittimi e dannosi diventa sempre più difficile, rendendo più complessi gli sforzi di rilevamento.
L’aumento dell’uso dell’IA nella sicurezza informatica solleva, inoltre, questioni relative alla privacy e alla sorveglianza, in quanto i sistemi di IA possono inavvertitamente raccogliere ed elaborare dati sensibili senza il consenso dell’utente. Non solo: la crescente diffusione di strumenti di IA open-source può consentire ai soggetti malintenzionati di sviluppare cyberattacchi avanzati e la disponibilità diffusa di questi strumenti può accrescere il rischio di minacce guidate dall’IA, rendendo necessario un approccio proattivo per identificare e mitigare i potenziali rischi per la sicurezza.
Gli stessi algoritmi di IA utilizzati dai professionisti della sicurezza per analizzare e prevedere le minacce informatiche possono essere impiegati dagli attori malintenzionati per anticipare le misure difensive e ideare attacchi più efficaci. I criminali informatici possono sfruttare gli strumenti guidati dall’intelligenza artificiale per creare attacchi che rendono difficile per le organizzazioni rilevare e contrastare le minacce. Ad esempio:
- con la crescente integrazione dei sistemi di IA nei processi di cybersecurity, aumenta la possibilità di attacchi avversari dell’IA a questi sistemi. Al riguardo, è importante rimanere vigili e assicurarsi che gli strumenti guidati dall’IA utilizzati non introducano inavvertitamente nuove vulnerabilità o creino opportunità di sfruttamento da parte di attori malintenzionati;
- l’intelligenza artificiale generativa ha reso possibile agli hacker la creazione di attacchi di ingegneria sociale più sofisticati, in quanto questi algoritmi possono generare contenuti deepfake altamente realistici, impersonare persone fidate e manipolare gli utenti per indurli a divulgare informazioni sensibili. Sfruttando l’IA, gli aggressori possono creare contenuti audio, video o testuali convincenti che possono essere utilizzati per manipolare le vittime o addirittura per infiltrarsi in sistemi sicuri;
- un altro uso nefasto dell’intelligenza artificiale generativa è la creazione di e-mail e siti web di phishing altamente ingannevoli. Gli strumenti guidati dall’IA possono infatti analizzare lo stile di scrittura, il tono e le preferenze di contenuto delle potenziali vittime per creare messaggi di phishing personalizzati e consapevoli del contesto, che hanno quindi una maggiore probabilità di riuscire nell’inganno. Inoltre, l’IA generativa può automatizzare il processo di generazione di siti web di phishing molto simili a quelli legittimi, aumentando ulteriormente le possibilità di ingannare utenti ignari per convincerli a fornire le proprie credenziali o altre informazioni sensibili.
I rischi per i governi e le pubbliche amministrazioni
Se tutto questo interessa certamente le aziende, l’impatto complessivo è in realtà ben più ampio: le soluzioni software innovative di sicurezza informatica possono avere per esempio delle ripercussioni geopolitiche, soprattutto nella misura in cui vengono utilizzate per proteggere infrastrutture e agenzie di interesse nazionale. Secondo un rapporto dello scorso anno (Zachy Hennessey, “Generative AI among emerging threats in 2023’s cyber threat landscape – Report”, April 13, 2023), la proliferazione di contenuti generati dall’intelligenza artificiale, come deepfakes e fake news, rappresenta una preoccupazione significativa per le pubbliche amministrazioni, in quanto può essere utilizzata per manipolare l’opinione pubblica, distorcere o compromettere le elezioni e minare la fiducia nelle istituzioni. Inoltre, gli hacker utilizzano sempre più spesso l’intelligenza artificiale generativa per automatizzare e migliorare i loro metodi di attacco, rendendoli più difficili da individuare e contrastare. Questi attacchi possono compromettere l’efficacia degli strumenti guidati dall’IA e introdurre nuovi rischi per le organizzazioni che a questi si affidano per la sicurezza informatica. Gli effetti dell’IA sulla sicurezza informatica hanno implicazioni significative per la sicurezza nazionale. Il potenziale delle minacce guidate dall’IA di compromettere le infrastrutture critiche, violare i dati sensibili e minare la stessa fiducia del pubblico pone sfide considerevoli.
La collaborazione tra agenzie governative e organizzazioni del settore privato è essenziale per affrontare efficacemente le implicazioni per la sicurezza nazionale delle minacce informatiche guidate dall’IA. Tali partnership sono necessarie per far progredire lo sviluppo e la diffusione delle tecnologie di IA generativa nella sicurezza informatica, contribuendo a mitigare i rischi e a migliorare le difese informatiche nazionali. È evidente, inoltre, la necessità di aumentare gli investimenti in ricerca e sviluppo per rimanere al passo con la rapida evoluzione del panorama delle minacce guidate dall’IA. Ciò include lo sviluppo di nuovi strumenti e strategie basati sull’IA per contrastare le minacce emergenti, nonché l’istituzione di quadri normativi per disciplinare l’uso dell’IA nella sicurezza informatica.
Contromisure e strategie difensive
Per rispondere a queste preoccupazioni, occorre monitorare attentamente lo sviluppo delle tecnologie di IA generativa e il loro impatto sulla sicurezza, concentrandosi in particolare su tre aree chiave: il rilevamento di contenuti dannosi generati dall’IA, l’identificazione di attacchi informatici generati dall’IA e lo sfruttamento dell’IA per la scoperta di vulnerabilità.
Quanto al primo aspetto, il rapido sviluppo delle tecnologie guidate dall’intelligenza artificiale ha portato, come già detto, a un aumento dei deepfakes e delle fake news da questi generati, che rappresentano una minaccia significativa per le organizzazioni e i singoli individui. In questo settore, pertanto, occorre sviluppare metodi e strumenti per identificare e ridurre tali contenuti prima che causino danni. Per quanto riguarda l’identificazione degli attacchi, poiché gli hacker utilizzano l’IA generativa per automatizzare e migliorare i loro metodi di attacco, la necessità di contromisure efficaci diventa fondamentale; monitorando e analizzando questi modelli di attacco, devono essere sviluppate strategie per riconoscere e prevenire gli attacchi stessi, migliorando in ultima analisi il panorama generale della sicurezza informatica. Infine, gli strumenti di individuazione delle vulnerabilità basati sull’intelligenza artificiale possono aiutare a identificare falle di sicurezza precedentemente sconosciute, consentendo alle organizzazioni di affrontarle in modo proattivo. Integrando l’IA generativa nei processi di valutazione delle vulnerabilità, è possibile aumentare l’efficienza e l’efficacia delle misure di sicurezza informatica e ridurre il rischio di attacchi informatici riusciti.
La stessa tecnologia alla base di ChatGPT può diventare anche uno strumento per la difesa informatica: oggi, ad esempio, molti strumenti di posta elettronica avvisano l’utente se sta per inviare un messaggio a un indirizzo insolito o esterno alla propria organizzazione, ma l’intelligenza artificiale generativa può fare molto di più, aiutando a riconoscere quando si stanno per rivelare informazioni sensibili o si stanno per compiere azioni potenzialmente sbagliate, avvisando quando si corre il rischio di commettere errori involontari. Pertanto, da una parte sistemi di intelligenza artificiale che individuano in autonomia le vulnerabilità per poi pianificare e condurre un attacco informatico; dall’altra, sistemi di intelligenza artificiale che assistono le persone per evitare che conducano errori e che si occupano in maniera sempre più automatizzata della protezione dei sistemi informatici.
Considerato che l’IA generativa si basa sui dati per apprendere e migliorare le proprie capacità di rilevamento delle minacce, l’efficacia delle soluzioni di cybersecurity basate sull’IA dipende essenzialmente dalla qualità e dalla quantità di dati disponibili per l’analisi. Dati imprecisi o incompleti possono portare ad errori, compromettendo l’efficacia degli strumenti guidati dall’IA. In sostanza, se da un lato le tecnologie basate sull’IA forniscono alle organizzazioni strumenti più efficaci per rilevare e prevenire i cyberattacchi, dall’altro possono essere utilizzate come armi da malintenzionati per creare minacce più sofisticate e mirate.
Oggi, i cybercriminali collaborano efficacemente tra di loro, formando una vera e propria “economia nera” che si posiziona come la terza più grande economia illegale e che, nel solo 2023, ha causato danni economici per 8mila miliardi di dollari in tutto il mondo, cifra che potrebbe raggiungere quota 23mila miliardi entro il 2027, determinando costi per le aziende vittime di ransomware (virus che cifrano tutti i documenti presenti in un sistema informatico fino al pagamento del riscatto) che possono arrivare a centinaia di migliaia o anche milioni di euro. Questa sfida crea una sorta di gioco molto asimmetrico e senza regole di ingaggio, con attacchi che possono provenire da qualsiasi parte del mondo. Tuttavia, si stima che la capacità di lavorare con grandi quantità di dati possa dare ai difensori un vantaggio significativo rispetto agli attaccanti, che potrebbero non avere lo stesso accesso e la stessa disponibilità di informazioni.
Le recenti linee di tendenza e l’esperienza in atto dell’Ente Nazionale per il Microcredito
Alcuni studi commissionati da Microsoft (in particolare, Scott Crawford, “Microsoft, OpenAI partnership provides cybersecurity’s generative AI moment”, Apr 26, 2023), hanno individuato le seguenti linee di tendenza ed opportunità relative al futuro dell’IA generativa nella cybersecurity:
- Integrazione delle soluzioni basate sull’IA con altri strumenti di cybersecurity: man mano che l’IA generativa si diffonde, è probabile che venga sempre più integrata con altri strumenti e piattaforme di cybersecurity, migliorandone le capacità e l’efficacia.
- Sviluppo di contromisure per l’IA avversaria: con il crescente utilizzo dell’IA da parte dei criminali informatici, i ricercatori stanno lavorando allo sviluppo di tecniche di IA avversaria per rilevare e contrastare i contenuti maligni generati dall’IA.
- Sfruttare l’IA per trovare e mitigare le minacce interne: L’IA generativa ha il potenziale per aiutare le organizzazioni a identificare e mitigare le minacce interne analizzando il comportamento degli utenti e identificando le anomalie che possono indicare attività dannose.
- Espansione delle capacità di intelligence delle minacce guidate dall’IA: man mano che l’IA generativa diventa più sofisticata, può aiutare le organizzazioni a migliorare le loro capacità di intelligence sulle minacce, automatizzando la raccolta, l’analisi e la diffusione delle informazioni sulle minacce.
Vanno proprio in questa direzione i principali progetti a carattere innovativo coordinati dall’Ente Nazionale per il Microcredito, quali il progetto “Polo MicroCyber”, il progetto “Tech4You” e il progetto “DIHCUBE”. Anche in questo caso, poiché l’IA generativa continua a rivoluzionare la cybersecurity, l’Ente dovrà essere preparato ad affrontare sia le opportunità sia le sfide che ciò presenta. Questo include anche l’investimento in istruzione e formazione per i professionisti della cybersecurity, assicurando le competenze e le conoscenze necessarie per implementare e gestire efficacemente le soluzioni. Affrontando in modo proattivo il gap di conoscenze sulla cybersecurity dell’IA generativa e rimanendo aggiornati sugli ultimi sviluppi della difesa informatica guidata dall’IA, l’Ente potrà proteggere meglio gli asset digitali e mantenere una solida postura di sicurezza di fronte a un panorama di minacce in continua evoluzione.
Conclusioni
L’adozione di sistemi di cybersecurity basati sull’IA generativa può portare a significativi risparmi sui costi e all’ottimizzazione delle risorse per le organizzazioni. Automatizzando il rilevamento e la risposta alle minacce, queste possono ridurre la necessità di interventi manuali, minimizzando così i costi di manodopera e liberare tempo prezioso per i professionisti della cybersecurity, che possono concentrarsi su attività più strategiche. Inoltre, i sistemi di intelligenza artificiale generativa possono aiutare le organizzazioni ad individuare e correggere le vulnerabilità in modo più efficiente, riducendo le potenziali perdite finanziarie associate alle violazioni dei dati.
I sistemi di cybersecurity basati sull’IA generativa possono fornire una maggiore protezione per i dati e le informazioni sensibili. Utilizzando modelli di IA in grado di analizzare grandi volumi di dati per rilevare modelli di attività dannose, le organizzazioni possono migliorare la loro capacità di identificare e contrastare le minacce in tempo reale. Questo maggiore livello di protezione può aiutare a prevenire l’accesso non autorizzato a informazioni sensibili, salvaguardando la reputazione di un’organizzazione e la fiducia dei clienti.
In un panorama digitale sempre più interconnesso, la fiducia negli ecosistemi digitali è fondamentale per la prosperità delle aziende e delle organizzazioni in genere. I sistemi di cybersecurity basati sull’IA generativa possono aiutare le organizzazioni a rafforzare e mantenere questa fiducia, offrendo una solida protezione contro le minacce. Questo può portare a una maggiore fiducia tra le parti interessate, compresi clienti, partner e autorità di regolamentazione, con il risultato di un ecosistema digitale più sicuro e resiliente.