Negli ultimi mesi l’AI generativa si è imposta tra i temi di riferimento a livello aziendale, per i benefici che promette di portare a coloro che la adotteranno in modo adeguato.
Secondo una recente ricerca di Proofpoint, l’80% dei CISO italiani intervistati intende implementare funzionalità basate sull’AI per contribuire alla protezione dall’errore umano e dalle minacce informatiche avanzate incentrate sull’uomo.
Tra gli ostacoli alla sua adozione generalizzata, spicca il tema della cybersecurity. Un’altra analisi condotta da Proofpoint ha messo in evidenza come l’AI generativa sia considerata un rischio per la sicurezza della propria organizzazione secondo il 45% dei CISO italiani intervistati.
I sistemi di AI (compresa quella generativa come ChatGPT, Gemini, ecc.) sono soggetti a nuove vulnerabilità specifiche da prendere in grande considerazione, ma risentendo di un ritmo di sviluppo accelerato, si potrebbe rischiare che la sicurezza venga trascurata.
Nella corsa globale allo sviluppo di sistemi e applicazioni che la utilizzano, la velocità è spesso nemica della sicurezza. I sistemi AI hanno elevate potenzialità, ma affinché queste opportunità possano essere pienamente sfruttate, sarà necessario svilupparle e gestirle in modo sicuro e responsabile.
Cosa succederebbe se i malintenzionati abusassero di queste capacità per creare messaggi di phishing altamente convincenti, mirati e automatizzati su larga scala?
Non c’è bisogno di chiederselo, perché sta già accadendo. Non molto tempo dopo il lancio di ChatGPT, gli attacchi BEC (Business Email Compromise), basati sulle lingue, sono aumentati in tutto il mondo, diventando più personalizzati e convincenti. Se in Italia il numero delle aziende colpite non è cambiato tra 2022 e 2023 (il 51% di quelle intervistate, secondo il report State Of The Phish di Proofpoint), in altri Paesi l’aumento è stato notevole, ad esempio un incremento del 35% degli attacchi BEC registrato in Giappone, del 31% in Corea e del 29% Emirati Arabi Uniti. Paesi che potrebbero aver registrato in precedenza un numero di attacchi BEC inferiore, “grazie” a barriere culturali o linguistiche, che gli attaccanti oggi riescono a superare grazie all’intelligenza artificiale, rendendo più facile e veloce per gli aggressori l’estrazione di grandi insiemi di dati utilizzabili.
Non c’è dubbio che l’intelligenza artificiale generativa offra nuove possibilità agli avversari, che non rinunceranno comunque alle tattiche esistenti né reinventeranno la ruota finché i loro modelli attuali rimarranno redditizi. I difensori dovranno quindi concentrarsi sulle minacce più immediate e assicurarsi di disporre di una protezione robusta per riuscire a contrastarli in modo efficace.