La maggior parte delle organizzazioni si ritrova pericolosamente impreparata a difendersi da queste minacce, con l’87% delle aziende già colpite e un’escalation di attacchi multicanale, dal phishing con IA ai deepfake capaci di estorcere milioni

[In pillole] La sintesi per chi va di fretta:
L'intelligenza artificiale è diventata la principale arma degli hacker, con l'ottantasette percento delle aziende colpite da attacchi IA nell ultimo anno secondo SoSafe. Phishing, deepfake e attacchi multicanale sono in crescita esponenziale. Le organizzazioni si trovano impreparate, con budget e competenze inadeguati ad affrontare una minaccia che evolve più velocemente delle loro difese, rendendo l'elemento umano più vulnerabile.
La rapidità con cui l’intelligenza artificiale è diventata un problema
La caratteristica che distingue gli attacchi basati su intelligenza artificiale è la loro capacità di operare su larga scala mantenendo un alto grado di personalizzazione. In passato, un attacco su vasta scala era quasi sempre generico e facilmente riconoscibile, mentre un attacco personalizzato richiedeva tempo e risorse significative, limitandone la portata.
Oggi, l’IA ha eliminato questo compromesso.
Andrew Rose, Chief Security Officer di SoSafe, ha spiegato che “l’IA sta drasticamente aumentando la sofisticazione e la personalizzazione degli attacchi informatici. Sebbene le organizzazioni sembrino consapevoli della minaccia, i nostri dati mostrano che non hanno fiducia nella loro capacità di rilevarli e di reagire”.
Gli strumenti di IA generativa sono stati trasformati in vere e proprie armi. Sono in grado di produrre fino a 30 modelli di email di phishing ogni ora e di comporre questi messaggi il 40% più velocemente rispetto a un essere umano.
Le password, un tempo considerate una prima linea di difesa, sono diventate estremamente vulnerabili: strumenti di hacking basati su IA sono riusciti a decifrare il 51% di oltre 15 milioni di password comuni in meno di un minuto.
La tattica stessa è diventata più complessa. Il 95% dei professionisti della sicurezza ha notato un aumento degli “attacchi multicanale“, campagne coordinate che combinano email, SMS, social media e piattaforme di collaborazione come Teams o Slack per creare un’illusione di legittimità molto più convincente.
Un caso emblematico ha visto degli aggressori prendere di mira l’amministratore delegato di un’azienda usando WhatsApp per creare un rapporto di fiducia, per poi spostare la conversazione su Microsoft Teams e infine utilizzare una chiamata con una voce clonata tramite IA per estorcere informazioni sensibili e denaro.
Ma la vera novità non è solo nel volume, quanto nella qualità e nella crescente difficoltà nel distinguere una comunicazione legittima da una fraudolenta, soprattutto quando entrano in gioco tecniche ancora più avanzate.
I deepfake e la nuova frontiera delle truffe finanziarie
Una delle evoluzioni più allarmanti è l’uso della tecnologia deepfake per scopi criminali. I deepfake, ovvero contenuti audio o video manipolati dall’IA per sembrare autentici, sono oggi responsabili del 6,5% di tutti gli attacchi fraudolenti, con un aumento del 2.137% rispetto al 2022.
Questa crescita esplosiva ha colto di sorpresa la maggior parte delle aziende.
La percentuale di professionisti della sicurezza che si sentono meno preparati ad affrontare attacchi deepfake è passata dal 3% nel 2024 al 21% tra i manager nel 2025.
I casi reali dimostrano l’impatto devastante di questa tecnologia. Una società finanziaria di Hong Kong ha perso 25 milioni di dollari a causa di una truffa in cui i criminali hanno utilizzato un deepfake per impersonare il direttore finanziario dell’azienda durante una videoconferenza.
In modo simile, la società di ingegneria britannica Arup è stata vittima di un attacco in cui cloni generati dall’IA di alcuni dirigenti hanno convinto un dipendente del reparto finanziario a trasferire una somma analoga.
Nonostante la consapevolezza di queste minacce, la fiducia nelle proprie capacità di difesa rimane molto bassa. Solo il 26% dei professionisti della sicurezza si dichiara molto fiducioso nella propria capacità di rilevare un attacco basato su IA, come emerge da uno studio di VikingCloud sulla sicurezza informatica.
– Leggi anche: Apple Music si integra con ChatGPT per rivoluzionare la scoperta musicale
Il paradosso è evidente: il 91% degli esperti prevede un aumento significativo delle minacce guidate dall’IA nei prossimi tre anni, ma le contromisure rimangono inadeguate.
Questo senso di impotenza è particolarmente sentito ai vertici aziendali. Quasi due terzi dei manager e oltre la metà dei leader della sicurezza a livello dirigenziale identificano gli attacchi basati su IA come la loro sfida più grande.
Le principali preoccupazioni riguardano il phishing generato dall’IA, l’hacking dei modelli di intelligenza artificiale e il “vishing”, ovvero le truffe basate su deepfake vocali.
L’ammissione più preoccupante, però, è che oltre un terzo di questi dirigenti riconosce che la tecnologia dietro gli attacchi informatici è più sofisticata di quella che hanno a disposizione per difendersi.
Eppure, il problema potrebbe essere ancora più profondo, perché la minaccia non proviene più soltanto dall’esterno.
Quando il nemico è anche dentro l’azienda
Un paradosso critico sta emergendo: gli stessi sistemi di intelligenza artificiale che le aziende implementano per migliorare l’efficienza e l’innovazione stanno diventando nuovi vettori di attacco.
L’adozione interna dell’IA sta involontariamente espandendo la superficie di attacco delle organizzazioni, esponendole a rischi inediti come il “data poisoning” (l’avvelenamento dei dati con cui l’IA viene addestrata) o le allucinazioni dei modelli linguistici, che possono essere sfruttate per estrarre informazioni.
Molte aziende, per esempio, creano chatbot basati su IA per assistere il personale, ma poche hanno considerato che questi stessi chatbot possano diventare complici involontari in un attacco, aiutando un aggressore a raccogliere dati sensibili o a identificare le persone chiave da colpire.
Il 55% delle aziende non ha ancora implementato controlli completi per gestire i rischi associati alle proprie soluzioni di IA interne. Una ricerca condotta da IBM e Ponemon Institute ha rivelato che i sistemi di intelligenza artificiale non governati in modo adeguato hanno maggiori probabilità di essere violati e che i costi associati a tali violazioni sono molto più alti.
Questo solleva un dubbio sulla spinta quasi incondizionata verso l’adozione dell’IA promossa dalle grandi multinazionali tecnologiche. Mentre queste aziende presentano l’IA come la soluzione a ogni problema, la sua implementazione affrettata e senza un’adeguata governance sta forse creando più problemi di quanti ne risolva, trasformando le infrastrutture aziendali in un campo minato.
A complicare ulteriormente la situazione contribuiscono le limitazioni di budget e la carenza di personale qualificato. La crescita dei budget per la sicurezza informatica è rallentata drasticamente, passando dal 17% nel 2022 a un modesto 4% nel 2025, come descritto in un’analisi del World Economic Forum, un dato in netto contrasto con la velocità con cui le minacce evolvono.
La comunità della sicurezza informatica si trova oggi a un punto di svolta. Il 78% dei responsabili della sicurezza informatica ammette che le minacce basate sull’IA stanno avendo un impatto significativo sulle loro organizzazioni, secondo l’ultimo rapporto di Darktrace.
La domanda non è più se l’intelligenza artificiale trasformerà la guerra cibernetica, perché lo ha già fatto.
La vera domanda è se le aziende riusciranno a sviluppare la governance, i budget e le competenze necessarie per difendersi da un avversario che opera alla velocità e sulla scala di una macchina.
In fondo, nonostante la tecnologia sempre più sofisticata, l’anello debole rimane lo stesso: l’essere umano.
Le credenziali rubate continuano a essere uno dei metodi più utilizzati dai criminali per ottenere un primo accesso ai sistemi. Ora, però, l’intelligenza artificiale permette di sfruttare la psicologia umana con campagne di ingegneria sociale così convincenti e personalizzate da rendere la distinzione tra fiducia e ingenuità quasi impossibile.
Poiché l’errore umano rimane il vettore principale d’attacco, la strategia di difesa più efficace passerebbe verosimilmente per l’adozione di piattaforme HR evolute, capaci di mappare le lacune di competenza digitale dello staff e imporre percorsi di formazione sulla sicurezza obbligatori e tracciati.



