L’AI non è più solo uno strumento di difesa, ma il motore principale per chi conduce attacchi, potenziando malware, deepfake e ransomware per manipolare la realtà e le catene di fornitura.

[In pillole] La sintesi per chi va di fretta:
Nel 2026 l’intelligenza artificiale è diventata la principale arma per il cybercrime, trasformando il panorama della sicurezza. Report di settore, come quello di Trend Micro, evidenziano l'uso di IA per creare malware, deepfake e phishing sofisticati. Questa evoluzione rende il ransomware un rischio sistemico, colpendo le catene di fornitura e sfruttando il fattore umano con tecniche di manipolazione inedite.
L’intelligenza artificiale come moltiplicatore di minacce
Il panorama della sicurezza informatica del 2026 ha assunto contorni profondamente diversi rispetto al passato, con l’intelligenza artificiale che non è più soltanto uno strumento di difesa, ma è diventata il principale motore di trasformazione per chi conduce attacchi. Analisi di settore convergenti indicano che la combinazione di sistemi di intelligenza artificiale autonomi, tecnologie di deepfake sempre più sofisticate, piattaforme di ransomware-as-a-service e vulnerabilità lungo le catene di fornitura ha creato una convergenza di rischi interconnessi che le difese tradizionali faticano a contrastare.
L’anno in corso segna un punto di svolta, in cui l’intelligenza artificiale è passata da strumento predittivo a vera e propria arma.
Gli aggressori stanno infatti utilizzando i modelli linguistici di grandi dimensioni (LLM) e gli agenti autonomi per generare varianti di malware in modo quasi illimitato, creare esche di phishing estremamente convincenti e condurre operazioni di ricognizione su una scala prima inimmaginabile.
Secondo il rapporto sulle previsioni di sicurezza per il 2026 di Trend Micro, le minacce informatiche stanno diventando «più veloci, più automatizzate e più coordinate che mai», identificando proprio l’intelligenza artificiale come uno dei sei ambiti determinanti.
La raffinatezza di questi metodi va oltre la semplice generazione di codice: oggi gli aggressori usano l’elaborazione del linguaggio naturale per analizzare i dati rubati, identificare le informazioni di maggior valore e apprendere dalle comunicazioni autentiche per creare contenuti di phishing quasi perfetti.
In questo contesto, il ransomware ha smesso di essere un evento dirompente e isolato per trasformarsi in un rischio sistemico per le infrastrutture. Le proiezioni di Cybersecurity Ventures indicano che i costi globali dei danni da ransomware aumenteranno del 30 per cento, passando dai 57 miliardi di dollari del 2025 ai 74 miliardi nel 2026.
Questa escalation non riflette solo un aumento del volume degli attacchi, ma un cambiamento fondamentale nel loro funzionamento. Le piattaforme di ransomware-as-a-service (RaaS), potenziate dall’intelligenza artificiale, hanno abbassato drasticamente le barriere d’ingresso, permettendo anche a persone con competenze tecniche minime di lanciare campagne complesse.
Questi sistemi automatizzati gestiscono la ricognizione, lo sfruttamento delle vulnerabilità, l’esfiltrazione dei dati e persino la personalizzazione dei messaggi di estorsione. Invece di concentrarsi unicamente sulla crittografia dei file, le moderne operazioni di ransomware sfruttano la fiducia stessa, manipolando i dati rubati attraverso l’alterazione di media e tattiche di coercizione personalizzate dall’IA.
Questa evoluzione ha spostato il campo di battaglia.
Gli attacchi non puntano più solo al bersaglio finale, ma prendono di mira le catene di fornitura, gli aggiornamenti software “avvelenati” e i servizi cloud come punti di ingresso, spesso noleggiando potenza di calcolo nel cloud e dirottando infrastrutture legittime per massimizzare l’impatto e allo stesso tempo eludere il rilevamento.
La minaccia, quindi, non è più solo una questione di software malevolo, ma è diventata una manipolazione mirata e personale della percezione della realtà.
La manipolazione della realtà e il fattore umano
La tecnologia deepfake è passata da curiosità a vettore di minaccia credibile. Utilizzando l’intelligenza artificiale generativa, gli aggressori creano imitazioni in tempo reale di candidati politici, dirigenti aziendali, personale di sicurezza e funzionari locali.
Come descritto da Primesecured, queste identità sintetiche servono a molteplici scopi: campagne di phishing, chiamate fraudolente, operazioni di disinformazione e, cosa ancora più preoccupante, estorsioni in cui le vittime vengono manipolate con prove fabbricate di furti di dati.
L’accessibilità degli strumenti per la generazione di deepfake ha aggravato il rischio. Se le versioni precedenti richiedevano competenze specialistiche, la tecnologia del 2026 è al contempo più realistica e più democratizzata.
L’impatto si estende oltre le singole organizzazioni. Attori legati a stati nazionali utilizzano ormai identità sintetiche e profili assistiti da deepfake per infiltrarsi nelle aziende dall’interno, riuscendo a modificare codice, rubare dati o sabotare sistemi sotto le mentite spoglie di un lavoro legittimo.
Nonostante la sofisticazione tecnologica, l’ingegneria sociale e l’inganno sull’identità restano i principali vettori d’attacco.
– Leggi anche: Intelligenza artificiale la grande scommessa dei CEO tra ottimismo e ROI
Le campagne di phishing potenziate dall’IA sfruttano i modelli comportamentali: se prima le email di phishing contenevano errori di ortografia evidenti e frasi goffe, oggi raccolgono dettagli dai social media e dalle email per creare messaggi che copiano lo stile di scrittura personale, fanno riferimento ad argomenti familiari e includono dettagli personali accurati, rendendoli molto più credibili.
Gli attacchi basati sulla voce rappresentano una frontiera emergente. Gli aggressori combinano la tecnologia di clonazione vocale con copioni generati da modelli linguistici per impersonare dirigenti in tempo reale, aggirando i protocolli tradizionali di verifica dell’identità che si basavano sul riconoscimento vocale.
Le campagne di vishing (phishing vocale) che mirano a ottenere le credenziali di accesso unico (SSO) e di autenticazione a più fattori (MFA) delle aziende sono aumentate drasticamente, con gli aggressori che hanno spostato le loro strategie dall’installazione di malware alla manipolazione diretta delle persone.
L’anello debole, ancora una volta, sembra essere l’essere umano.
Ma la vulnerabilità non è confinata all’individuo: si estende a tutta la rete di fiducia che lega le aziende tra loro.
Quando il problema è nella filiera
Le vulnerabilità della catena di fornitura si sono evolute, superando la semplice compromissione di un software. Nel 2026, questi attacchi funzionano come operazioni a più stadi che sfruttano i mercati del dark web e profili sintetici per infiltrarsi negli ambienti dei fornitori prima di passare alle grandi imprese. Questo approccio si basa su una realtà fondamentale: i fornitori hanno spesso difese di sicurezza più deboli rispetto ai loro clienti aziendali, il che li rende un punto d’appoggio ideale.
L’integrazione dell’intelligenza artificiale in questi attacchi ne amplifica l’efficacia: gli aggressori utilizzano modelli di machine learning per identificare i fornitori più preziosi, prevedere i vettori di ingresso ed eseguire ricognizioni con una precisione senza precedenti.
A minare le difese contribuisce una vulnerabilità critica e interna alle aziende: il 60 per cento delle organizzazioni non dispone di una governance formale dell’intelligenza artificiale o di politiche di sicurezza per proteggersi dalle minacce derivanti da sistemi di “shadow AI” non gestiti all’interno della propria infrastruttura. Questa lacuna si è già tradotta in costi misurabili: le organizzazioni senza politiche di sicurezza per l’IA riportano spese più elevate in caso di violazione e faticano a contenere gli incidenti in modo efficace.
Sembra esserci una corsa all’adozione di nuove tecnologie senza una parallela e matura riflessione sulla loro gestione e sui rischi che comportano.
Certo, i sistemi di rilevamento del phishing basati sul machine learning hanno raggiunto tassi di precisione superiori al 97 per cento, ma questa capacità tecnologica richiede investimenti e competenze che rimangono distribuiti in modo diseguale. La stessa automazione che accelera l’innovazione, allo stesso tempo, amplifica la capacità di sfruttamento, permettendo agli aggressori di scansionare, testare e adattare le vulnerabilità quasi istantaneamente. Una capacità che richiede alle difese una risposta basata su intelligenza artificiale su misura e non su soluzioni generiche.
Oltre alle minacce immediate, l’impatto emergente del calcolo quantistico e la frammentazione della collaborazione globale sulla sicurezza informatica rappresentano rischi sistemici a più lungo termine.
Il consenso tra gli istituti di ricerca sulla sicurezza è chiaro: i modelli di difesa tradizionali non sono più sufficienti. La convergenza di sistemi di intelligenza artificiale autonomi, modelli aziendali compromessi e filiere di fornitura “avvelenate” crea quella che i ricercatori descrivono come una superficie di attacco senza precedenti, dove “ogni dipendenza aziendale” si trasforma in un potenziale vettore di compromissione.
Resta da capire se la consapevolezza di questo cambiamento radicale si tradurrà in strategie adeguate o se si continuerà a reagire agli incidenti invece di prevenirli.



