Il gruppo Kimsuky ha sfruttato l’ingegneria dei prompt per generare false identità e condurre campagne di spear phishing, rivelando come le difese dell’intelligenza artificiale siano state aggirate nell’ambito di una strategia di spionaggio più ampia.

[In pillole] La sintesi per chi va di fretta:
Hacker nordcoreani del gruppo Kimsuky hanno sfruttato ChatGPT per creare documenti d'identità militari sudcoreani falsi. Impiegati in una sofisticata campagna di spear phishing, hanno permesso di infettare obiettivi strategici con malware. L'attacco rivela come le protezioni dell'IA siano state aggirate tramite "prompt engineering", sollevando dubbi sull'efficacia delle misure di sicurezza e sulla crescente minaccia delle intelligenze artificiali generative.
Un’operazione di ingegneria sociale sempre più sofisticata
L’attacco, avvenuto nel corso di luglio 2025, è stato condotto con una meticolosità che tradisce una pianificazione attenta. Secondo l’analisi della società di sicurezza informatica sudcoreana Genians, che ha scoperto e analizzato la campagna, gli hacker del gruppo Kimsuky hanno preso di mira un gruppo ben definito di persone: personale militare, ricercatori specializzati in questioni nordcoreane, giornalisti che si occupano di sicurezza regionale e attivisti per i diritti umani. La tecnica utilizzata è quella del cosiddetto spear phishing, un tipo di attacco mirato in cui l’inganno è personalizzato per risultare il più credibile possibile per la vittima designata.
In questo caso, gli aggressori hanno inviato email con l’oggetto “Richiesta di revisione bozza carta d’identità”, utilizzando un dominio ingannevole, “mli.kr”, che a un occhio poco attento poteva sembrare molto simile a quello ufficiale dell’esercito sudcoreano, “mil.kr”. Come riportato dal quotidiano sudcoreano Korea JoongAng Daily, all’interno delle email erano presenti immagini di carte d’identità militari generate artificialmente, create con l’obiettivo di convincere i destinatari a cliccare su un link per “rivedere” o “confermare” i dati. Quel link, tuttavia, non portava a un documento, ma avviava il download di un malware progettato per sottrarre informazioni sensibili dai dispositivi infettati.
L’uso di identità deepfake ha rappresentato il punto di svolta, conferendo alla truffa un livello di verosimiglianza difficilmente raggiungibile con le tecniche tradizionali.
Ma il dettaglio più significativo non riguarda tanto l’obiettivo dell’attacco, quanto il metodo utilizzato per creare le false identità, un metodo che si è dimostrato capace di aggirare le barriere pensate proprio per impedire abusi di questo tipo.
Le falle nei sistemi di sicurezza dell’intelligenza artificiale
Il vero campanello d’allarme di questa vicenda risiede nel modo in cui il gruppo Kimsuky è riuscito a piegare ChatGPT ai propri scopi. Le grandi aziende tecnologiche dedicate allo sviluppo di modelli di intelligenza artificiale, come OpenAI, hanno implementato una serie di protocolli di sicurezza per impedire che i loro strumenti vengano usati per scopi illegali o dannosi.
Generare un documento di identità governativo falso rientra, ovviamente, tra le azioni proibite. Infatti, quando i ricercatori di Genians hanno tentato di replicare l’operazione, il sistema di ChatGPT ha inizialmente rifiutato le loro richieste, riconoscendole come una violazione delle sue policy.
Questo sembrerebbe dimostrare che le protezioni funzionano.
Eppure, gli hacker nordcoreani hanno trovato il modo di aggirarle. Lo hanno fatto attraverso una tecnica nota come prompt engineering, che consiste nel formulare le richieste in modo tale da eludere i filtri di sicurezza.
– Leggi anche: Albania nomina Diella, intelligenza artificiale, ministro di gabinetto contro la corruzione
Modificando leggermente le istruzioni, utilizzando sinonimi o giri di parole, sono riusciti a convincere l’intelligenza artificiale a produrre le immagini di cui avevano bisogno, senza far scattare gli allarmi interni del sistema.
Questo successo solleva un dubbio fondamentale sull’approccio alla sicurezza adottato dalle multinazionali della tecnologia: queste barriere, spesso presentate come solide e affidabili, sono davvero efficaci o rappresentano più che altro una facciata, facilmente aggirabile da chiunque abbia sufficiente determinazione e un po’ di astuzia?
La facilità con cui un gruppo di hacker sponsorizzato da uno stato è riuscito a superare questi ostacoli suggerisce che la corsa alla sicurezza dell’IA sia ancora molto indietro rispetto allo sviluppo delle sue capacità.
L’uso di ChatGPT per creare documenti falsi non è stato un esperimento isolato, ma si inserisce in una strategia più ampia e consolidata, in cui l’intelligenza artificiale è diventata uno strumento ricorrente per le operazioni nordcoreane.
Un tassello in una strategia più ampia
Il gruppo Kimsuky non è nuovo a operazioni di spionaggio informatico. È attivo da oltre un decennio ed è ritenuto dagli analisti occidentali una delle principali unità di cyber-spionaggio al servizio del regime di Pyongyang, con il compito di raccogliere informazioni di intelligence a livello globale, come descritto dal Dipartimento della Sicurezza Interna degli Stati Uniti.
Quello che è cambiato negli ultimi tempi è il ricorso sempre più sistematico a strumenti di intelligenza artificiale per rendere le proprie attività più efficienti.
Questo non è infatti il primo caso documentato. Già in precedenza, altre aziende tecnologiche avevano segnalato attività simili. Ad esempio, Anthropic, la società che sviluppa il modello di IA Claude, aveva scoperto che hacker nordcoreani utilizzavano la sua tecnologia per generare curriculum e credenziali false, riuscendo a ottenere posti di lavoro da remoto in grandi aziende tecnologiche per poi infiltrarsi nelle loro reti.
Anche la stessa OpenAI aveva rivelato che gruppi legati alla Corea del Nord stavano usando i suoi strumenti per scrivere email di phishing più convincenti e per automatizzare parte della ricerca di vulnerabilità nei sistemi informatici.
Queste attività dimostrano una strategia chiara: sfruttare la tecnologia più avanzata disponibile per aggirare le sanzioni internazionali, raccogliere informazioni strategiche e, in alcuni casi, finanziare i programmi militari del paese attraverso furti di criptovalute e altre attività illecite.
L’intelligenza artificiale, in questo contesto, diventa un moltiplicatore di forza, permettendo anche a un paese isolato e con risorse limitate di competere sul fronte della guerra cibernetica con potenze ben più grandi.
L’episodio sudcoreano, quindi, non è che l’ultima manifestazione di una tendenza destinata a diventare sempre più pervasiva, trasformando radicalmente il panorama della sicurezza globale.
 
         
         
         
        


