Kimsuky e ChatGPT: gli hacker nordcoreani creano deepfake e svelano le falle dell’IA

· news

Il gruppo Kimsuky ha sfruttato l’ingegneria dei prompt per generare false identità e condurre campagne di spear phishing, rivelando come le difese dell’intelligenza artificiale siano state aggirate nell’ambito di una strategia di spionaggio più ampia.

Kimsuky e ChatGPT: gli hacker nordcoreani creano deepfake e svelano le falle dell’IA
[In pillole] La sintesi per chi va di fretta:
Hacker nordcoreani del gruppo Kimsuky hanno sfruttato ChatGPT per creare documenti d'identità militari sudcoreani falsi. Impiegati in una sofisticata campagna di spear phishing, hanno permesso di infettare obiettivi strategici con malware. L'attacco rivela come le protezioni dell'IA siano state aggirate tramite "prompt engineering", sollevando dubbi sull'efficacia delle misure di sicurezza e sulla crescente minaccia delle intelligenze artificiali generative.

Un’operazione di ingegneria sociale sempre più sofisticata

L’attacco, avvenuto nel corso di luglio 2025, è stato condotto con una meticolosità che tradisce una pianificazione attenta. Secondo l’analisi della società di sicurezza informatica sudcoreana Genians, che ha scoperto e analizzato la campagna, gli hacker del gruppo Kimsuky hanno preso di mira un gruppo ben definito di persone: personale militare, ricercatori specializzati in questioni nordcoreane, giornalisti che si occupano di sicurezza regionale e attivisti per i diritti umani. La tecnica utilizzata è quella del cosiddetto spear phishing, un tipo di attacco mirato in cui l’inganno è personalizzato per risultare il più credibile possibile per la vittima designata.

In questo caso, gli aggressori hanno inviato email con l’oggetto “Richiesta di revisione bozza carta d’identità”, utilizzando un dominio ingannevole, “mli.kr”, che a un occhio poco attento poteva sembrare molto simile a quello ufficiale dell’esercito sudcoreano, “mil.kr”. Come riportato dal quotidiano sudcoreano Korea JoongAng Daily, all’interno delle email erano presenti immagini di carte d’identità militari generate artificialmente, create con l’obiettivo di convincere i destinatari a cliccare su un link per “rivedere” o “confermare” i dati. Quel link, tuttavia, non portava a un documento, ma avviava il download di un malware progettato per sottrarre informazioni sensibili dai dispositivi infettati.

L’uso di identità deepfake ha rappresentato il punto di svolta, conferendo alla truffa un livello di verosimiglianza difficilmente raggiungibile con le tecniche tradizionali.

Ma il dettaglio più significativo non riguarda tanto l’obiettivo dell’attacco, quanto il metodo utilizzato per creare le false identità, un metodo che si è dimostrato capace di aggirare le barriere pensate proprio per impedire abusi di questo tipo.

Le falle nei sistemi di sicurezza dell’intelligenza artificiale

Il vero campanello d’allarme di questa vicenda risiede nel modo in cui il gruppo Kimsuky è riuscito a piegare ChatGPT ai propri scopi. Le grandi aziende tecnologiche dedicate allo sviluppo di modelli di intelligenza artificiale, come OpenAI, hanno implementato una serie di protocolli di sicurezza per impedire che i loro strumenti vengano usati per scopi illegali o dannosi.

Generare un documento di identità governativo falso rientra, ovviamente, tra le azioni proibite. Infatti, quando i ricercatori di Genians hanno tentato di replicare l’operazione, il sistema di ChatGPT ha inizialmente rifiutato le loro richieste, riconoscendole come una violazione delle sue policy.

Questo sembrerebbe dimostrare che le protezioni funzionano.

Eppure, gli hacker nordcoreani hanno trovato il modo di aggirarle. Lo hanno fatto attraverso una tecnica nota come prompt engineering, che consiste nel formulare le richieste in modo tale da eludere i filtri di sicurezza.

– Leggi anche: Albania nomina Diella, intelligenza artificiale, ministro di gabinetto contro la corruzione

Modificando leggermente le istruzioni, utilizzando sinonimi o giri di parole, sono riusciti a convincere l’intelligenza artificiale a produrre le immagini di cui avevano bisogno, senza far scattare gli allarmi interni del sistema.

Questo successo solleva un dubbio fondamentale sull’approccio alla sicurezza adottato dalle multinazionali della tecnologia: queste barriere, spesso presentate come solide e affidabili, sono davvero efficaci o rappresentano più che altro una facciata, facilmente aggirabile da chiunque abbia sufficiente determinazione e un po’ di astuzia?

La facilità con cui un gruppo di hacker sponsorizzato da uno stato è riuscito a superare questi ostacoli suggerisce che la corsa alla sicurezza dell’IA sia ancora molto indietro rispetto allo sviluppo delle sue capacità.

L’uso di ChatGPT per creare documenti falsi non è stato un esperimento isolato, ma si inserisce in una strategia più ampia e consolidata, in cui l’intelligenza artificiale è diventata uno strumento ricorrente per le operazioni nordcoreane.

Un tassello in una strategia più ampia

Il gruppo Kimsuky non è nuovo a operazioni di spionaggio informatico. È attivo da oltre un decennio ed è ritenuto dagli analisti occidentali una delle principali unità di cyber-spionaggio al servizio del regime di Pyongyang, con il compito di raccogliere informazioni di intelligence a livello globale, come descritto dal Dipartimento della Sicurezza Interna degli Stati Uniti.

Quello che è cambiato negli ultimi tempi è il ricorso sempre più sistematico a strumenti di intelligenza artificiale per rendere le proprie attività più efficienti.

Questo non è infatti il primo caso documentato. Già in precedenza, altre aziende tecnologiche avevano segnalato attività simili. Ad esempio, Anthropic, la società che sviluppa il modello di IA Claude, aveva scoperto che hacker nordcoreani utilizzavano la sua tecnologia per generare curriculum e credenziali false, riuscendo a ottenere posti di lavoro da remoto in grandi aziende tecnologiche per poi infiltrarsi nelle loro reti.

Anche la stessa OpenAI aveva rivelato che gruppi legati alla Corea del Nord stavano usando i suoi strumenti per scrivere email di phishing più convincenti e per automatizzare parte della ricerca di vulnerabilità nei sistemi informatici.

Queste attività dimostrano una strategia chiara: sfruttare la tecnologia più avanzata disponibile per aggirare le sanzioni internazionali, raccogliere informazioni strategiche e, in alcuni casi, finanziare i programmi militari del paese attraverso furti di criptovalute e altre attività illecite.

L’intelligenza artificiale, in questo contesto, diventa un moltiplicatore di forza, permettendo anche a un paese isolato e con risorse limitate di competere sul fronte della guerra cibernetica con potenze ben più grandi.

L’episodio sudcoreano, quindi, non è che l’ultima manifestazione di una tendenza destinata a diventare sempre più pervasiva, trasformando radicalmente il panorama della sicurezza globale.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Albania nomina Diella, intelligenza artificiale, ministro di gabinetto contro la corruzione

Albania nomina Diella, intelligenza artificiale, ministro di gabinetto contro la corruzione

Il 12 settembre 2025, l'Albania ha compiuto una mossa storica nominando Diella, un'intelligenza artificiale, ministro di gabinetto. Il suo incarico è supervisionare gli appalti pubblici per eliminare la corruzione. Questa decisione audace, annunciata dal primo ministro Edi Rama, mira a risolvere un problema decennale e ad accelerare il percorso del paese verso l'integrazione europea. Un esperimento globale di governance e tecnologia.

Microsoft integra Anthropic in Office 365: la fine dell’esclusività OpenAI

Microsoft integra Anthropic in Office 365: la fine dell’esclusività OpenAI

Microsoft ha stretto una partnership con Anthropic, integrando i modelli Claude nell'intera suite Office 365 e ponendo fine all'esclusività di OpenAI. La mossa è dettata dalle prestazioni superiori di Claude in compiti chiave, come la creazione di presentazioni e l'analisi finanziaria, e segna una diversificazione strategica per Microsoft nel settore dell'IA.

L’intelligenza artificiale non è più un’opzione, la visione di Nisarg Shah

L’intelligenza artificiale non è più un’opzione, la visione di Nisarg Shah

Meta considera l'intelligenza artificiale una componente ineludibile, come affermato dal Product Manager Nisarg Shah. Non una previsione, ma una realtà operativa che modella quotidianamente le piattaforme social. L'AI è il motore di personalizzazione e engagement, definendo il futuro dell'interazione digitale di miliardi. Emergono questioni di trasparenza e controllo per gli utenti.

[Altre storie]

La difficile ricerca di manager: un problema globale che le aziende non sanno come risolvere

La ricerca di manager competenti è una sfida globale per le aziende. Un'indagine del Gruppo Cegos rivela che il 42% dei direttori HR fatica a reclutare, mentre il 68% ritiene i dipendenti interni impreparati. I nuovi leader, seppur soddisfatti, lamentano carichi di lavoro eccessivi e poco tempo per l'aspetto umano. Le aziende esplorano soluzioni tecnologiche, ma la questione richiede una revisione profonda della crescita della leadership.

ASML e Mistral AI: l’alleanza strategica che ridefinisce la tecnologia europea

ASML, colosso olandese dei semiconduttori, ha investito 1,3 miliardi di euro in Mistral AI, promettente startup francese di intelligenza artificiale. L'alleanza strategica mira a rafforzare l'autonomia tecnologica europea, unendo produzione hardware e sviluppo AI. Questo partenariato, pur promettendo innovazione per i microchip, solleva interrogativi sull'indipendenza futura di Mistral AI e sulla sovranità digitale europea.

OpenAI: le allucinazioni nei modelli AI sono incentivate dai sistemi di valutazione?

Una ricerca di OpenAI rivoluziona il dibattito sulle allucinazioni dell'IA, suggerendo che non siano un difetto tecnico, ma una conseguenza diretta dei sistemi di valutazione. I modelli linguistici sarebbero incentivati a mentire per apparire più accurati, compromettendo la fiducia e sollevando dubbi sull'integrazione in settori critici come medicina e finanza, specialmente nei modelli più avanzati. Urge una riforma dei metodi di valutazione.

OpenAI lancia ‘Critterz’: il film d’animazione creato con l’IA sfida Hollywood

OpenAI finanzia "Critterz", un lungometraggio animato prodotto con intelligenza artificiale generativa in soli nove mesi. Il film, realizzato con Vertigo Films e Native Foreign, mira a dimostrare la maturità dell'IA nel cinema. La presentazione a Cannes 2026 suscita aspettative, ma anche forti preoccupazioni per l'impatto occupazionale e il copyright nel settore.

Alibaba.com rivoluziona il commercio B2B con strumenti AI avanzati per un mercato globale

Alibaba.com ha annunciato un'importante espansione dei suoi strumenti AI, tra cui Deep Search e traduttori intelligenti, per potenziare il commercio B2B transfrontaliero. Presentate a CoCreate 2025, queste innovazioni mirano a semplificare gli scambi per le PMI. Tuttavia, in un mercato globale sempre più dominato dall'e-commerce cinese, sorgono interrogativi su nuove dipendenze e l'equilibrio del potere.

Apple Intelligence arriva in Cina: la strategia di Apple tra vendite, alleanze e censure

Apple sta accelerando l'introduzione di Apple Intelligence in Cina entro il 2025. La decisione mira a rilanciare le vendite di iPhone nel competitivo mercato locale, rendendo l'IA disponibile per l'iPhone 17. Questa strategia prevede complesse alleanze con Baidu, che fornirà il motore AI, e Alibaba, responsabile della conformità e censura, sollevando delicate questioni di privacy e geopolitiche.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP