Il rapporto di Google ha scovato un malware sperimentale capace di modificare il proprio codice in tempo reale per eludere i sistemi di sicurezza

[In pillole] La sintesi per chi va di fretta:
Google ha scoperto PROMPTFLUX, un malware che sfrutta l'intelligenza artificiale per modificare il proprio codice in tempo reale. Interagendo con Gemini, genera nuove versioni di sé stesso per eludere i sistemi di sicurezza basati su firme. Questa evoluzione, sebbene ancora acerba e discussa dagli esperti, segna un passo significativo verso minacce più autonome, ridefinendo la corsa agli armamenti nella cybersecurity.
Come funziona un malware che si riscrive da solo
Per comprendere il funzionamento di PROMPTFLUX, bisogna entrare un po’ nei dettagli tecnici. Il malware, scritto in un linguaggio di scripting piuttosto datato chiamato Visual Basic Script, contiene al suo interno un componente che i ricercatori hanno definito “Thinking Robot“, un robot pensante.
Questo componente ha un compito preciso: a intervalli regolari, contatta i server di Google tramite una chiave di accesso (una specie di password per usare il servizio) trovata direttamente nel suo codice.
Una volta stabilita la connessione, invia a Gemini delle richieste molto specifiche, dei “prompt” formulati per ottenere un risultato preciso: una nuova porzione di codice in Visual Basic Script, offuscata in modo da eludere i controlli degli antivirus.
L’offuscamento è una tecnica che rende il codice illeggibile agli esseri umani e difficile da analizzare per i software automatici, pur mantenendone intatta la funzionalità.
Una delle varianti analizzate da Google era stata programmata per essere particolarmente tenace: l’obiettivo era riscrivere il proprio intero codice sorgente ogni ora. Il prompt inviato a Gemini era eloquente, poiché gli chiedeva di agire come un “esperto offuscatore di VB Script”.
A ogni ciclo, il malware riceveva la sua nuova versione, la salvava nella cartella di avvio di Windows per assicurarsi di ripartire al successivo riavvio del computer e tentava persino di diffondersi copiandosi su eventuali chiavette USB collegate o su altre cartelle di rete condivise.
La scoperta, come descritto nel dettaglio sul blog di Google Cloud, solleva interrogativi non banali sull’abuso di strumenti di intelligenza artificiale potenti e accessibili a tutti, inclusi quelli sviluppati e messi a disposizione dalle stesse aziende che poi si trovano a doverne combattere gli usi illeciti.
La continua metamorfosi del codice è il vero punto di rottura rispetto al passato. Finora, i malware più sofisticati, detti “polimorfici”, contenevano al loro interno un numero finito di modi per mascherarsi.
PROMPTFLUX, invece, delega questa capacità a un’intelligenza artificiale esterna, potendo così generare un numero virtualmente infinito di varianti.
Questo non significa però che siamo di fronte a una minaccia già matura e inarrestabile.
Anzi, le analisi suggeriscono una realtà più complessa e per certi versi ancora acerba.
Un fenomeno più ampio, ma forse da ridimensionare
PROMPTFLUX non è un caso isolato. Nello stesso rapporto, Google menziona di aver identificato altre famiglie di malware che fanno uso dell’intelligenza artificiale, seppure con scopi diversi.
Tra queste c’è PROMPTSTEAL, un software che si finge uno strumento per generare immagini ma che in realtà usa i modelli linguistici per ottenere comandi con cui rubare informazioni dal computer infetto.
Queste scoperte indicano che diversi gruppi di criminali informatici stanno attivamente sperimentando con queste nuove tecnologie, cercando di capire come integrarle nelle loro operazioni.
Google definisce questo passaggio “un passo significativo verso un malware più autonomo e adattivo”.
Tuttavia, la stessa Google ammette che PROMPTFLUX sembra essere ancora in una fase di sviluppo o, al più, di test.
Il codice analizzato conteneva funzionalità incomplete e meccanismi per limitare il numero di richieste a Gemini, un indizio che suggerisce come i suoi creatori stessero ancora affinando la tecnica, forse anche per non consumare troppo in fretta il credito associato alla chiave di accesso.
L’azienda ha tenuto a precisare che, allo stato attuale, “questo malware non dimostra la capacità di compromettere la rete o il dispositivo di una vittima”, e ha provveduto a disabilitare gli account e le risorse associate a queste attività.
– Leggi anche: Automazione robotica: la spina dorsale dell’industria elettronica tra precisione e dipendenza globale
L’identità degli sviluppatori resta sconosciuta, ma alcuni indizi, come i nomi dei file usati per diffonderlo, fanno pensare a gruppi motivati dal profitto che usano tecniche di ingegneria sociale su larga scala.
Alla narrazione di una minaccia imminente e rivoluzionaria si è contrapposta la voce di alcuni esperti del settore, più scettici.
Tra questi, il noto ricercatore di sicurezza Marcus Hutchins ha offerto una lettura più misurata, sostenendo che la reale pericolosità di PROMPTFLUX potrebbe essere stata sopravvalutata.
Hutchins ha fatto notare che il malware opera partendo dal presupposto errato che Gemini “sappia istintivamente come eludere gli antivirus”, cosa che non è vera.
Inoltre, ha evidenziato come la funzione di auto-modifica nel codice che ha analizzato fosse “commentata”, cioè disattivata, e quindi non in uso.
Mancavano anche, secondo lui, meccanismi per garantire che ogni nuova versione del codice fosse effettivamente diversa dalle precedenti in modo significativo, o garanzie che il nuovo codice funzionasse correttamente.
La sua critica si spinge a definire questi esperimenti “slop malware“, cioè malware “di scarto” generato dall’intelligenza artificiale, suggerendo che le grandi aziende tecnologiche potrebbero avere un interesse a enfatizzare la gravità di queste minacce.
La nuova corsa agli armamenti dell’intelligenza artificiale
Anche se l’efficacia immediata di malware come PROMPTFLUX è oggetto di dibattito, la sua esistenza conferma l’avvio di una nuova fase nella perenne rincorsa tra chi attacca e chi difende i sistemi informatici. Mentre i criminali sperimentano, anche i difensori stanno da tempo usando l’intelligenza artificiale per identificare minacce e anomalie.
Ora, però, la stessa tecnologia viene usata per rendere gli attacchi più difficili da individuare, costringendo il settore della sicurezza a ripensare le proprie strategie. L’attenzione si sta spostando sempre di più dalla difesa basata sulle firme a quella basata sul comportamento: invece di cercare di riconoscere un malware da “com’è fatto”, si cerca di identificarlo da “cosa fa”.
Il quadro, inoltre, è più vasto del singolo malware sperimentale. Lo stesso rapporto di Google evidenzia come gruppi di hacker legati a stati come Corea del Nord, Iran, Cina e Russia stiano già integrando l’intelligenza artificiale nelle loro operazioni più complesse.
La usano per migliorare le fasi di ricognizione degli obiettivi, per creare email di phishing più credibili, per sviluppare l’infrastruttura di comando e controllo dei loro malware e per analizzare i dati rubati.
L’evoluzione del phishing, in particolare, sposta l’onere della difesa dal singolo utente a sistemi più dinamici. A questo punto, una contromisura efficace non è più un filtro statico, ma un’analisi comportamentale continua. Significa addestrare un sistema a riconoscere le micro-anomalie in un flusso di comunicazioni, imparando dai dati storici per individuare un attacco prima che l’utente debba anche solo porsi il dubbio. Questa pratica di apprendimento automatico dai dati è esattamente ciò che definisce il campo del machine learning.
Un altro fattore che accelera questa tendenza è la crescita di un mercato nero, sul dark web, dove vengono venduti strumenti basati su IA progettati appositamente per scopi illeciti, abbassando notevolmente la soglia di accesso a tecniche avanzate anche per criminali meno esperti.
In definitiva, la scoperta di PROMPTFLUX è importante non tanto per la minaccia che rappresenta oggi, quanto per ciò che prefigura per il futuro. Segna il momento in cui l’intelligenza artificiale non è più solo uno strumento di supporto per chi attacca, ma diventa una componente attiva e integrata all’interno del malware stesso.
Anche se l’era dei software malevoli completamente autonomi e adattivi non è ancora arrivata, le fondamenta tecniche e concettuali si stanno consolidando.
E questo costringerà tutti, dalle aziende che sviluppano questi modelli di IA ai ricercatori che devono difendere le reti, a partecipare a una corsa agli armamenti tecnologici sempre più rapida e complessa.



