Si avvale di un’intelligenza artificiale per generare in tempo reale gli script malevoli, pur essendo al momento un prototipo sperimentale.
[In pillole] La sintesi per chi va di fretta:
ESET ha identificato PromptLock, il primo prototipo di ransomware alimentato da intelligenza artificiale. Genera script Lua in tempo reale tramite un modello AI open source per criptare ed esfiltrare file. La scoperta, pur essendo un esperimento, evidenzia le nuove sfide per la sicurezza informatica e i rischi della democratizzazione AI.
Un codice che si scrive da solo
Ogni tanto, emerge qualcosa che sposta i confini di ciò che si riteneva possibile. È questo il caso di “PromptLock“, un software malevolo identificato dai ricercatori della società di sicurezza ESET che ha le caratteristiche per essere definito il primo ransomware noto alimentato da un’intelligenza artificiale.
La scoperta, avvenuta negli ultimi giorni di agosto, non riguarda una minaccia attualmente in circolazione su larga scala, ma piuttosto un prototipo, un concetto che dimostra come strumenti tecnologici accessibili a tutti possano essere riadattati per scopi distruttivi.
La particolarità di PromptLock non risiede tanto nel suo obiettivo finale, che è quello classico di un ransomware – bloccare i file di un computer per chiedere un riscatto – quanto nel suo funzionamento interno, che rappresenta un salto di qualità notevole.
A differenza dei malware tradizionali, che operano sulla base di un codice predefinito e immutabile, PromptLock è stato progettato per essere dinamico. Scritto nel linguaggio di programmazione Golang, il suo cuore operativo si basa sull’interazione con un modello di intelligenza artificiale di grandi dimensioni.
Nello specifico, utilizza gpt-oss:20b
, un modello linguistico recentemente reso open source da OpenAI, interrogandolo attraverso una piattaforma chiamata Ollama. In pratica, il malware non contiene già le istruzioni per danneggiare il sistema, ma le genera al momento, chiedendo all’intelligenza artificiale di scrivere per lui degli script in linguaggio Lua.
Questi script, creati in tempo reale, sono quelli che poi eseguono le operazioni dannose: analizzano i file presenti sul computer, selezionano quelli da colpire, ne copiano alcuni per sottrarli alla vittima e infine li criptano.
Come descritto da Anton Cherepanov, il ricercatore di ESET che ha guidato l’analisi, “PromptLock sfrutta script Lua generati da istruzioni preimpostate per enumerare il file system, ispezionare i file bersaglio, esfiltrare i dati selezionati ed eseguire la crittografia”.
Questa capacità di generare codice “al volo” rende ogni attacco potenzialmente unico, complicando notevolmente il lavoro dei sistemi di sicurezza che si basano sul riconoscimento di codici malevoli già noti.
Ma se la tecnologia è così avanzata, perché non ne stiamo già vedendo gli effetti devastanti?
Più un esperimento che una minaccia concreta, per ora
Nonostante la sua architettura sofisticata, diversi elementi suggeriscono che PromptLock sia, al momento, più un esercizio di stile che una vera e propria arma digitale pronta all’uso. I ricercatori di ESET, pur avendolo analizzato a fondo, non hanno trovato prove di una sua diffusione attiva. Sembra essere un prototipo, un ‘proof-of-concept‘ come si dice in gergo, creato forse per testare i limiti della tecnologia o per dimostrarne le potenzialità.
A sostegno di questa tesi ci sono alcuni dettagli tecnici: parti del codice, come quelle destinate alla distruzione definitiva dei dati, appaiono incomplete. Inoltre, la scelta dell’algoritmo di crittografia, lo SPECK a 128-bit sviluppato dalla National Security Agency statunitense, e soprattutto l’indirizzo Bitcoin indicato per il pagamento del riscatto, che corrisponde a quello del creatore di Bitcoin, Satoshi Nakamoto, suonano più come un messaggio o un test che come una seria operazione criminale.
Questa natura sperimentale, però, non diminuisce la portata della scoperta. Anzi, la evidenzia. Il fatto che qualcuno, probabilmente con risorse non eccezionali, sia riuscito a integrare un modello di intelligenza artificiale open source in un ransomware, apre una riflessione profonda sulle conseguenze della rapida democratizzazione di queste tecnologie.
Le grandi aziende tecnologiche, come OpenAI, stanno rilasciando modelli sempre più potenti, spesso con la lodevole intenzione di favorire l’innovazione e la ricerca. Tuttavia, una volta che questi strumenti sono resi pubblici e liberamente utilizzabili, il controllo su come verranno impiegati diventa quasi impossibile.
– Leggi anche: L’intelligenza artificiale rivoluziona la sicurezza informatica: tra speranze e nuove sfide per i SOC
PromptLock è la dimostrazione pratica che la stessa tecnologia usata per scrivere poesie o aiutare nella programmazione può essere istruita per creare software dannoso. Non serve nemmeno che l’aggressore installi l’enorme modello di intelligenza artificiale sulla macchina della vittima; come hanno spiegato i ricercatori, è sufficiente creare una connessione remota a un server dove il modello è in esecuzione.
È questo il potere del machine learning: una branca dell’AI che, così come permette di sviluppare soluzioni software per aumentare l’efficienza operativa, può anche essere utilizzato per scopi meno nobili.
Questo abbassa drasticamente la soglia di competenze tecniche necessarie per creare attacchi informatici complessi e imprevedibili, mettendo strumenti potenti nelle mani di un pubblico molto più vasto.
La domanda che sorge spontanea, quindi, non è più se vedremo malware di questo tipo, ma quando e con quali conseguenze.
Le implicazioni di un vaso di Pandora tecnologico
L’esistenza di PromptLock, anche solo come esperimento, segna un punto di svolta. È l’indicazione che il settore della sicurezza informatica sta per entrare in una nuova fase, in cui dovrà confrontarsi con minacce non più statiche, ma fluide e adattive. Se un malware può riscrivere parti di sé stesso a ogni esecuzione, i metodi di difesa basati sulle “firme” digitali, cioè sul riconoscimento di codice già classificato come pericoloso, perdono molta della loro efficacia. La sfida si sposta quindi sul controllo dei comportamenti anomali e sull’analisi delle intenzioni, un compito decisamente più complesso.
Questo fenomeno non è isolato. Da tempo le intelligenze artificiali vengono usate per creare email di phishing sempre più credibili o per generare contenuti falsi, ma l’applicazione diretta alla scrittura di codice malevolo operativo è un’evoluzione significativa.
La questione solleva anche un problema di responsabilità. Quando un’azienda come OpenAI rilascia un modello open source, lo fa presentandolo come un contributo al progresso collettivo.
Ma quali sono le cautele adottate per prevenire abusi come PromptLock?
È sufficiente affidarsi a licenze d’uso che ne vietano l’impiego per scopi illeciti?
L’analisi di CyberScoop sottolinea come la facilità con cui questi strumenti sono accessibili possa permettere ad aggressori meno esperti di compiere attacchi di un livello superiore alle loro capacità. Si sta creando una situazione in cui la potenza di fuoco digitale è distribuita in modo sempre più ampio, senza un’adeguata struttura di controllo o di attribuzione di responsabilità.
PromptLock, nella sua forma attuale, potrebbe non essere la minaccia che metterà in ginocchio le reti informatiche globali, ma è un chiaro avvertimento.
È la prova che il vaso di Pandora della criminalità informatica potenziata dall’intelligenza artificiale è stato aperto, e chiudere il coperchio non sembra più un’opzione praticabile.
Il dibattito, d’ora in poi, dovrà necessariamente includere non solo come difendersi, ma anche quale sia il ruolo e il dovere di chi, creando queste tecnologie, ne rende possibile l’abuso.