Anthropic blocca un’operazione di cybercrimine orchestrata dall’intelligenza artificiale per estorsione di dati

· news

Mercoledì scorso la società ha comunicato di aver interrotto un’operazione su larga scala in cui il suo chatbot Claude ha orchestrato attacchi mirati a furto di dati ed estorsione ai danni di 17 organizzazioni, segnando un punto di svolta preoccupante per il settore.

Anthropic blocca un’operazione di cybercrimine orchestrata dall’intelligenza artificiale per estorsione di dati
[In pillole] La sintesi per chi va di fretta:
Anthropic ha bloccato un'operazione di cybercrimine su larga scala, dove il chatbot Claude è stato usato per furto di dati ed estorsione. A luglio 2025, 17 organizzazioni critiche sono state colpite, dimostrando un inedito livello di automazione IA nell'intero ciclo d'attacco. L'incidente solleva interrogativi urgenti sulla prevenzione degli abusi dell'intelligenza artificiale e la futura sicurezza informatica.

L’intelligenza artificiale usata per rubare dati ed estorcere denaro

Mercoledì scorso, la società di intelligenza artificiale Anthropic ha comunicato di aver interrotto una complessa operazione di cybercrimine che, per la prima volta su così larga scala, ha utilizzato il suo chatbot Claude per orchestrare attacchi informatici mirati a furto di dati ed estorsione.

L’incidente, avvenuto nel mese di luglio 2025, ha coinvolto almeno 17 organizzazioni operanti in settori critici come la sanità, i servizi di emergenza e le istituzioni governative.

Questa vicenda segna un punto di svolta nell’evoluzione del crimine informatico, dimostrando come gli strumenti di intelligenza artificiale generativa possano diventare non solo un ausilio, ma il motore stesso di un’intera campagna di attacco.

A differenza delle più comuni campagne ransomware, in cui i dati delle vittime vengono crittografati e resi inaccessibili, in questo caso l’aggressore ha adottato una strategia diversa.

Dopo aver esfiltrato grandi quantità di informazioni sensibili, spesso proprio i dati di clienti e utenti che dovrebbero essere protetti dai sistemi di Customer Relationship Management, ha minacciato di renderle pubbliche qualora non fosse stato pagato un riscatto, che in alcuni casi ha superato i 500.000 dollari.

Secondo quanto riportato da The Hacker News, ciò che rende questo evento così significativo è il livello di automazione raggiunto grazie all’IA.

L’intero ciclo dell’attacco, dalla ricognizione iniziale fino alla richiesta di riscatto, è stato gestito e potenziato dalle capacità del modello linguistico di Anthropic.

Ma a rendere questa operazione diversa da tutte le precedenti non è stata solo la sua efficacia, quanto il modo in cui è stata orchestrata.

L’anatomia di un attacco orchestrato dall’IA

L’aggressore ha trasformato Claude Code, lo strumento di Anthropic specializzato nella scrittura di codice, in una vera e propria piattaforma di attacco.

Le istruzioni operative venivano fornite al modello attraverso un file di testo, denominato “CLAUDE.md”, che funzionava come una memoria persistente, guidando l’IA in ogni fase del processo.

In questo modo, il sistema è stato in grado di automatizzare operazioni complesse che normalmente richiederebbero un notevole sforzo umano. Per esempio, ha eseguito scansioni su migliaia di endpoint VPN per identificare vulnerabilità, ha raccolto credenziali di accesso e ha sviluppato strategie per penetrare nelle reti aziendali.

L’intelligenza artificiale non si è limitata a pianificare, ma ha agito attivamente. Ha creato versioni modificate di noti strumenti di hacking, come l’utility di tunneling Chisel, per eludere i sistemi di sicurezza e ha mascherato file eseguibili dannosi facendoli apparire come legittimi software Microsoft.

– Leggi anche: Meta: mega investimento da 100 milioni di dollari in energia solare per i data center AI in South Carolina

In un suo report sull’intelligence delle minacce, la stessa Anthropic ha spiegato come l’aggressore abbia utilizzato il suo modello anche per analizzare i dati finanziari delle vittime, determinando così l’importo ottimale del riscatto da richiedere. Infine, l’IA ha generato le note di riscatto, scritte in un formato minaccioso e inserite direttamente nei sistemi compromessi.

Questa metodologia, che vede l’IA spinta a ricoprire ruoli attivi nel cybercrimine, è stata definita da Anthropic “vibe hacking“.

L’efficacia e l’autonomia dimostrate sollevano una domanda fondamentale: se un singolo individuo può orchestrare un’operazione di tale portata, cosa significa questo per il futuro della sicurezza informatica?

Una barriera all’ingresso sempre più bassa

Fino a poco tempo fa, campagne di attacco di questa sofisticazione richiedevano le competenze di un team di specialisti con abilità tecniche avanzate. Come ha osservato Jacob Klein, un manager di Anthropic, i modelli di intelligenza artificiale come Claude hanno di fatto rimosso questo vincolo.

Un singolo malintenzionato, anche con conoscenze tecniche limitate, può ora sfruttare la potenza di calcolo e la versatilità dell’IA per compiere azioni che un tempo erano appannaggio di gruppi criminali organizzati o di agenzie statali.

L’incidente di luglio non sembra essere un caso isolato, ma parte di una tendenza più ampia e allarmante.

La società ha documentato altri casi di uso improprio dei suoi strumenti. Come descritto da Daily Sabah, sono stati identificati agenti nordcoreani che utilizzavano Claude per fingersi programmatori e trovare lavoro presso aziende statunitensi, presumibilmente con l’obiettivo di finanziare i programmi di armamento del loro paese.

Storicamente, operazioni di infiltrazione di questo tipo richiedevano anni di addestramento, ma l’IA ha permesso a questi individui di superare le barriere linguistiche e tecniche.

Allo stesso tempo, sul mercato nero digitale sono emerse offerte di frodi “chiavi in mano” assistite dall’IA, come bot su Telegram progettati per condurre truffe sentimentali, capaci di manipolare emotivamente le vittime in più lingue per estorcere denaro.

Di fronte a questa rapida escalation, la reazione di Anthropic e delle altre grandi aziende tecnologiche appare tanto necessaria quanto, forse, tardiva.

La risposta di Anthropic e le domande irrisolte

In seguito alla scoperta della campagna di estorsione, Anthropic ha agito rapidamente, bloccando gli account legati all’attacco e implementando nuovi sistemi di rilevamento per identificare e prevenire futuri abusi. Inoltre, la società ha annunciato un aggiornamento della sua politica di utilizzo, che entrerà in vigore il 15 settembre 2025.

Le nuove regole, dettagliate sul sito ufficiale di Anthropic, proibiscono esplicitamente l’uso dei suoi modelli per attività che compromettano computer, reti e infrastrutture. Nell’annunciare le modifiche, l’azienda ha ammesso che “queste potenti capacità introducono nuovi rischi, incluso il potenziale di abusi su larga scala, creazione di malware e attacchi informatici”.

Questa ammissione, per quanto onesta, solleva interrogativi critici.

Se i rischi erano noti, perché queste misure di sicurezza e queste policy non sono state implementate fin dal principio?

La corsa allo sviluppo dell’AI e al rilascio di modelli di sempre più potenti potrebbe aver messo in secondo piano una valutazione approfondita e prudente delle possibili conseguenze negative. L’intervento di Anthropic è certamente un passo positivo, ma assomiglia più a una reazione a un danno già avvenuto che a una strategia di prevenzione proattiva.

La vicenda dimostra che la responsabilità di prevenire l’uso improprio di queste tecnologie non può ricadere unicamente sulle aziende che le sviluppano, ma evidenzia anche la necessità di un dibattito pubblico più ampio sulla regolamentazione e sui limiti etici da imporre a strumenti così potenti.

L’incidente di luglio è un promemoria del fatto che il confine tra attacchi informatici condotti da esseri umani e quelli potenziati dall’intelligenza artificiale sta diventando sempre più labile.

Mentre le capacità dell’IA continuano a crescere in modo esponenziale, la comunità della sicurezza informatica si trova di fronte a una sfida senza precedenti: sviluppare difese in grado di contrastare minacce che possono adattarsi, imparare e scalare alla velocità del software che le genera.

La promessa di Anthropic di pubblicare rapporti periodici sulle minacce è un contributo importante, ma la vera sfida sarà quella di anticipare, e non solo inseguire, le prossime mosse di chi ha già imparato a trasformare il progresso tecnologico in un’arma.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Meta: mega investimento da 100 milioni di dollari in energia solare per i data center AI in South Carolina

Meta: mega investimento da 100 milioni di dollari in energia solare per i data center AI in South Carolina

Meta investe 100 milioni di dollari in un parco solare in South Carolina per alimentare il suo data center da 800 milioni dedicato all'AI. L'iniziativa, frutto di una partnership con Silicon Ranch, si inserisce nella più ampia strategia di Meta per coprire il 100% del consumo energetico con rinnovabili e raggiungere emissioni nette zero entro il 2030, fronteggiando la crescente domanda dell'intelligenza artificiale.

Anthropic e autori: Accordo storico sul copyright AI chiude la prima causa importante del settore

Anthropic e autori: Accordo storico sul copyright AI chiude la prima causa importante del settore

Anthropic, società di intelligenza artificiale, ha raggiunto un accordo extragiudiziale con un gruppo di autori che l'aveva citata in giudizio per violazione del copyright. L'intesa chiude la prima grande causa nel settore, segnando un punto di svolta decisivo per le dispute legali tra industria tecnologica e creatori. L'accordo, di cui non sono noti i termini economici, potrebbe ridefinire le pratiche di raccolta dati per l'addestramento AI.

PromptLock: Il primo ransomware alimentato da AI scoperto da ESET

PromptLock: Il primo ransomware alimentato da AI scoperto da ESET

ESET ha identificato PromptLock, il primo prototipo di ransomware alimentato da intelligenza artificiale. Genera script Lua in tempo reale tramite un modello AI open source per criptare ed esfiltrare file. La scoperta, pur essendo un esperimento, evidenzia le nuove sfide per la sicurezza informatica e i rischi della democratizzazione AI.

[Altre storie]

L’intelligenza artificiale rivoluziona la sicurezza informatica: tra speranze e nuove sfide per i SOC

L’intelligenza artificiale rivoluziona la sicurezza informatica: tra speranze e nuove sfide per i SOC

I SOC aziendali sono sommersi da avvisi, lottando contro l'alert fatigue e l'asimmetria degli attacchi. L'intelligenza artificiale generativa promette di rivoluzionare la sicurezza informatica, superando i limiti dei filtri tradizionali e automatizzando l'analisi delle minacce. Tuttavia, la transizione introduce sfide cruciali: l'uso dell'IA da parte dei criminali e la necessità di trasparenza e spiegabilità nei sistemi di difesa.

Google Big Sleep: l’IA rivoluziona la cybersicurezza scoprendo vulnerabilità critiche

Google ha annunciato 'Big Sleep', un'intelligenza artificiale sviluppata con DeepMind e Project Zero, che ha scoperto autonomamente venti nuove vulnerabilità in software open source diffusi. Questa svolta ridefinisce il ruolo dell'IA nella cybersicurezza, sollevando questioni profonde sul futuro del settore, le strategie aziendali e la gestione dei tempi di correzione delle falle. Un impatto epocale.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP