L’incidente, causato da un errore umano durante un aggiornamento, ha esposto 513.000 righe di codice, le logiche interne e le funzionalità future, facilitando attacchi malware e sollevando interrogativi sulla sicurezza dell’IA.

[In pillole] La sintesi per chi va di fretta:
A fine marzo 2026, Anthropic ha accidentalmente reso pubblico il codice sorgente del suo assistente AI Claude Code a causa di un errore umano. L'incidente ha esposto oltre 500.000 righe di codice, svelando segreti industriali e aprendo la strada a vulnerabilità e campagne malware che sfruttano la notorietà dell'evento per diffondere software malevoli tra gli sviluppatori.
Un errore umano, ma con conseguenze sistemiche
Boris Cherny, il creatore di Claude Code, ha confermato pubblicamente che la causa è da ricercare in una procedura di rilascio non sufficientemente automatizzata. “C’era un passaggio manuale nel rilascio che avrebbe dovuto essere automatizzato meglio”, ha dichiarato, aggiungendo che il team stava già lavorando per migliorare i processi futuri, come riportato su ITPro.
Si può presumere che la fragilità dei passaggi manuali evidenzi la necessità di protocolli più rigidi nello sviluppo di applicazioni mobile e desktop, dove l’automazione completa dei processi di rilascio è l’unico modo per neutralizzare l’incidenza dell’errore umano..
Un portavoce di Anthropic ha rafforzato questa versione, specificando che “nessun dato sensibile dei clienti o credenziali è stato coinvolto o esposto” e definendo l’accaduto un “problema di confezionamento del rilascio causato da errore umano, non una violazione della sicurezza”.
Una distinzione che, sebbene tecnicamente corretta, fa poco per attenuare la gravità delle conseguenze, perché avere a disposizione il progetto completo di un sistema equivale a fornire a potenziali malintenzionati una mappa dettagliata per scoprirne le debolezze.
L’incidente, peraltro, si è inserito in un contesto già delicato per l’azienda. Pochi giorni prima, erano emerse notizie riguardo a Claude Mythos, un nuovo modello di intelligenza artificiale descritto come un “cambiamento di passo” nelle capacità dei sistemi AI, le cui informazioni erano state trovate in una cache di dati accessibile pubblicamente.
Questi due eventi ravvicinati sollevano interrogativi sulla gestione della sicurezza e della proprietà intellettuale in un settore che corre a una velocità tale da lasciare, a volte, indietro le procedure operative più basilari.
All’interno del codice di Claude Code sono state trovate anche 44 “feature flag”, interruttori che attivano o disattivano funzionalità specifiche, di cui più di venti relative a caratteristiche non ancora rilasciate al pubblico. Avere accesso a queste informazioni non solo svela la strategia futura di Anthropic, ma offre anche una superficie di attacco più ampia per chi volesse sfruttare funzioni sperimentali e potenzialmente meno sicure. È ragionevole ipotizzare che, per proteggere la proprietà intellettuale di simili innovazioni, la scelta strategica si sposterà verso lo sviluppo di intelligenza artificiale su misura, garantendo una gestione proprietaria e blindata dell’intero ciclo di vita del codice.
Il problema, insomma, non è più solo teorico: qualcuno ha già iniziato a usare questo incidente per scopi illeciti.
Dalla fuga di codice al malware
Bastano pochi giorni perché un incidente di questo tipo si trasformi in un’opportunità per i criminali informatici. I ricercatori del ThreatLabz di Zscaler hanno individuato una campagna di malware che sfrutta proprio la notorietà della fuga di codice.
Diversi repository fasulli sono stati creati su GitHub, presentandosi come archivi contenenti il codice sorgente “leaked” di Claude Code. Questi archivi, posizionati strategicamente per apparire tra i primi risultati di ricerca su Google per query come “leaked Claude Code”, sono in realtà delle trappole.
Chi li scarica, pensando di ottenere il codice originale, si ritrova con un eseguibile malevolo che installa Vidar, un software specializzato nel furto di informazioni, capace di sottrarre password, dati di carte di credito e altre informazioni sensibili dal computer della vittima.
Ma non è tutto.
– Leggi anche: Claude Mythos di Anthropic, l’IA che scopre e sfrutta le falle di sicurezza
La pubblicazione del codice sorgente ha reso molto più semplice per i ricercatori, e di conseguenza anche per i malintenzionati, individuare e sfruttare vulnerabilità già esistenti. La società di sicurezza Adversa AI ha identificato una vulnerabilità critica in Claude Code proprio nei giorni successivi alla fuga di notizie.
Conoscendo l’architettura interna dell’applicazione, è diventato molto più facile capire come aggirare le sue difese. Vulnerabilità note che consentono l’esecuzione di codice da remoto o il furto di chiavi API, sono ora significativamente più facili da sfruttare.
Un aggressore può creare un progetto o un repository malevolo che, una volta aperto da Claude Code, può eseguire comandi arbitrari sul dispositivo dell’utente.
La difesa di Anthropic, che sottolinea come il suo strumento operi con permessi di sola lettura e richieda sempre l’approvazione dell’utente per azioni potenzialmente pericolose, si scontra con una realtà più complessa: avere il manuale di istruzioni completo rende più semplice trovare i casi limite e le eccezioni in cui queste protezioni possono essere aggirate.
Un problema a catena e le preoccupazioni per il futuro
L’impatto di questo incidente non si limita agli attacchi diretti. La proliferazione del codice su migliaia di repository indipendenti ha creato un serio problema per la catena di approvvigionamento del software. Gli sviluppatori che, per curiosità o per studio, clonano una di queste copie non ufficiali rischiano di scaricare una versione “trojanizzata”, ovvero modificata per includere backdoor, software per il furto di dati o per il mining di criptovalute.
La logica interna di Claude Code, che gestisce permessi e interazioni con il sistema operativo, se compromessa, può trasformare l’assistente AI in un potente strumento di sorveglianza e controllo nelle mani di un aggressore. Il rischio è che una versione modificata del codice inizi a diffondersi, creando una rete di dispositivi compromessi difficile da tracciare.
In questo quadro si inserisce la questione di Claude Mythos, il modello di nuova generazione di cui si è parlato a causa della precedente fuga di informazioni. Secondo quanto riportato da Sky TG24, una delle caratteristiche di Mythos sarebbe la capacità di identificare e correggere autonomamente le vulnerabilità nel proprio codice.
Se da un lato questa funzionalità rappresenta un passo avanti verso software più sicuri e resilienti, dall’altro solleva un’inquietante domanda sulla cosiddetta “dual-use” di queste tecnologie.
Un’intelligenza artificiale capace di trovare e correggere falle di sicurezza è, per definizione, anche un’intelligenza artificiale capace di trovarle e sfruttarle.
Se una tecnologia simile finisse nelle mani sbagliate, potrebbe essere utilizzata per automatizzare la ricerca di vulnerabilità su scala globale, con conseguenze difficili da prevedere. L’incidente di Claude Code, dunque, va oltre il singolo errore umano e diventa un caso di studio sulle sfide operative e sui rischi intrinseci che le aziende di intelligenza artificiale devono affrontare mentre portano avanti una rivoluzione tecnologica a un ritmo senza precedenti.



