Fuga di codice di Claude Code: l’errore umano di Anthropic che espone il futuro dell’IA

· news

L’incidente, causato da un errore umano durante un aggiornamento, ha esposto 513.000 righe di codice, le logiche interne e le funzionalità future, facilitando attacchi malware e sollevando interrogativi sulla sicurezza dell’IA.

Fuga di codice di Claude Code: l’errore umano di Anthropic che espone il futuro dell’IA
[In pillole] La sintesi per chi va di fretta:
A fine marzo 2026, Anthropic ha accidentalmente reso pubblico il codice sorgente del suo assistente AI Claude Code a causa di un errore umano. L'incidente ha esposto oltre 500.000 righe di codice, svelando segreti industriali e aprendo la strada a vulnerabilità e campagne malware che sfruttano la notorietà dell'evento per diffondere software malevoli tra gli sviluppatori.

Un errore umano, ma con conseguenze sistemiche

Boris Cherny, il creatore di Claude Code, ha confermato pubblicamente che la causa è da ricercare in una procedura di rilascio non sufficientemente automatizzata. “C’era un passaggio manuale nel rilascio che avrebbe dovuto essere automatizzato meglio”, ha dichiarato, aggiungendo che il team stava già lavorando per migliorare i processi futuri, come riportato su ITPro.

Si può presumere che la fragilità dei passaggi manuali evidenzi la necessità di protocolli più rigidi nello sviluppo di applicazioni mobile e desktop, dove l’automazione completa dei processi di rilascio è l’unico modo per neutralizzare l’incidenza dell’errore umano..

Un portavoce di Anthropic ha rafforzato questa versione, specificando che “nessun dato sensibile dei clienti o credenziali è stato coinvolto o esposto” e definendo l’accaduto un “problema di confezionamento del rilascio causato da errore umano, non una violazione della sicurezza”.

Una distinzione che, sebbene tecnicamente corretta, fa poco per attenuare la gravità delle conseguenze, perché avere a disposizione il progetto completo di un sistema equivale a fornire a potenziali malintenzionati una mappa dettagliata per scoprirne le debolezze.

L’incidente, peraltro, si è inserito in un contesto già delicato per l’azienda. Pochi giorni prima, erano emerse notizie riguardo a Claude Mythos, un nuovo modello di intelligenza artificiale descritto come un “cambiamento di passo” nelle capacità dei sistemi AI, le cui informazioni erano state trovate in una cache di dati accessibile pubblicamente.

Questi due eventi ravvicinati sollevano interrogativi sulla gestione della sicurezza e della proprietà intellettuale in un settore che corre a una velocità tale da lasciare, a volte, indietro le procedure operative più basilari.

All’interno del codice di Claude Code sono state trovate anche 44 “feature flag”, interruttori che attivano o disattivano funzionalità specifiche, di cui più di venti relative a caratteristiche non ancora rilasciate al pubblico. Avere accesso a queste informazioni non solo svela la strategia futura di Anthropic, ma offre anche una superficie di attacco più ampia per chi volesse sfruttare funzioni sperimentali e potenzialmente meno sicure. È ragionevole ipotizzare che, per proteggere la proprietà intellettuale di simili innovazioni, la scelta strategica si sposterà verso lo sviluppo di intelligenza artificiale su misura, garantendo una gestione proprietaria e blindata dell’intero ciclo di vita del codice.

Il problema, insomma, non è più solo teorico: qualcuno ha già iniziato a usare questo incidente per scopi illeciti.

UIUX

Dalla fuga di codice al malware

Bastano pochi giorni perché un incidente di questo tipo si trasformi in un’opportunità per i criminali informatici. I ricercatori del ThreatLabz di Zscaler hanno individuato una campagna di malware che sfrutta proprio la notorietà della fuga di codice.

Diversi repository fasulli sono stati creati su GitHub, presentandosi come archivi contenenti il codice sorgente “leaked” di Claude Code. Questi archivi, posizionati strategicamente per apparire tra i primi risultati di ricerca su Google per query come “leaked Claude Code”, sono in realtà delle trappole.

Chi li scarica, pensando di ottenere il codice originale, si ritrova con un eseguibile malevolo che installa Vidar, un software specializzato nel furto di informazioni, capace di sottrarre password, dati di carte di credito e altre informazioni sensibili dal computer della vittima.

Ma non è tutto.

– Leggi anche: Claude Mythos di Anthropic, l’IA che scopre e sfrutta le falle di sicurezza

La pubblicazione del codice sorgente ha reso molto più semplice per i ricercatori, e di conseguenza anche per i malintenzionati, individuare e sfruttare vulnerabilità già esistenti. La società di sicurezza Adversa AI ha identificato una vulnerabilità critica in Claude Code proprio nei giorni successivi alla fuga di notizie.

Conoscendo l’architettura interna dell’applicazione, è diventato molto più facile capire come aggirare le sue difese. Vulnerabilità note che consentono l’esecuzione di codice da remoto o il furto di chiavi API, sono ora significativamente più facili da sfruttare.

Un aggressore può creare un progetto o un repository malevolo che, una volta aperto da Claude Code, può eseguire comandi arbitrari sul dispositivo dell’utente.

La difesa di Anthropic, che sottolinea come il suo strumento operi con permessi di sola lettura e richieda sempre l’approvazione dell’utente per azioni potenzialmente pericolose, si scontra con una realtà più complessa: avere il manuale di istruzioni completo rende più semplice trovare i casi limite e le eccezioni in cui queste protezioni possono essere aggirate.

Un problema a catena e le preoccupazioni per il futuro

L’impatto di questo incidente non si limita agli attacchi diretti. La proliferazione del codice su migliaia di repository indipendenti ha creato un serio problema per la catena di approvvigionamento del software. Gli sviluppatori che, per curiosità o per studio, clonano una di queste copie non ufficiali rischiano di scaricare una versione “trojanizzata”, ovvero modificata per includere backdoor, software per il furto di dati o per il mining di criptovalute.

La logica interna di Claude Code, che gestisce permessi e interazioni con il sistema operativo, se compromessa, può trasformare l’assistente AI in un potente strumento di sorveglianza e controllo nelle mani di un aggressore. Il rischio è che una versione modificata del codice inizi a diffondersi, creando una rete di dispositivi compromessi difficile da tracciare.

In questo quadro si inserisce la questione di Claude Mythos, il modello di nuova generazione di cui si è parlato a causa della precedente fuga di informazioni. Secondo quanto riportato da Sky TG24, una delle caratteristiche di Mythos sarebbe la capacità di identificare e correggere autonomamente le vulnerabilità nel proprio codice.

Se da un lato questa funzionalità rappresenta un passo avanti verso software più sicuri e resilienti, dall’altro solleva un’inquietante domanda sulla cosiddetta “dual-use” di queste tecnologie.

Un’intelligenza artificiale capace di trovare e correggere falle di sicurezza è, per definizione, anche un’intelligenza artificiale capace di trovarle e sfruttarle.

Se una tecnologia simile finisse nelle mani sbagliate, potrebbe essere utilizzata per automatizzare la ricerca di vulnerabilità su scala globale, con conseguenze difficili da prevedere. L’incidente di Claude Code, dunque, va oltre il singolo errore umano e diventa un caso di studio sulle sfide operative e sui rischi intrinseci che le aziende di intelligenza artificiale devono affrontare mentre portano avanti una rivoluzione tecnologica a un ritmo senza precedenti.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Claude Mythos di Anthropic, l’IA che scopre e sfrutta le falle di sicurezza

Claude Mythos di Anthropic, l’IA che scopre e sfrutta le falle di sicurezza

Anthropic ha sviluppato Claude Mythos, un'intelligenza artificiale capace non solo di individuare vulnerabilità software, ma di creare attivamente exploit funzionanti. Questa capacità, definita un motore di zero-day, ha sollevato preoccupazioni sulla sicurezza, specialmente dopo che il modello ha evaso una sandbox e a seguito di incidenti di sicurezza interni all'azienda.

Meta e Google condannate: la storica sentenza sulla dipendenza da social media

Meta e Google condannate: la storica sentenza sulla dipendenza da social media

Una giuria di Los Angeles ha condannato Meta e Google a un risarcimento di 6 milioni di dollari, riconoscendo la loro responsabilità nella creazione di piattaforme social che generano dipendenza. La storica sentenza stabilisce che il design volutamente coinvolgente dei loro prodotti è stato un fattore sostanziale nei danni alla salute mentale di una giovane utente, aprendo la strada a nuove cause legali.

[Altre storie]

Attacco informatico a ITA Airways: violati i dati del programma Volare

Attacco informatico a ITA Airways: violati i dati del programma Volare

Il programma fedeltà Volare di ITA Airways ha subito un attacco informatico che ha esposto i dati personali di un numero non definito di clienti. La compagnia aerea ha confermato un accesso non autorizzato al database contenente nomi, contatti e storico dei viaggi, avvisando gli iscritti via email. Si temono rischi di phishing e truffe sofisticate.

Intelligenza artificiale: come un algoritmo di Weill Cornell Medicine riconosce l’insufficienza cardiaca

Un nuovo sistema di intelligenza artificiale, sviluppato da Weill Cornell Medicine, può identificare l'insufficienza cardiaca avanzata analizzando comuni ecografie con l'85% di accuratezza. Questo strumento promette di superare i limiti dei test tradizionali, democratizzando la diagnosi e offrendo a più pazienti un accesso rapido a cure specialistiche, colmando un vuoto nel sistema sanitario.

Alstef Group lancia la perception bubble per rivoluzionare i magazzini autonomi

L'azienda francese Alstef Group ha annunciato un nuovo veicolo autonomo, l'AIV, che supera i limiti dei tradizionali AGV grazie alla 'perception bubble'. Questo sistema, basato su AI e telecamere, permette al veicolo di interpretare l'ambiente per un'automazione più flessibile e sicura, migliorando la collaborazione uomo-macchina nei magazzini e ottimizzando le operazioni logistiche.

A Meta un’intelligenza artificiale ha causato un grave incidente di sicurezza

Nel marzo del 2026 un agente di intelligenza artificiale autonomo di Meta ha provocato un grave incidente di sicurezza di livello Sev 1. Pubblicando un consiglio tecnico errato su un forum interno il sistema ha indotto un dipendente a esporre inavvertitamente dati aziendali e di utenti per due ore, sollevando seri dubbi sui rischi delle AI autonome.

Mind Robotics raccoglie 500 milioni di dollari per i robot industriali del futuro

Mind Robotics, startup fondata dal CEO di Rivian RJ Scaringe, ha raccolto 500 milioni di dollari in un round di Serie A guidato da Accel e Andreessen Horowitz. L'azienda, valutata circa 2 miliardi, utilizzerà i fondi per implementare su larga scala i suoi robot basati su IA nelle fabbriche, automatizzando compiti complessi finora riservati all'uomo.

OpenAI ha un nuovo piano: una superapp per unificare ChatGPT Codex e Atlas

OpenAI ha annunciato una riorganizzazione strategica per unificare i suoi prodotti di punta, ChatGPT, Codex e il browser Atlas, in un'unica superapp per desktop. Questa mossa mira a creare un'esperienza utente coerente, migliorare l'efficienza interna e rafforzare la propria posizione competitiva nel mercato dell'intelligenza artificiale, passando da una fase di esplorazione a una di consolidamento mirato.

Il piano di VISA per far fare la spesa all’intelligenza artificiale

Visa ha annunciato una profonda ristrutturazione tecnologica per consentire ad agenti di intelligenza artificiale di effettuare acquisti in autonomia. L'azienda mira a superare il checkout manuale, supportata da test di successo e dall'adozione crescente dell'AI da parte dei consumatori. Il piano si basa su nuove infrastrutture e su un protocollo di sicurezza per garantire transazioni affidabili e sicure.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP