Claude Code Security di Anthropic: l’IA che analizza il codice e accende il dibattito sulla sicurezza

· news

Lo strumento, che unisce intelligenza artificiale e sicurezza informatica per analizzare il codice e suggerire correzioni, ha avviato un dibattito sul futuro della difesa digitale e sulle nuove dipendenze che sistemi di questo tipo possono creare.

Claude Code Security di Anthropic: l’IA che analizza il codice e accende il dibattito sulla sicurezza
[In pillole] La sintesi per chi va di fretta:
Anthropic ha presentato Claude Code Security, uno strumento basato su intelligenza artificiale per identificare vulnerabilità nel software. A differenza degli analizzatori tradizionali, il sistema usa un approccio basato sul ragionamento per scovare falle complesse. La mossa ha avviato un dibattito sui rischi e le opportunità di affidare la sicurezza informatica all'IA, pur richiedendo sempre la supervisione umana.

Che cos’è e come funziona Claude Code Security?

La promessa di Claude Code Security è quella di superare i limiti degli analizzatori di codice tradizionali. Questi ultimi, noti come strumenti di analisi statica (SAST), operano principalmente cercando schemi di codice noti per essere problematici, un po’ come un antivirus cerca le “firme” di virus conosciuti.

Sebbene utili, spesso non riescono a identificare vulnerabilità più complesse, che emergono solo dall’interazione tra diverse parti di un’applicazione o dal modo in cui i dati vengono processati e spostati al suo interno. Claude, invece, utilizza un approccio basato sul ragionamento, tentando di analizzare il codice in un modo più simile a quello di un ricercatore di sicurezza umano.

Come descritto da Anthropic stessa, il sistema è in grado di tracciare il flusso dei dati attraverso l’applicazione e di comprendere il contesto in cui operano le diverse componenti, identificando così vulnerabilità che sfuggirebbero a un’analisi basata unicamente su regole predefinite.

Una volta individuata una potenziale falla, il processo non si ferma. Questo approccio basato su modelli di machine learning va oltre le mere firme di codice

L’intelligenza artificiale avvia una fase di autoverifica, in cui riesamina le proprie scoperte tentando di provarle o smentirle, con l’obiettivo di ridurre al minimo i “falsi positivi”, ovvero le segnalazioni di problemi inesistenti che rappresentano una notevole perdita di tempo per gli sviluppatori.

A ogni vulnerabilità rilevata vengono assegnati due punteggi: uno di gravità, per indicare quanto sia pericolosa, e uno di affidabilità, che esprime la fiducia del sistema nella propria analisi. Tutto viene poi presentato in una dashboard dove un analista umano ha l’ultima parola.

Anthropic ha tenuto a sottolineare un aspetto fondamentale del processo: “nulla viene applicato senza l’approvazione umana”.

Questo significa che ogni suggerimento di correzione deve essere esaminato e approvato da una persona prima di essere implementato nel codice. Si tratta di un meccanismo di controllo pensato per mitigare i timori di un’automazione senza supervisione, ma che al tempo stesso introduce una nuova dinamica nel rapporto tra uomo e macchina.

APP

Una scommessa basata su risultati concreti?

L’approccio di Anthropic non nasce dal nulla, ma si fonda su una serie di ricerche e test. Utilizzando una versione precedente del suo modello di intelligenza artificiale, l’azienda sostiene di aver scoperto oltre 500 vulnerabilità fino a quel momento sconosciute in basi di codice open-source ampiamente utilizzate, alcune delle quali erano sfuggite per decenni a revisioni da parte di esperti.

Questi risultati, attualmente in fase di divulgazione coordinata con i manutentori dei progetti, sono uno dei principali argomenti a sostegno dell’efficacia dello strumento. L’azienda ha inoltre affinato le capacità del modello facendolo partecipare a competizioni di sicurezza informatica e collaborando con istituti di ricerca come il Pacific Northwest National Laboratory.

La distribuzione di Claude Code Security sta avvenendo in modo graduale. L’accesso in anteprima è limitato, con una corsia preferenziale gratuita per i manutentori di progetti open-source. Questa strategia suggerisce la volontà di collaborare con le organizzazioni per perfezionare lo strumento e assicurarne un’implementazione responsabile, evitando una diffusione rapida e incontrollata.

La stessa Anthropic inquadra questa iniziativa all’interno di una più ampia dinamica competitiva: se gli aggressori utilizzano sempre più l’intelligenza artificiale per automatizzare la scoperta di vulnerabilità, i difensori devono disporre di capacità analoghe per mantenere un livello di sicurezza adeguato.

– Leggi anche: Anthropic lancia Claude Sonnet 4.6: il nuovo modello AI gratuito per tutti

È la narrazione di una “corsa agli armamenti” digitale in cui, secondo l’azienda, “i difensori che si muovono rapidamente possono trovare le stesse debolezze, correggerle e ridurre il rischio di un attacco”.

In questo contesto, Anthropic non è sola.

Anche altre grandi aziende del settore si stanno muovendo in una direzione simile. OpenAI, ad esempio, sta testando privatamente un sistema chiamato Aardvark, basato su GPT-5, con l’obiettivo di aiutare sviluppatori e team di sicurezza a trovare e risolvere vulnerabilità su larga scala, sebbene anche in questo caso sia richiesta l’approvazione umana per qualsiasi modifica.

L’ingresso di attori così importanti nel campo della sicurezza del codice segnala una tendenza chiara, ma la reazione della comunità di esperti non è stata uniformemente positiva.

Le reazioni del settore, tra convalida e preoccupazione

L’annuncio di Anthropic è stato interpretato in modi molto diversi. Da un lato, alcuni lo vedono come una convalida del fatto che i flussi di lavoro di sicurezza “nativi” per l’intelligenza artificiale, integrati direttamente negli strumenti di sviluppo, rappresentino la direzione futura del settore.

Il fatto che un’azienda con le risorse tecniche e finanziarie di Anthropic investa in questo campo è visto come un segnale di fiducia in questo approccio. Dall’altro lato, però, sono emerse preoccupazioni significative, che vanno al di là del semplice scetticismo verso una nuova tecnologia.

Zahra Timsah, amministratrice delegata di I-Genetic AI, ha sollevato un punto particolarmente interessante in un’analisi pubblicata da CSO Online. Il rischio, secondo Timsah, è che la postura di sicurezza di un’intera organizzazione finisca per dipendere non solo dal proprio codice, ma anche dal comportamento del modello di Anthropic in un dato momento.

Un’azienda come Anthropic può aggiornare i “pesi” del suo modello, modificare le sue euristiche di ragionamento o cambiare il modo in cui interpreta certi schemi di codice senza che questo attivi alcun processo di controllo interno all’azienda cliente.

“Una base di codice sicura oggi potrebbe essere valutata con un confine di vulnerabilità diverso domani, senza che tu abbia toccato una singola riga”, ha affermato Timsah.

Questo crea una dipendenza da un sistema esterno e opaco, le cui logiche interne possono cambiare in modi imprevedibili.

Altre figure del settore hanno espresso timori simili riguardo alla creazione di un unico punto di fiducia, che potrebbe trasformarsi in un unico punto di fallimento. L’idea di affidarsi a un unico fornitore per un compito così delicato come la valutazione della sicurezza introduce nuove forme di rischio operativo che i responsabili della sicurezza dovranno valutare con attenzione, soprattutto nelle organizzazioni complesse, dove la sicurezza del codice deve integrarsi con sistemi critici come un sistema ERP.

Justin Greis, CEO della società di consulenza Acceligence, ha offerto una prospettiva più moderata, sottolineando che la sicurezza del codice è solo uno dei tanti elementi di un programma di sicurezza informatica.

“Dobbiamo mantenere persone qualificate nel processo e assicurarci di usare l’IA come un acceleratore, non come un sostituto delle competenze”.

Il dibattito in corso evidenzia una transizione fondamentale. Si sta passando da un mondo in cui la sicurezza si basava su librerie di “firme” note e controllabili a uno in cui potrebbe prevalere un'”interpretazione adattiva” guidata da modelli di intelligenza artificiale.

Se da un lato questo promette un’analisi più profonda e potente, dall’altro introduce nuove incognite sulla trasparenza e il controllo.

Come ha dichiarato la stessa Anthropic, “una quota significativa del codice mondiale sarà analizzata dall’intelligenza artificiale nel prossimo futuro”. Il modo in cui il settore gestirà questa transizione, bilanciando le capacità analitiche dell’IA con le preoccupazioni sulla dipendenza e il rischio, definirà le pratiche di sicurezza informatica per gli anni a venire.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Anthropic lancia Claude Sonnet 4.6: il nuovo modello AI gratuito per tutti

Anthropic lancia Claude Sonnet 4.6: il nuovo modello AI gratuito per tutti

Anthropic ha rilasciato Claude Sonnet 4.6, il nuovo modello predefinito per tutti gli utenti, anche gratuiti. Più potente del precedente top di gamma, offre capacità avanzate di programmazione e una vasta finestra di contesto. Con questa mossa, Anthropic mira a rendere l'IA di alto livello accessibile a tutti, consolidando la sua base di utenti e sfidando la concorrenza.

L’enorme scommessa di Meta sull IA fatta con i chip di Nvidia

L’enorme scommessa di Meta sull IA fatta con i chip di Nvidia

Meta ha siglato una partnership pluriennale da decine di miliardi di dollari con Nvidia per l'acquisto di milioni di chip di ultima generazione, inclusi GPU e CPU. Questa mossa strategica posiziona Meta come il cliente più aggressivo di Nvidia, rafforzando la sua infrastruttura AI ma aumentando la dipendenza tecnologica per realizzare la sua visione di una superintelligenza personale.

Come OpenAI sta trasformando ChatGPT in una piattaforma di commercio con PayPal e Stripe

Come OpenAI sta trasformando ChatGPT in una piattaforma di commercio con PayPal e Stripe

OpenAI sta trasformando ChatGPT in una piattaforma per acquistare direttamente in-chat. Grazie all'Agentic Commerce Protocol, sviluppato con Stripe, e ad alleanze con PayPal, Shopify e Instacart, l'azienda sta definendo il futuro del commercio agenziale, dove l'IA gestisce l'intero processo di acquisto, dalla ricerca al pagamento, per conto dell'utente.

[Altre storie]

Allarme cyber nel manifatturiero italiano: attacchi raddoppiati e PMI a rischio

Allarme cyber nel manifatturiero italiano: attacchi raddoppiati e PMI a rischio

Il settore manifatturiero italiano è un bersaglio primario per i cybercriminali, con un'ondata di attacchi in crescita esponenziale e superiore alla media globale. La minaccia principale è il ransomware con doppia estorsione, che colpisce soprattutto le PMI, vulnerabili per la loro struttura. L’aumento degli incidenti mette a rischio la continuità operativa e l'intera filiera produttiva del paese.

AI e clima, il greenwashing delle Big Tech: promesse senza prove

Un nuovo report di Beyond Fossil Fuels rivela una forte discrepanza tra le promesse climatiche delle Big Tech sull'AI e la realtà. Ben il 74 per cento delle dichiarazioni analizzate manca di fondamento scientifico, basandosi su dati non verificati. Mentre i benefici restano teorici, l'impatto ambientale, in termini di emissioni e consumo idrico, è concreto e crescente.

Classifiche IA: la loro inaffidabilità svelata da uno studio del MIT

Una nuova ricerca del MIT evidenzia la grave inaffidabilità delle classifiche per i modelli di intelligenza artificiale. I ricercatori hanno scoperto che basta rimuovere un numero esiguo di voti, a volte solo due, per stravolgere la graduatoria. La scoperta mette in dubbio la validità di questi strumenti, usati dalle aziende per costose scelte tecnologiche.

Alexa+ è arrivata: la nuova AI di AMAZON sfida APPLE e Siri

Dal 4 febbraio 2026 AMAZON ha lanciato negli Stati Uniti la nuova assistente AI Alexa+. Gratuita per gli abbonati Prime e a pagamento per gli altri, si basa su LLM per gestire conversazioni e compiti complessi. Questa mossa strategica mira a rafforzare l'ecosistema Prime e ad anticipare la rinnovata Siri di APPLE, definendo un nuovo standard.

Empatia artificiale: la sfida per insegnare ai robot a capirci davvero

Ricercatori di università come la Simon Fraser e Purdue stanno insegnando ai robot a comprendere le emozioni umane attraverso l'analisi di espressioni facciali e l'ascolto attivo. Superando la semplice imitazione, questa tecnologia mira a creare un'interazione più autentica. I progressi si traducono già in prodotti commerciali, come il robot An'an, e attirano l'interesse di colossi come Apple.

Le scommesse miliardarie di OpenAI e Sam Altman per il futuro dell’IA

Sam Altman, CEO di OpenAI, ha svelato un'agenda miliardaria per il futuro dell'IA. I piani includono un dispositivo con Jony Ive, una partnership da un miliardo di dollari con Disney per la tecnologia Sora e il Project Stargate, un'infrastruttura da 500 miliardi. Queste mosse espansive sollevano però dubbi sulla sostenibilità finanziaria e sulla futura leadership dell'azienda.

La grande intesa tra NVIDIA e OpenAI a rischio?

La partnership tra NVIDIA e OpenAI annunciata come un accordo da 100 miliardi di dollari si rivela più complessa L'investimento è progressivo e condizionato ai risultati non un esborso immediato Un modello finanziario circolare lega le due aziende con OpenAI che reinveste i fondi ricevuti nellacquisto di chip NVIDIA creando una forte ma rischiosa interdipendenza

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP