Google Big Sleep: l’IA rivoluziona la cybersicurezza scoprendo vulnerabilità critiche

· news

Il sistema “Big Sleep” di Google, nato dalla collaborazione tra DeepMind e Project Zero, ha individuato autonomamente venti vulnerabilità in software open source, aprendo nuove frontiere per la difesa ma anche interrogativi sull’automazione e sugli equilibri di potere nel settore.

Google Big Sleep: l’IA rivoluziona la cybersicurezza scoprendo vulnerabilità critiche
[In pillole] La sintesi per chi va di fretta:
Google ha annunciato 'Big Sleep', un'intelligenza artificiale sviluppata con DeepMind e Project Zero, che ha scoperto autonomamente venti nuove vulnerabilità in software open source diffusi. Questa svolta ridefinisce il ruolo dell'IA nella cybersicurezza, sollevando questioni profonde sul futuro del settore, le strategie aziendali e la gestione dei tempi di correzione delle falle. Un impatto epocale.

Come un’intelligenza artificiale impara a essere un hacker

Il funzionamento di Big Sleep, per come è stato descritto da Google, segna un passo avanti significativo rispetto agli strumenti di analisi automatica del codice usati finora. Tecniche come il “fuzzing”, che consistono nel bombardare un programma con dati casuali per vederne le reazioni e scovare comportamenti anomali, esistono da anni. Big Sleep, però, sembra fare qualcosa di più.

Come ha spiegato Kimberly Samra, una portavoce di Google, «ogni vulnerabilità è stata trovata e riprodotta dall’agente IA senza intervento umano». Questo significa che il sistema non si limita a segnalare un’anomalia, ma è in grado di capire la sequenza di azioni necessarie per innescare il bug, dimostrando che la falla è reale e potenzialmente sfruttabile.

È un processo che richiede una forma di “ragionamento” logico che finora era prerogativa degli esseri umani.

Naturalmente, la supervisione umana non è stata eliminata del tutto, ma è stata spostata alla fine del processo. Gli esperti di Project Zero intervengono per verificare la qualità e la criticità delle scoperte dell’IA prima di comunicarle agli sviluppatori del software interessato, seguendo la prassi della “divulgazione responsabile”.

I dettagli tecnici delle venti vulnerabilità, infatti, non sono stati resi pubblici e non lo saranno finché non saranno distribuite le versioni corrette dei programmi, per evitare che qualcuno possa approfittarne. Come riportato su TechCrunch, Royal Hansen, vicepresidente dell’ingegneria di Google, ha parlato di una «nuova frontiera nella scoperta automatizzata di vulnerabilità», un’affermazione che, pur contenendo l’enfasi tipica di un annuncio aziendale, fotografa bene la percezione del momento.

La capacità di un’IA di setacciare milioni di righe di codice in modo instancabile e con una logica sempre più sofisticata potrebbe cambiare radicalmente i tempi e i modi con cui si garantisce la sicurezza del software.

Ma questa efficienza tecnologica apre anche a una riflessione più ampia. Se un’intelligenza artificiale può trovare le falle, significa che può farlo sia per chi vuole correggerle, sia per chi vuole sfruttarle.

La stessa tecnologia nelle mani di un’organizzazione governativa o di un gruppo criminale potrebbe diventare uno strumento di attacco formidabile.

Google sta presentando la sua creazione come un progresso per la difesa collettiva, ma è inevitabile chiedersi quali implicazioni avrà la diffusione di queste capacità, inaugurando di fatto una nuova “corsa agli armamenti” nel campo della cybersicurezza, questa volta combattuta da algoritmi.

Non solo una questione tecnica, ma anche strategica

L’annuncio di Google non può essere letto solo come una notizia di carattere tecnologico. È anche una mossa strategica molto chiara in un mercato, quello dell’intelligenza artificiale applicata alla sicurezza, che sta diventando sempre più affollato e competitivo.

Esistono già altre aziende e progetti, come RunSybil e XBOW, che lavorano su strumenti simili, ma l’iniziativa di Google, forte della sua enorme capacità di calcolo e dei suoi talenti, si posiziona subito come un punto di riferimento.

Per l’azienda, dimostrare di essere all’avanguardia nel campo dello sviluppo di soluzioni basate sull’intelligenza artificiale ha un duplice valore: da un lato rafforza l’immagine di un’impresa che protegge i propri utenti e l’ecosistema digitale in generale; dall’altro, è una formidabile vetrina per i suoi servizi di sicurezza, in particolare quelli legati alla sua piattaforma cloud, dove la competizione con Amazon e Microsoft è serratissima.

La comunicazione scelta da Google è altrettanto strategica. L’azienda non si è limitata a un comunicato stampa, ma ha già programmato una serie di presentazioni tecniche approfondite per le prossime edizioni di Black Hat e DEF CON, le due più importanti conferenze al mondo sulla sicurezza informatica, come descritto da TechRadar.

È un modo per parlare direttamente alla comunità degli esperti, mostrando trasparenza e cercando di ottenere legittimazione. Inoltre, la promessa di donare dati di addestramento anonimizzati (il fondamento sul quale si basa qualsiasi modello di machine learning) alla Secure AI Framework è un gesto che mira a posizionare Google come un attore benevolo e collaborativo all’interno della comunità, un’immagine che per una multinazionale di queste dimensioni è sempre complessa da mantenere.

Tuttavia, è legittimo chiedersi se questa nuova capacità non rischi di alterare profondamente gli equilibri del mondo della sicurezza.

I programmi di “bug bounty”, che ricompensano economicamente i ricercatori indipendenti che scoprono e segnalano vulnerabilità, potrebbero perdere di importanza se un’IA può fare lo stesso lavoro più in fretta e su una scala più vasta. Questo potrebbe avere conseguenze significative per la carriera di molti professionisti e per la sostenibilità di un modello che finora ha contribuito in modo importante a rendere il software più sicuro.

La domanda che aleggia è se l’automazione spinta all’estremo andrà a integrare il lavoro umano, come sostiene Google, o se finirà per sostituirlo in molte delle sue funzioni, concentrando ancora di più il potere e la conoscenza nelle mani di poche grandi aziende che possono permettersi di sviluppare e mantenere intelligenze artificiali così complesse.

Il tempo è il vero campo di battaglia

Insieme all’annuncio su Big Sleep, Google ne ha fatto un altro, meno appariscente ma forse altrettanto significativo. L’azienda ha introdotto una nuova politica di divulgazione per affrontare quello che definisce “upstream patch gap”, ovvero il divario temporale tra la correzione di una vulnerabilità e la sua effettiva distribuzione agli utenti finali.

È un problema sistemico e poco conosciuto al di fuori degli addetti ai lavori: quando viene scoperta una falla in una libreria software, gli sviluppatori la correggono. Tuttavia, le centinaia o migliaia di applicazioni che usano quella libreria devono a loro volta integrare la versione corretta e distribuire un aggiornamento.

Questo processo può richiedere settimane o mesi, lasciando per tutto quel tempo una finestra di vulnerabilità aperta, pur essendo la soluzione già nota.

La nuova politica di Google mira a ridurre questo ritardo, probabilmente esercitando pressione sui produttori di software affinché siano più rapidi nell’adottare le correzioni. Se da un lato l’obiettivo è lodevole e risponde a un’esigenza reale di sicurezza, dall’altro solleva dubbi sul ruolo che Google si sta ritagliando.

Un’azienda con la sua influenza, che detta le tempistiche per la correzione dei bug a un intero settore, sta di fatto agendo come un regolatore di fatto.

Affrontare il “patch gap” è fondamentale, ma la soluzione proposta da un singolo attore dominante potrebbe creare difficoltà a progetti più piccoli, specialmente nel mondo open source, che spesso si basa su volontari e non ha le risorse per rispettare scadenze imposte dall’esterno.

Mettendo insieme i due annunci, emerge un quadro più completo. Da una parte, Google sviluppa un’IA in grado di trovare bug a una velocità senza precedenti; dall’altra, introduce una politica per accelerare i tempi di correzione. Le due cose sono strettamente collegate: un’intelligenza artificiale che scopre falle in continuazione renderà il problema del “patch gap” ancora più pressante.

La mossa di Google sembra quindi essere un tentativo di governare l’intero ciclo di vita di una vulnerabilità, dalla scoperta alla correzione finale.

È un’assunzione di responsabilità che, però, è anche una profonda affermazione di potere.

L’era in cui la sicurezza era un’attività artigianale, quasi romantica, di pochi hacker geniali sembra avviarsi al termine. Al suo posto, si profila un futuro dominato da sistemi automatici su larga scala e gestito secondo le logiche e i tempi delle grandi corporazioni tecnologiche, con tutte le efficienze e le criticità che questo comporta.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

[Altre storie]

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP