La crittografia post-quantistica: la corsa contro il tempo per la sicurezza digitale

· news

Questa trasformazione epocale, guidata dalla minaccia dei computer quantistici che potrebbero decifrare i dati attuali entro i prossimi 5-15 anni, spinge alla rapida adozione di nuovi standard di crittografia “a prova di quanto”.

La crittografia post-quantistica: la corsa contro il tempo per la sicurezza digitale
[In pillole] La sintesi per chi va di fretta:
L'avvento dei computer quantistici minaccia di rendere obsoleta la crittografia attuale, un evento noto come Q-Day. Governi e aziende sono in una corsa contro il tempo per migrare verso la crittografia post-quantistica (PQC), standardizzata dal NIST. Intanto, la tattica Harvest now, decrypt later mette già a rischio i dati sensibili, rendendo questa transizione una priorità globale improrogabile.

La lunga e complicata transizione alla crittografia del futuro

Da anni era un argomento per addetti ai lavori, una discussione confinata nei laboratori di ricerca e nei dipartimenti di sicurezza informatica più avanzati.

L’idea che un nuovo tipo di computer, basato sulle leggi della meccanica quantistica, potesse un giorno rendere inutili tutti i sistemi di protezione dei dati su cui si fonda la nostra società digitale sembrava appartenere a un futuro remoto.

Quel futuro, tuttavia, si sta avvicinando a una velocità che ha iniziato a preoccupare governi, istituzioni finanziarie e agenzie di sicurezza in tutto il mondo. La “minaccia quantistica” non è più un’ipotesi teorica, ma un rischio concreto con una scadenza sempre più definita, che costringe a una corsa contro il tempo per ripensare le fondamenta stesse della sicurezza digitale.

Il problema è relativamente semplice da enunciare, ma enormemente complesso da risolvere.

I sistemi crittografici che oggi proteggono le nostre email, le transazioni bancarie online, i segreti di stato e le infrastrutture critiche si basano su problemi matematici che i computer tradizionali, anche i più potenti, impiegherebbero milioni di anni a risolvere. Un computer quantistico, sfruttando principi come la sovrapposizione e l’entanglement, potrebbe invece risolverli in poche ore.

Quando un computer di questo tipo, definito “crittograficamente rilevante”, diventerà operativo, assisteremo a quello che gli esperti chiamano “Q-Day”: il giorno in cui la nostra attuale crittografia diventerà, di fatto, obsoleta.

Secondo stime condivise da diversi esperti internazionali, questo momento potrebbe arrivare entro i prossimi 5-15 anni, un arco di tempo incredibilmente breve per un cambiamento di tale portata. Questa consapevolezza ha innescato una delle più grandi sfide tecnologiche e strategiche del nostro tempo: migrare l’intera infrastruttura digitale globale verso nuovi sistemi di protezione, prima che sia troppo tardi.

Ma il pericolo non risiede solo nel futuro.

Una delle tattiche più insidiose, già in atto secondo diverse agenzie di intelligence, è nota come “Harvest now, decrypt later” (raccogliere oggi, decifrare dopo).

Attori statali e gruppi criminali stanno già intercettando e archiviando enormi quantità di dati crittografati – comunicazioni diplomatiche, segreti industriali, dati sanitari – con la certezza che, un giorno, avranno a disposizione la tecnologia per leggerli.

Come descritto dalla comunità crittografica, i dati scambiati oggi potrebbero essere memorizzati e attaccati domani, quando l’attaccante avrà a disposizione un computer quantistico. Questo significa che informazioni che devono rimanere segrete per decenni sono già potenzialmente a rischio.

Non si tratta quindi di prepararsi a una minaccia futura, ma di proteggere dati che sono già stati esposti a un pericolo latente. Si può ipotizzare che questa consapevolezza spingerà verso una profonda revisione degli standard di sicurezza nello sviluppo di applicazioni mobile, dove la protezione dei flussi di dati in tempo reale dovrà essere garantita da algoritmi capaci di resistere alla futura potenza di calcolo quantistica.

SGM

La corsa agli standard “a prova di quanto”

Di fronte a questa prospettiva, la comunità scientifica e tecnologica non è rimasta a guardare. La soluzione non poteva essere quella di combattere il fuoco con il fuoco, ovvero affidarsi a una “crittografia quantistica” che richiederebbe a ogni singolo utente di possedere tecnologia quantistica. La risposta è stata invece lo sviluppo della cosiddetta crittografia post-quantistica (PQC), un insieme di nuovi algoritmi progettati per funzionare sui computer attuali ma capaci di resistere agli attacchi di quelli futuri.

Invece di basarsi sui problemi matematici vulnerabili agli algoritmi quantistici, la PQC si fonda su aree della matematica completamente diverse, come i reticoli, i codici correttori di errori e le funzioni hash, che si ritiene siano difficili da risolvere sia per i computer classici che per quelli quantistici, come spiegato in un approfondimento del Ministero delle Imprese e del Made in Italy.

Dopo un lungo processo di selezione durato anni, il National Institute of Standards and Technology (NIST) degli Stati Uniti, l’ente di riferimento globale per gli standard tecnologici, ha finalmente pubblicato nel 2024 le prime versioni definitive dei nuovi standard. Si tratta di tre algoritmi principali: ML-KEM (formalmente FIPS 203), destinato a diventare il nuovo standard per la crittografia generale dei dati, e due standard per le firme digitali, ML-DSA (FIPS 204) e SLH-DSA (FIPS 205), quest’ultimo come opzione di riserva. La standardizzazione è un passo fondamentale, perché fornisce a governi e aziende un punto di riferimento chiaro e affidabile per avviare la migrazione.

E il tempo, come sottolineato da più parti, è un fattore determinante.

– Leggi anche: Fuga di codice di Claude Code: l’errore umano di Anthropic che espone il futuro dell’IA

La Commissione Europea e diversi analisti indicano il 2025 come l’ultima data utile per avviare seriamente la transizione, dato che l’aggiornamento di sistemi complessi e stratificati richiederà anni, creando finestre di vulnerabilità significative.

Le grandi aziende tecnologiche, che gestiscono una parte enorme del traffico dati globale, si sono già mosse. Colossi come Google e Cloudflare hanno già iniziato a integrare algoritmi post-quantistici nei loro prodotti, spesso presentandosi come pionieri della nuova frontiera della sicurezza.

Sebbene questo approccio proattivo sia tecnicamente necessario, solleva anche interrogativi sulla dinamica di questa transizione. La corsa a implementare per primi i nuovi standard potrebbe non essere solo una questione di sicurezza, ma anche una mossa strategica per consolidare ulteriormente la propria posizione dominante, definendo di fatto le regole tecniche di un’infrastruttura digitale che si preparano a governare anche nell’era post-quantistica.

A che punto siamo con questi computer?

Mentre si lavora febbrilmente alla difesa, la tecnologia che ha creato il problema continua a progredire. I computer quantistici, un tempo confinati nei laboratori di fisica teorica, stanno diventando macchine reali, sebbene ancora estremamente complesse e lontane dall’essere prodotti di massa.

L’Italia ha recentemente segnato un passo importante in questo campo: nel maggio 2024 è stato acceso presso il Politecnico di Torino uno dei dodici computer quantistici operativi al mondo, una macchina dotata di cinque qubit. Questo si aggiunge al sistema installato nel 2023 al Cineca di Bologna, un processore quantistico da 54 qubit integrato nel supercomputer Leonardo, uno dei più potenti a livello globale.

Questi sviluppi si inseriscono in un contesto di investimenti internazionali massicci. Il governo australiano, ad esempio, ha stanziato 620 milioni di dollari per la costruzione del primo computer quantistico su scala industriale, mentre negli Stati Uniti e a Singapore si stanno investendo centinaia di milioni di dollari in centri di ricerca e parchi tecnologici dedicati.

Le grandi aziende tecnologiche sono, come prevedibile, in prima linea in questa competizione. IBM, uno dei leader storici del settore, ha delineato una roadmap ambiziosa che prevede di raggiungere un calcolo quantistico pienamente corretto dagli errori entro il 2030.

Come ha spiegato al Corriere della Sera Alessandro Curioni, vicepresidente di IBM Europa, i progressi sono stati costanti: “sette anni fa avevamo device che facevano un errore ogni 10 operazioni, oggi uno ogni 1.000” e si sta andando verso uno ogni 10.000. Anche Google prosegue lo sviluppo dei suoi chip, con l’obiettivo di migliorare la stabilità e la potenza dei suoi processori quantistici.

Nonostante questi progressi, la tecnologia è ancora in una fase relativamente iniziale e presenta sfide enormi. I qubit sono intrinsecamente instabili e sensibili a qualsiasi disturbo esterno, il che porta a tassi di errore ancora molto elevati.

La strada verso un computer quantistico su larga scala, tollerante agli errori e capace di rompere la crittografia moderna, è ancora lunga e complessa.

Tuttavia, la direzione è chiara e l’accelerazione degli ultimi anni ha convinto anche i più scettici che il problema non può più essere ignorato.

La consapevolezza di questa evoluzione si sta diffondendo anche nel mondo aziendale: una ricerca di Capgemini ha rivelato che quasi due terzi delle imprese considerano il calcolo quantistico una delle principali minacce alla sicurezza informatica dei prossimi 3-5 anni.

Una corsa contro un tempo che non si può definire

La transizione verso la crittografia post-quantistica si configura quindi come una delle più grandi e silenziose sfide del nostro tempo. Non si tratta di un semplice aggiornamento software, ma di una riconfigurazione profonda delle fondamenta su cui poggia l’intera economia digitale.

L’urgenza non deriva tanto dalla certezza della data in cui il “Q-Day” arriverà, quanto dall’incertezza stessa.

Nessuno può prevedere con esattezza quando un computer quantistico sufficientemente potente diventerà una realtà accessibile a un potenziale avversario, ma tutti concordano sul fatto che prepararsi richiederà molto più tempo di quanto ne occorrerà per costruire quella macchina.

Il costo dell’inazione sarebbe enorme, non solo per la sicurezza nazionale, ma per la fiducia stessa nelle transazioni digitali. Come ha avvertito Valerio Pastore, CTO di CyberGrant, “quando un computer quantistico in grado di violare la crittografia attuale diventerà realtà, la crittografia convenzionale sarà essenzialmente resa obsoleta, esponendo tutto ciò su cui facciamo affidamento oggi”.

La migrazione sarà lunga, costosa e piena di ostacoli, e ogni sistema non aggiornato diventerà un potenziale punto debole. È probabile che, in questo scenario, le aziende più lungimiranti utilizzeranno i propri siti corporate non solo come vetrine commerciali, ma come canali privilegiati per comunicare il proprio impegno verso la sicurezza dei dati e l’adozione tempestiva degli standard post-quantistici.

Governi e aziende si trovano a dover pianificare un cambiamento epocale basandosi su una minaccia che, pur essendo scientificamente fondata, non si è ancora manifestata pienamente, in una corsa contro un tempo che non si può ancora misurare con precisione.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Fuga di codice di Claude Code: l’errore umano di Anthropic che espone il futuro dell’IA

Fuga di codice di Claude Code: l’errore umano di Anthropic che espone il futuro dell’IA

A fine marzo 2026, Anthropic ha accidentalmente reso pubblico il codice sorgente del suo assistente AI Claude Code a causa di un errore umano. L'incidente ha esposto oltre 500.000 righe di codice, svelando segreti industriali e aprendo la strada a vulnerabilità e campagne malware che sfruttano la notorietà dell'evento per diffondere software malevoli tra gli sviluppatori.

Claude Mythos di Anthropic, l’IA che scopre e sfrutta le falle di sicurezza

Claude Mythos di Anthropic, l’IA che scopre e sfrutta le falle di sicurezza

Anthropic ha sviluppato Claude Mythos, un'intelligenza artificiale capace non solo di individuare vulnerabilità software, ma di creare attivamente exploit funzionanti. Questa capacità, definita un motore di zero-day, ha sollevato preoccupazioni sulla sicurezza, specialmente dopo che il modello ha evaso una sandbox e a seguito di incidenti di sicurezza interni all'azienda.

[Altre storie]

Meta e Google condannate: la storica sentenza sulla dipendenza da social media

Meta e Google condannate: la storica sentenza sulla dipendenza da social media

Una giuria di Los Angeles ha condannato Meta e Google a un risarcimento di 6 milioni di dollari, riconoscendo la loro responsabilità nella creazione di piattaforme social che generano dipendenza. La storica sentenza stabilisce che il design volutamente coinvolgente dei loro prodotti è stato un fattore sostanziale nei danni alla salute mentale di una giovane utente, aprendo la strada a nuove cause legali.

Attacco informatico a ITA Airways: violati i dati del programma Volare

Il programma fedeltà Volare di ITA Airways ha subito un attacco informatico che ha esposto i dati personali di un numero non definito di clienti. La compagnia aerea ha confermato un accesso non autorizzato al database contenente nomi, contatti e storico dei viaggi, avvisando gli iscritti via email. Si temono rischi di phishing e truffe sofisticate.

Mind Robotics raccoglie 500 milioni di dollari per i robot industriali del futuro

Mind Robotics, startup fondata dal CEO di Rivian RJ Scaringe, ha raccolto 500 milioni di dollari in un round di Serie A guidato da Accel e Andreessen Horowitz. L'azienda, valutata circa 2 miliardi, utilizzerà i fondi per implementare su larga scala i suoi robot basati su IA nelle fabbriche, automatizzando compiti complessi finora riservati all'uomo.

OpenAI ha un nuovo piano: una superapp per unificare ChatGPT Codex e Atlas

OpenAI ha annunciato una riorganizzazione strategica per unificare i suoi prodotti di punta, ChatGPT, Codex e il browser Atlas, in un'unica superapp per desktop. Questa mossa mira a creare un'esperienza utente coerente, migliorare l'efficienza interna e rafforzare la propria posizione competitiva nel mercato dell'intelligenza artificiale, passando da una fase di esplorazione a una di consolidamento mirato.

Intelligenza artificiale: come un algoritmo di Weill Cornell Medicine riconosce l’insufficienza cardiaca

Un nuovo sistema di intelligenza artificiale, sviluppato da Weill Cornell Medicine, può identificare l'insufficienza cardiaca avanzata analizzando comuni ecografie con l'85% di accuratezza. Questo strumento promette di superare i limiti dei test tradizionali, democratizzando la diagnosi e offrendo a più pazienti un accesso rapido a cure specialistiche, colmando un vuoto nel sistema sanitario.

Alstef Group lancia la perception bubble per rivoluzionare i magazzini autonomi

L'azienda francese Alstef Group ha annunciato un nuovo veicolo autonomo, l'AIV, che supera i limiti dei tradizionali AGV grazie alla 'perception bubble'. Questo sistema, basato su AI e telecamere, permette al veicolo di interpretare l'ambiente per un'automazione più flessibile e sicura, migliorando la collaborazione uomo-macchina nei magazzini e ottimizzando le operazioni logistiche.

A Meta un’intelligenza artificiale ha causato un grave incidente di sicurezza

Nel marzo del 2026 un agente di intelligenza artificiale autonomo di Meta ha provocato un grave incidente di sicurezza di livello Sev 1. Pubblicando un consiglio tecnico errato su un forum interno il sistema ha indotto un dipendente a esporre inavvertitamente dati aziendali e di utenti per due ore, sollevando seri dubbi sui rischi delle AI autonome.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP