NVIDIA e l’AI: risolvere il problema dell’inaffidabilità dei computer quantistici

· news

Invece di creare qubit migliori, l’azienda sta scommettendo sul fatto che l’intelligenza artificiale e i supercomputer possano gestire e correggere gli errori di quelli attuali, rendendoli utili.

NVIDIA e l’AI: risolvere il problema dell’inaffidabilità dei computer quantistici
[In pillole] La sintesi per chi va di fretta:
NVIDIA introduce una strategia innovativa per il calcolo quantistico, usando l'AI e i supercomputer per correggere gli errori dei qubit. Invece di concentrarsi solo sull'hardware, l'azienda mira a rendere affidabili i computer quantistici esistenti. Il nuovo Accelerated Quantum Research Center di Boston unirà QPU, CPU e GPU per un sistema ibrido, posizionando NVIDIA al centro di questa futura rivoluzione tecnologica.
AI

Il grande problema dei computer quantistici, e perché NVIDIA pensa di risolverlo con l’intelligenza artificiale

Da anni il calcolo quantistico è descritto come una delle più grandi promesse tecnologiche del nostro tempo, capace in teoria di risolvere problemi oggi inaccessibili anche ai supercomputer più potenti. Dalla scoperta di nuovi farmaci alla creazione di materiali innovativi, le sue potenziali applicazioni potrebbero ridefinire interi settori.

Eppure, questa promessa si scontra da sempre con un ostacolo tanto fondamentale quanto ostinato: i computer quantistici, nella loro forma attuale, sono estremamente inaffidabili.

I loro componenti di base, i qubit, sono incredibilmente fragili e sensibili a qualsiasi disturbo esterno, un fenomeno noto come “decoerenza” che genera un’enorme quantità di errori nei calcoli. Per decenni, la ricerca si è concentrata quasi esclusivamente sulla costruzione di qubit più stabili e performanti, in una corsa all’hardware che ha prodotto risultati importanti ma non ancora risolutivi.

In questo contesto, NVIDIA, un’azienda che ha costruito la sua enorme fortuna non sull’informatica quantistica ma su quella legata all’intelligenza artificiale, ha deciso di affrontare la questione da una prospettiva radicalmente diversa.

Invece di unirsi alla corsa per creare il qubit perfetto, l’azienda sta scommettendo sul fatto che la sua tecnologia esistente, basata su supercomputer e algoritmi di intelligenza artificiale, possa essere la chiave per gestire, correggere e rendere finalmente utili i qubit imperfetti che già abbiamo.

È una strategia che non mira a costruire il motore dell’auto, ma il complesso sistema di controllo elettronico che gli permette di funzionare in modo efficiente e affidabile.

Questa scommessa, che potrebbe sembrare un tentativo di inserirsi in un mercato senza avere le competenze dirette, si fonda su un’idea precisa: se i qubit sono intrinsecamente “rumorosi” e instabili, forse la soluzione non è solo renderli più silenziosi, ma dotarsi di un sistema eccezionalmente potente e intelligente in grado di ascoltare quel rumore, interpretarlo e correggerlo in tempo reale.

Un approccio che, se dovesse funzionare, potrebbe non solo accelerare l’arrivo di computer quantistici realmente utili, ma anche posizionare NVIDIA al centro di questa futura rivoluzione, non come costruttore ma come fornitore di un’infrastruttura imprescindibile.

Un approccio diverso al problema quantistico

L’incarnazione fisica di questa strategia è stata annunciata di recente: il nuovo NVIDIA Accelerated Quantum Research Center (NVAQC) di Boston, un centro di ricerca che non ha l’obiettivo primario di sviluppare nuovi qubit, ma di integrare l’hardware quantistico esistente con i supercomputer per l’intelligenza artificiale.

Come si legge in un comunicato ufficiale della società, l’idea è quella di creare un sistema ibrido in cui un processore quantistico (QPU) lavora in stretta sinergia con i processori tradizionali (CPU) e, soprattutto, con le unità di calcolo per l’AI (GPU) che sono il cuore del business di NVIDIA.

In pratica, il computer quantistico esegue i calcoli per cui è specificamente portato, mentre il supercomputer classico analizza costantemente il suo stato, prevede gli errori e invia le correzioni necessarie, il tutto in frazioni di secondo.

Questa non è un’iniziativa isolata.

NVIDIA sta costruendo un’ampia rete di collaborazioni con alcune delle aziende e delle università più avanzate nel settore, tra cui Quantinuum, Quantum Machines, QuEra Computing e istituti prestigiosi come Harvard e il MIT.

L’obiettivo è chiaro: fornire a chi già costruisce hardware quantistico gli strumenti software e computazionali per farlo funzionare meglio.

– Leggi anche: TX-GAIN: Il nuovo supercomputer AI del MIT rivoluziona la ricerca federale e accademica

Si tratta di una mossa strategica che permette a NVIDIA di entrare nel mercato quantistico facendo leva sulla sua posizione dominante nel campo dell’intelligenza artificiale, senza dover investire miliardi nello sviluppo da zero di una tecnologia che è ancora lontana dalla maturità commerciale.

La logica di NVIDIA è tanto pragmatica quanto ambiziosa.

Invece di competere con decine di aziende e centri di ricerca sulla fisica dei qubit, si posiziona come un partner indispensabile per tutti loro, offrendo una soluzione a un problema che affligge l’intero settore.

È un po’ come se, agli albori dell’industria automobilistica, un’azienda avesse deciso di non costruire automobili, ma di specializzarsi nella produzione dei sistemi di controllo e delle infrastrutture di rifornimento necessarie a tutte le altre.

Il successo di questa visione dipende però da un presupposto fondamentale: che sia davvero possibile, attraverso la potenza di calcolo e un focus sullo sviluppo dell’intelligenza artificiale, compensare le attuali imperfezioni dell’hardware quantistico.

L’era della correzione degli errori

La mossa di NVIDIA si inserisce in un cambiamento di prospettiva che sta interessando tutto il mondo della ricerca quantistica. Molti esperti ritengono che il settore stia entrando in una nuova fase, definita da alcuni analisti “l’era della correzione degli errori“.

Dopo anni passati a cercare di aumentare il numero di qubit, l’attenzione si sta spostando sulla loro qualità e, soprattutto, sulla capacità di gestire gli errori che inevitabilmente producono. Un computer con migliaia di qubit instabili è di fatto inutilizzabile, mentre uno con un numero inferiore di qubit “logici” – ovvero, gruppi di qubit fisici protetti e corretti dagli errori – potrebbe già iniziare a risolvere problemi pratici.

Il concetto di correzione degli errori non è nuovo, ma l’approccio di NVIDIA propone di accelerarlo su una scala senza precedenti. Utilizzando piattaforme software come CUDA-Q, l’azienda permette ai ricercatori di simulare sistemi quantistici complessi su supercomputer classici, testare algoritmi di correzione e, infine, applicarli all’hardware quantistico reale.

Questi algoritmi, spesso basati su tecniche di machine learning, sono incredibilmente esigenti dal punto di vista computazionale: devono analizzare una mole enorme di dati provenienti dai qubit, identificare schemi di errore e calcolare le operazioni di correzione, il tutto prima che il fragile stato quantistico collassi.

È un compito per cui le GPU di NVIDIA sono particolarmente adatte.

Tuttavia, questa enfasi sulla correzione via software solleva anche alcune perplessità. L’approccio ibrido proposto da NVIDIA crea un sistema di una complessità enorme, in cui la parte quantistica e quella classica devono comunicare con una latenza quasi nulla.

Qualsiasi ritardo nella comunicazione tra il supercomputer e il processore quantistico renderebbe inutile l’intero processo di correzione.

Inoltre, sebbene l’intelligenza artificiale possa aiutare a mitigare il “rumore”, non può fare miracoli: se l’hardware di base è troppo instabile, nessuna correzione software potrà renderlo affidabile. La scommessa di NVIDIA, quindi, non elimina la necessità di avere qubit migliori, ma la affianca, sperando che la combinazione dei due approcci possa essere più rapida della sola ricerca sull’hardware.

Dalle promesse alle applicazioni

Se questo approccio dovesse avere successo, potrebbe accorciare significativamente i tempi per l’adozione pratica del calcolo quantistico.

Settori come quello farmaceutico, che oggi impiegano anni e miliardi per la simulazione molecolare necessaria a scoprire nuovi farmaci, potrebbero trarne un enorme vantaggio. Lo stesso vale per il settore finanziario, dove modelli quantistici potrebbero ottimizzare portafogli di investimento o prezzare derivati complessi con una precisione oggi impensabile.

L’idea di un computer quantistico non più relegato in un laboratorio di ricerca ma integrato in un data center, al servizio di applicazioni commerciali, diventerebbe molto più concreta.

Allo stesso tempo, è difficile non notare la convenienza strategica di questo posizionamento per NVIDIA.

Presentandosi come il fornitore dell’infrastruttura essenziale per far funzionare la tecnologia del futuro, l’azienda si assicura una posizione centrale indipendentemente da quale specifico hardware quantistico (superconduttori, ioni intrappolati, fotonica) alla fine prevarrà.

È una strategia che mira a creare una dipendenza tecnologica, rendendo le proprie piattaforme lo standard de facto per l’interazione tra calcolo classico e quantistico. Questa dipendenza potrebbe però rappresentare un rischio per un settore nascente, che potrebbe ritrovarsi a fare affidamento sull’ecosistema chiuso di un unico, dominante fornitore.

In definitiva, la visione di NVIDIA è una potente dichiarazione di intenti su come potrebbe evolvere il futuro del calcolo.

Suggerisce che la prossima grande rivoluzione informatica non nascerà da una singola tecnologia, ma dalla profonda integrazione di paradigmi diversi: la logica binaria dei computer classici, l’analisi probabilistica dell’intelligenza artificiale e le strane leggi della meccanica quantistica.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Samsung e OpenAI: un’alleanza storica per i data center galleggianti di Stargate

Samsung e OpenAI: un’alleanza storica per i data center galleggianti di Stargate

A Seul, Samsung e OpenAI hanno formalizzato un'alleanza strategica per il progetto "Stargate", che mira a sviluppare la prossima generazione di modelli AI. L'accordo non si limita alla fornitura di semiconduttori, ma include la progettazione e la realizzazione di data center galleggianti da parte di diverse divisioni Samsung. Una collaborazione complessa che ridefinirà gli equilibri futuri dell'intelligenza artificiale.

Tilly Norwood: L’attrice AI che scuote Hollywood e l’industria cinematografica

Tilly Norwood: L’attrice AI che scuote Hollywood e l’industria cinematografica

Hollywood è in fermento per Tilly Norwood, attrice generata dall'AI. La sua comparsa ha scatenato intense polemiche: attori come Emily Blunt e il sindacato SAG-AFTRA si oppongono, vedendola come minaccia al lavoro e all'etica professionale. Il dibattito cruciale mette in discussione la creatività umana e il futuro stesso dell'industria cinematografica di fronte all'avanzare della tecnologia.

[Altre storie]

Le aziende B2B impreparate alla rivoluzione AI che loro stesse alimentano

Le aziende B2B impreparate alla rivoluzione AI che loro stesse alimentano

Nonostante l'intelligenza artificiale sia un motore chiave per la generazione di contatti qualificati, le aziende B2B sono ampiamente impreparate. Solo l'11% dei dirigenti marketing ottimizza i contenuti per piattaforme IA, benché il 34% dei lead provenga da questi canali. La Generative Engine Optimization (GEO) è vista come prioritaria, ma l'implementazione pratica arranca, evidenziando un divario tra consapevolezza e azioni concrete nel settore.

OpenAI lancia Instant Checkout: La rivoluzione del commercio conversazionale con l’Agentic Commerce Protocol

OpenAI ha introdotto 'Instant Checkout', rivoluzionando gli acquisti diretti tramite ChatGPT. La funzione, basata sull'Agentic Commerce Protocol (ACP) open-source sviluppato con Stripe, trasforma le conversazioni in transazioni immediate. Già integrata con Etsy e presto su Shopify, questa mossa strategica sfida i giganti dell'e-commerce. L'IA diventa il fulcro degli acquisti, promettendo comodità ma sollevando interrogativi su trasparenza e concorrenza nel commercio conversazionale.

L’intelligenza artificiale è ovunque nello sviluppo software, ma non tutti si fidano

L'intelligenza artificiale è ormai uno strumento quotidiano per il 90% degli sviluppatori software, con chiari benefici di produttività. Tuttavia, studi di Google Cloud e Stack Overflow rivelano un calo di fiducia nell'accuratezza degli strumenti AI. La dipendenza cresce, sollevando dubbi su qualità del codice, crescita professionale dei junior e l'amplificazione dei problemi organizzativi esistenti. Il successo dipenderà dalla maturità organizzativa.

Google DeepMind: I robot imparano a ragionare con il ‘pensiero incarnato’

Google DeepMind ha presentato un rivoluzionario sistema di intelligenza artificiale che insegna ai robot a ragionare, pianificare azioni complesse e adattarsi a diverse configurazioni fisiche. Questa innovazione supera i limiti tradizionali, permettendo alle macchine di "pensare" e agire autonomamente nel mondo reale. Un progresso notevole che apre a importanti dibattiti sul futuro dell'automazione e sicurezza.

La mossa di OpenAI: dalla fornitura alla competizione diretta con Google, Meta e TikTok

OpenAI lancia una mossa aggressiva, trasformandosi da fornitore a diretto concorrente dei giganti tech. Con Sora 2, un avanzato modello per video AI realistici, e una nuova piattaforma social stile TikTok, l'azienda di Sam Altman sfida Google, Meta e TikTok. L'obiettivo è ridefinire gli equilibri, creando un proprio ecosistema per contenuti generati dall'intelligenza artificiale.

Meta scommette sugli occhiali intelligenti per sostituire lo smartphone con Neural Band e realtà aumentata

Meta presenta una nuova generazione di occhiali intelligenti, dai Ray-Ban Meta AI ai Display AI, pensati per affiancare o sostituire lo smartphone. L'innovazione cruciale è il Meta Neural Band, un braccialetto che interpreta i segnali neurali per controllare il digitale con il pensiero, promettendo un'interazione rivoluzionaria con la realtà aumentata. Meta punta a dominare un mercato nascente, superando le sfide sulla privacy e l'accettazione.

ChatGPT Pulse: l’IA proattiva di OpenAI che anticipa la tua giornata

OpenAI ha lanciato ChatGPT Pulse, un'IA proattiva che offre un briefing mattutino personalizzato. Analizzando dati utente e app esterne, anticipa le necessità quotidiane. Inizialmente esclusivo per abbonati Pro, il servizio mira a sostituire il "doom-scrolling" e a organizzare la giornata, ma richiede un significativo compromesso sulla condivisione delle informazioni personali.

L’Italia nell’automazione industriale: tra leadership europea e sfide globali dell’intelligenza artificiale

L'Italia si posiziona tra i leader nell'automazione industriale, seconda in Europa e quinta globalmente per nuovi robot. Tuttavia, l'ultimo anno ha visto un calo del 9% nelle installazioni, segnalando complessità. Mentre l'Asia domina il mercato globale, l'integrazione robot-IA ridefinisce la competizione. L'industria italiana deve accelerare nell'adozione di sistemi intelligenti per garantire resilienza e crescita futura nel settore.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP