Il TX-GAIN è stato ottimizzato fin dalla sua concezione per l’intelligenza artificiale generativa, un ambito che richiede una potenza di calcolo senza precedenti per accelerare scoperte in settori dalla biodifesa alla scienza dei materiali.

[In pillole] La sintesi per chi va di fretta:
Il Lincoln Laboratory del MIT ha presentato TX-GAIN, il supercomputer AI più potente in un'università USA. Con due AI exaflops, è ottimizzato per l'AI generativa, accelerando la ricerca in sicurezza nazionale e biodifesa. Sviluppato da HPE con GPU NVIDIA, incorpora anche innovative soluzioni per l'efficienza energetica.
Il nuovo supercomputer del MIT che cambierà la ricerca sull’intelligenza artificiale
Il Lincoln Laboratory, il centro di ricerca e sviluppo del Massachusetts Institute of Technology (MIT) finanziato dal governo federale, ha presentato una nuova e potentissima macchina per il calcolo.
Si chiama TX-GAIN, un nome che sta per “TX-Generative AI Next”, e secondo il laboratorio è il supercomputer per l’intelligenza artificiale più potente mai installato in un’università statunitense.
La sua capacità di calcolo dichiarata è di due “AI exaflops”, una misura che, pur essendo complessa da definire con precisione, indica una potenza elaborativa di due quintilioni di operazioni al secondo, un ordine di grandezza che fino a pochi anni fa era considerato quasi teorico.
Questo annuncio non riguarda semplicemente un aggiornamento tecnologico, ma segna un passaggio significativo nel modo in cui la ricerca accademica e governativa potrà affrontare problemi complessi.
A differenza dei supercomputer tradizionali, progettati per simulazioni scientifiche generiche, TX-GAIN è stato ottimizzato fin dalla sua concezione per un compito molto specifico: l’intelligenza artificiale generativa.
Questa specializzazione risponde a una tendenza ormai consolidata nel settore, dove la capacità di creare contenuti nuovi – che si tratti di testi, immagini, codici o molecole – è diventata il fronte più avanzato e dispendioso della ricerca.
La macchina è stata costruita da Hewlett Packard Enterprise (HPE), uno dei principali attori nel mercato del calcolo ad alte prestazioni, e il suo cuore è costituito da oltre 600 acceleratori grafici (GPU) di NVIDIA, l’azienda che detiene di fatto un monopolio in questo settore.
Si tratta di un’infrastruttura che definisce le capacità del laboratorio per i prossimi anni e rafforza la posizione dominante di poche aziende tecnologiche nella fornitura degli strumenti essenziali per l’innovazione scientifica.
Comprendere la portata di questo nuovo strumento, però, richiede di fare un passo indietro, per capire da dove viene e cosa rende la sua architettura così particolare.
Un computer pensato per “creare”
Quando si parla di intelligenza artificiale, spesso si tende a generalizzare. In realtà, esistono approcci molto diversi. I sistemi di qualche anno fa erano perlopiù “discriminativi”, cioè addestrati a classificare e riconoscere dati: distinguere un gatto da un cane in una foto, identificare una transazione fraudolenta, trascrivere il parlato.
L’intelligenza artificiale generativa, che si realizza attraverso sistemi di machine learning, fa qualcosa di diverso: impara le regole e gli schemi impliciti in un’enorme quantità di dati per poi produrre qualcosa di completamente nuovo, ma coerente con quegli schemi. È il principio dietro a sistemi come ChatGPT, che genera testo, o Midjourney, che crea immagini.
TX-GAIN è stato progettato proprio per eccellere in questo secondo ambito, che è molto più esigente dal punto di vista computazionale.
La sua architettura, basata su centinaia di processori NVIDIA H100, è ottimizzata per gestire i cosiddetti “modelli fondazionali”, sistemi di intelligenza artificiale di dimensioni enormi che richiedono mesi di addestramento e costi energetici altissimi.
– Leggi anche: Samsung e OpenAI: un’alleanza storica per i data center galleggianti di Stargate
Secondo Jeremy Kepner, direttore del Lincoln Laboratory Supercomputing Center (LLSC), questa macchina permetterà ai ricercatori di ottenere scoperte scientifiche e ingegneristiche in aree che spaziano dalla simulazione fisica all’analisi di dati complessi. La promessa è quella di accelerare la ricerca in tutti i campi di interesse del laboratorio, che per sua natura sono strettamente legati alla sicurezza nazionale.
Sebbene la potenza di calcolo sia l’elemento più evidente, un altro aspetto, forse ancora più rilevante nel lungo periodo, riguarda un problema che affligge l’intero settore dell’intelligenza artificiale: il suo enorme consumo energetico.
E anche su questo fronte, le soluzioni adottate per TX-GAIN raccontano una storia interessante, che affonda le sue radici nelle scelte fatte per il suo predecessore.
L’eredità del predecessore e la corsa all’efficienza
TX-GAIN non è nato nel vuoto. Sostituisce un sistema installato nel 2019, chiamato TX-GAIA, che all’epoca era a sua volta il supercomputer per l’intelligenza artificiale più potente in ambito accademico. TX-GAIA aveva una capacità di 100 “AI petaflops”, una frazione della potenza di TX-GAIN.
Il passaggio da petaflops a exaflops (un exaflop equivale a mille petaflops) in soli sei anni dà un’idea della rapidità con cui questa tecnologia sta evolvendo. Ma già con TX-GAIA il Lincoln Laboratory aveva dovuto affrontare la questione della sostenibilità. La soluzione fu installare il centro di calcolo a Holyoke, in Massachusetts, per poterlo alimentare sfruttando l’energia prodotta da una centrale idroelettrica.
Questa scelta è stata mantenuta e potenziata con TX-GAIN. Il laboratorio afferma di aver implementato metodi innovativi che riducono il consumo energetico per l’addestramento dei modelli di intelligenza artificiale dell’80% rispetto ai sistemi convenzionali, come descritto nell’annuncio ufficiale del MIT.
Si tratta di un dato notevole, ma che va letto con attenzione. Una riduzione dell’80% non significa che il computer consumi poco in assoluto; significa che è più efficiente nel fare lo stesso lavoro. Dato l’incremento di venti volte della potenza di calcolo, il consumo energetico totale rimane comunque immenso.
La strategia di usare fonti rinnovabili è una soluzione pragmatica a un problema crescente, ma maschera una verità più ampia: l’avanzata dell’intelligenza artificiale sta creando una domanda di energia senza precedenti, e non tutte le organizzazioni possono permettersi di costruire i propri data center accanto a una diga.
Questa corsa all’efficienza, quindi, è tanto una necessità ambientale quanto un requisito strategico per poter continuare a spingere i limiti della tecnologia. Resta da capire, concretamente, per quali limiti il laboratorio intenda usare questa enorme capacità.
Dalla sicurezza nazionale alla scoperta di nuovi materiali
Il Lincoln Laboratory non è un’università come le altre. È uno dei cosiddetti Federally Funded Research and Development Centers (FFRDC), enti privati che lavorano quasi esclusivamente per il governo statunitense, in particolare per il Dipartimento della Difesa.
La sua missione è sviluppare tecnologie avanzate per la sicurezza nazionale.
Di conseguenza, le applicazioni di TX-GAIN saranno orientate principalmente a questo ambito. Tra gli esempi citati ci sono la biodifesa, dove si potrebbero simulare gli effetti di nuovi agenti patogeni o sviluppare contromisure più rapidamente; la cybersicurezza, per analizzare su larga scala le minacce informatiche e creare sistemi di difesa autonomi; e la scienza dei materiali, per progettare leghe o composti con proprietà specifiche, utili ad esempio in campo aerospaziale o per la sensoristica avanzata.
In passato, i supercomputer del laboratorio hanno contribuito a sviluppare il sistema di prevenzione delle collisioni aeree usato oggi dalla Federal Aviation Administration (FAA) e a migliorare le previsioni degli uragani.
La speranza è che TX-GAIN possa portare a scoperte di simile portata, ma in tempi molto più rapidi.
Sebbene l’uso primario sia legato a progetti federali, il sistema sarà accessibile anche ai ricercatori del campus principale del MIT, favorendo una contaminazione tra la ricerca applicata alla difesa e quella accademica di base.
L’arrivo di questo supercomputer consolida il ruolo del MIT come uno dei centri nevralgici della ricerca tecnologica mondiale. Al tempo stesso, però, evidenzia come la frontiera dell’innovazione scientifica dipenda sempre più da infrastrutture centralizzate e costose — la cui allocazione è una sfida in ambito di sistemi ERP (Enterprise Resource Planning) — e costruite da un piccolo numero di aziende private.
La capacità di porre le domande giuste alla scienza del futuro potrebbe presto dipendere da chi ha accesso a queste straordinarie, ed esclusive, macchine calcolatrici.



