TX-GAIN: Il nuovo supercomputer AI del MIT rivoluziona la ricerca federale e accademica

· news

Il TX-GAIN è stato ottimizzato fin dalla sua concezione per l’intelligenza artificiale generativa, un ambito che richiede una potenza di calcolo senza precedenti per accelerare scoperte in settori dalla biodifesa alla scienza dei materiali.

TX-GAIN: Il nuovo supercomputer AI del MIT rivoluziona la ricerca federale e accademica
[In pillole] La sintesi per chi va di fretta:
Il Lincoln Laboratory del MIT ha presentato TX-GAIN, il supercomputer AI più potente in un'università USA. Con due AI exaflops, è ottimizzato per l'AI generativa, accelerando la ricerca in sicurezza nazionale e biodifesa. Sviluppato da HPE con GPU NVIDIA, incorpora anche innovative soluzioni per l'efficienza energetica.

Il nuovo supercomputer del MIT che cambierà la ricerca sull’intelligenza artificiale

Il Lincoln Laboratory, il centro di ricerca e sviluppo del Massachusetts Institute of Technology (MIT) finanziato dal governo federale, ha presentato una nuova e potentissima macchina per il calcolo.

Si chiama TX-GAIN, un nome che sta per “TX-Generative AI Next”, e secondo il laboratorio è il supercomputer per l’intelligenza artificiale più potente mai installato in un’università statunitense.

La sua capacità di calcolo dichiarata è di due “AI exaflops”, una misura che, pur essendo complessa da definire con precisione, indica una potenza elaborativa di due quintilioni di operazioni al secondo, un ordine di grandezza che fino a pochi anni fa era considerato quasi teorico.

Questo annuncio non riguarda semplicemente un aggiornamento tecnologico, ma segna un passaggio significativo nel modo in cui la ricerca accademica e governativa potrà affrontare problemi complessi.

A differenza dei supercomputer tradizionali, progettati per simulazioni scientifiche generiche, TX-GAIN è stato ottimizzato fin dalla sua concezione per un compito molto specifico: l’intelligenza artificiale generativa.

Questa specializzazione risponde a una tendenza ormai consolidata nel settore, dove la capacità di creare contenuti nuovi – che si tratti di testi, immagini, codici o molecole – è diventata il fronte più avanzato e dispendioso della ricerca.

La macchina è stata costruita da Hewlett Packard Enterprise (HPE), uno dei principali attori nel mercato del calcolo ad alte prestazioni, e il suo cuore è costituito da oltre 600 acceleratori grafici (GPU) di NVIDIA, l’azienda che detiene di fatto un monopolio in questo settore.

Si tratta di un’infrastruttura che definisce le capacità del laboratorio per i prossimi anni e rafforza la posizione dominante di poche aziende tecnologiche nella fornitura degli strumenti essenziali per l’innovazione scientifica.

Comprendere la portata di questo nuovo strumento, però, richiede di fare un passo indietro, per capire da dove viene e cosa rende la sua architettura così particolare.

UIUX

Un computer pensato per “creare”

Quando si parla di intelligenza artificiale, spesso si tende a generalizzare. In realtà, esistono approcci molto diversi. I sistemi di qualche anno fa erano perlopiù “discriminativi”, cioè addestrati a classificare e riconoscere dati: distinguere un gatto da un cane in una foto, identificare una transazione fraudolenta, trascrivere il parlato.

L’intelligenza artificiale generativa, che si realizza attraverso sistemi di machine learning, fa qualcosa di diverso: impara le regole e gli schemi impliciti in un’enorme quantità di dati per poi produrre qualcosa di completamente nuovo, ma coerente con quegli schemi. È il principio dietro a sistemi come ChatGPT, che genera testo, o Midjourney, che crea immagini.

TX-GAIN è stato progettato proprio per eccellere in questo secondo ambito, che è molto più esigente dal punto di vista computazionale.

La sua architettura, basata su centinaia di processori NVIDIA H100, è ottimizzata per gestire i cosiddetti “modelli fondazionali”, sistemi di intelligenza artificiale di dimensioni enormi che richiedono mesi di addestramento e costi energetici altissimi.

– Leggi anche: Samsung e OpenAI: un’alleanza storica per i data center galleggianti di Stargate

Secondo Jeremy Kepner, direttore del Lincoln Laboratory Supercomputing Center (LLSC), questa macchina permetterà ai ricercatori di ottenere scoperte scientifiche e ingegneristiche in aree che spaziano dalla simulazione fisica all’analisi di dati complessi. La promessa è quella di accelerare la ricerca in tutti i campi di interesse del laboratorio, che per sua natura sono strettamente legati alla sicurezza nazionale.

Sebbene la potenza di calcolo sia l’elemento più evidente, un altro aspetto, forse ancora più rilevante nel lungo periodo, riguarda un problema che affligge l’intero settore dell’intelligenza artificiale: il suo enorme consumo energetico.

E anche su questo fronte, le soluzioni adottate per TX-GAIN raccontano una storia interessante, che affonda le sue radici nelle scelte fatte per il suo predecessore.

L’eredità del predecessore e la corsa all’efficienza

TX-GAIN non è nato nel vuoto. Sostituisce un sistema installato nel 2019, chiamato TX-GAIA, che all’epoca era a sua volta il supercomputer per l’intelligenza artificiale più potente in ambito accademico. TX-GAIA aveva una capacità di 100 “AI petaflops”, una frazione della potenza di TX-GAIN.

Il passaggio da petaflops a exaflops (un exaflop equivale a mille petaflops) in soli sei anni dà un’idea della rapidità con cui questa tecnologia sta evolvendo. Ma già con TX-GAIA il Lincoln Laboratory aveva dovuto affrontare la questione della sostenibilità. La soluzione fu installare il centro di calcolo a Holyoke, in Massachusetts, per poterlo alimentare sfruttando l’energia prodotta da una centrale idroelettrica.

Questa scelta è stata mantenuta e potenziata con TX-GAIN. Il laboratorio afferma di aver implementato metodi innovativi che riducono il consumo energetico per l’addestramento dei modelli di intelligenza artificiale dell’80% rispetto ai sistemi convenzionali, come descritto nell’annuncio ufficiale del MIT.

Si tratta di un dato notevole, ma che va letto con attenzione. Una riduzione dell’80% non significa che il computer consumi poco in assoluto; significa che è più efficiente nel fare lo stesso lavoro. Dato l’incremento di venti volte della potenza di calcolo, il consumo energetico totale rimane comunque immenso.

La strategia di usare fonti rinnovabili è una soluzione pragmatica a un problema crescente, ma maschera una verità più ampia: l’avanzata dell’intelligenza artificiale sta creando una domanda di energia senza precedenti, e non tutte le organizzazioni possono permettersi di costruire i propri data center accanto a una diga.

Questa corsa all’efficienza, quindi, è tanto una necessità ambientale quanto un requisito strategico per poter continuare a spingere i limiti della tecnologia. Resta da capire, concretamente, per quali limiti il laboratorio intenda usare questa enorme capacità.

Dalla sicurezza nazionale alla scoperta di nuovi materiali

Il Lincoln Laboratory non è un’università come le altre. È uno dei cosiddetti Federally Funded Research and Development Centers (FFRDC), enti privati che lavorano quasi esclusivamente per il governo statunitense, in particolare per il Dipartimento della Difesa.

La sua missione è sviluppare tecnologie avanzate per la sicurezza nazionale.

Di conseguenza, le applicazioni di TX-GAIN saranno orientate principalmente a questo ambito. Tra gli esempi citati ci sono la biodifesa, dove si potrebbero simulare gli effetti di nuovi agenti patogeni o sviluppare contromisure più rapidamente; la cybersicurezza, per analizzare su larga scala le minacce informatiche e creare sistemi di difesa autonomi; e la scienza dei materiali, per progettare leghe o composti con proprietà specifiche, utili ad esempio in campo aerospaziale o per la sensoristica avanzata.

In passato, i supercomputer del laboratorio hanno contribuito a sviluppare il sistema di prevenzione delle collisioni aeree usato oggi dalla Federal Aviation Administration (FAA) e a migliorare le previsioni degli uragani.

La speranza è che TX-GAIN possa portare a scoperte di simile portata, ma in tempi molto più rapidi.

Sebbene l’uso primario sia legato a progetti federali, il sistema sarà accessibile anche ai ricercatori del campus principale del MIT, favorendo una contaminazione tra la ricerca applicata alla difesa e quella accademica di base.

L’arrivo di questo supercomputer consolida il ruolo del MIT come uno dei centri nevralgici della ricerca tecnologica mondiale. Al tempo stesso, però, evidenzia come la frontiera dell’innovazione scientifica dipenda sempre più da infrastrutture centralizzate e costose — la cui allocazione è una sfida in ambito di sistemi ERP (Enterprise Resource Planning) — e costruite da un piccolo numero di aziende private.

La capacità di porre le domande giuste alla scienza del futuro potrebbe presto dipendere da chi ha accesso a queste straordinarie, ed esclusive, macchine calcolatrici.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Samsung e OpenAI: un’alleanza storica per i data center galleggianti di Stargate

Samsung e OpenAI: un’alleanza storica per i data center galleggianti di Stargate

A Seul, Samsung e OpenAI hanno formalizzato un'alleanza strategica per il progetto "Stargate", che mira a sviluppare la prossima generazione di modelli AI. L'accordo non si limita alla fornitura di semiconduttori, ma include la progettazione e la realizzazione di data center galleggianti da parte di diverse divisioni Samsung. Una collaborazione complessa che ridefinirà gli equilibri futuri dell'intelligenza artificiale.

Tilly Norwood: L’attrice AI che scuote Hollywood e l’industria cinematografica

Tilly Norwood: L’attrice AI che scuote Hollywood e l’industria cinematografica

Hollywood è in fermento per Tilly Norwood, attrice generata dall'AI. La sua comparsa ha scatenato intense polemiche: attori come Emily Blunt e il sindacato SAG-AFTRA si oppongono, vedendola come minaccia al lavoro e all'etica professionale. Il dibattito cruciale mette in discussione la creatività umana e il futuro stesso dell'industria cinematografica di fronte all'avanzare della tecnologia.

Le aziende B2B impreparate alla rivoluzione AI che loro stesse alimentano

Le aziende B2B impreparate alla rivoluzione AI che loro stesse alimentano

Nonostante l'intelligenza artificiale sia un motore chiave per la generazione di contatti qualificati, le aziende B2B sono ampiamente impreparate. Solo l'11% dei dirigenti marketing ottimizza i contenuti per piattaforme IA, benché il 34% dei lead provenga da questi canali. La Generative Engine Optimization (GEO) è vista come prioritaria, ma l'implementazione pratica arranca, evidenziando un divario tra consapevolezza e azioni concrete nel settore.

[Altre storie]

OpenAI lancia Instant Checkout: La rivoluzione del commercio conversazionale con l’Agentic Commerce Protocol

OpenAI lancia Instant Checkout: La rivoluzione del commercio conversazionale con l’Agentic Commerce Protocol

OpenAI ha introdotto 'Instant Checkout', rivoluzionando gli acquisti diretti tramite ChatGPT. La funzione, basata sull'Agentic Commerce Protocol (ACP) open-source sviluppato con Stripe, trasforma le conversazioni in transazioni immediate. Già integrata con Etsy e presto su Shopify, questa mossa strategica sfida i giganti dell'e-commerce. L'IA diventa il fulcro degli acquisti, promettendo comodità ma sollevando interrogativi su trasparenza e concorrenza nel commercio conversazionale.

La mossa di OpenAI: dalla fornitura alla competizione diretta con Google, Meta e TikTok

OpenAI lancia una mossa aggressiva, trasformandosi da fornitore a diretto concorrente dei giganti tech. Con Sora 2, un avanzato modello per video AI realistici, e una nuova piattaforma social stile TikTok, l'azienda di Sam Altman sfida Google, Meta e TikTok. L'obiettivo è ridefinire gli equilibri, creando un proprio ecosistema per contenuti generati dall'intelligenza artificiale.

Meta scommette sugli occhiali intelligenti per sostituire lo smartphone con Neural Band e realtà aumentata

Meta presenta una nuova generazione di occhiali intelligenti, dai Ray-Ban Meta AI ai Display AI, pensati per affiancare o sostituire lo smartphone. L'innovazione cruciale è il Meta Neural Band, un braccialetto che interpreta i segnali neurali per controllare il digitale con il pensiero, promettendo un'interazione rivoluzionaria con la realtà aumentata. Meta punta a dominare un mercato nascente, superando le sfide sulla privacy e l'accettazione.

ChatGPT Pulse: l’IA proattiva di OpenAI che anticipa la tua giornata

OpenAI ha lanciato ChatGPT Pulse, un'IA proattiva che offre un briefing mattutino personalizzato. Analizzando dati utente e app esterne, anticipa le necessità quotidiane. Inizialmente esclusivo per abbonati Pro, il servizio mira a sostituire il "doom-scrolling" e a organizzare la giornata, ma richiede un significativo compromesso sulla condivisione delle informazioni personali.

L’Italia nell’automazione industriale: tra leadership europea e sfide globali dell’intelligenza artificiale

L'Italia si posiziona tra i leader nell'automazione industriale, seconda in Europa e quinta globalmente per nuovi robot. Tuttavia, l'ultimo anno ha visto un calo del 9% nelle installazioni, segnalando complessità. Mentre l'Asia domina il mercato globale, l'integrazione robot-IA ridefinisce la competizione. L'industria italiana deve accelerare nell'adozione di sistemi intelligenti per garantire resilienza e crescita futura nel settore.

L’intelligenza artificiale è ovunque nello sviluppo software, ma non tutti si fidano

L'intelligenza artificiale è ormai uno strumento quotidiano per il 90% degli sviluppatori software, con chiari benefici di produttività. Tuttavia, studi di Google Cloud e Stack Overflow rivelano un calo di fiducia nell'accuratezza degli strumenti AI. La dipendenza cresce, sollevando dubbi su qualità del codice, crescita professionale dei junior e l'amplificazione dei problemi organizzativi esistenti. Il successo dipenderà dalla maturità organizzativa.

Google DeepMind: I robot imparano a ragionare con il ‘pensiero incarnato’

Google DeepMind ha presentato un rivoluzionario sistema di intelligenza artificiale che insegna ai robot a ragionare, pianificare azioni complesse e adattarsi a diverse configurazioni fisiche. Questa innovazione supera i limiti tradizionali, permettendo alle macchine di "pensare" e agire autonomamente nel mondo reale. Un progresso notevole che apre a importanti dibattiti sul futuro dell'automazione e sicurezza.

La grande accelerazione dei robot nelle fabbriche: la Cina guida la rivoluzione globale

Nel 2024, 542.000 nuovi robot industriali sono stati installati, portando il totale globale a quasi 4,7 milioni. La Cina è il motore principale, assorbendo il 54% delle nuove unità e con i suoi produttori che per la prima volta superano i concorrenti stranieri. Questa accelerazione, guidata da elettronica e automotive, ridefinisce gli equilibri industriali mondiali, ponendo sfide significative sull'impatto sociale del lavoro.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP