JUPITER: L’Europa entra nell’era exascale con il suo primo supercomputer di punta

· news

Il sistema, installato in Germania, è il primo del continente a raggiungere la capacità exascale, posizionando l’Europa in un ristretto gruppo di potenze mondiali e aprendo nuove frontiere per la ricerca e l’indipendenza tecnologica, con una notevole attenzione all’efficienza energetica.

JUPITER: L’Europa entra nell’era exascale con il suo primo supercomputer di punta
[In pillole] La sintesi per chi va di fretta:
L'Europa è entrata nell'era exascale con JUPITER, il primo supercomputer continentale, installato in Germania. Questo traguardo tecnologico e strategico posiziona l'Europa tra le potenze globali nel calcolo ad alte prestazioni. JUPITER, il più potente d'Europa e quarto mondiale, offre capacità di un exaflop, efficienza energetica e promette avanzamenti rivoluzionari in IA, clima e ricerca scientifica, rafforzando la sovranità tecnologica.

La tecnologia dietro JUPITER, tra potenza e consumi

Il cuore pulsante di JUPITER è un’architettura hardware estremamente avanzata. Il sistema è composto da quasi 24.000 “Superchip” NVIDIA GH200 Grace Hopper, interconnessi attraverso la piattaforma di rete NVIDIA Quantum-2 InfiniBand. L’intera infrastruttura è basata sull’architettura BullSequana XH3000 di Eviden, una società del gruppo Atos, ed è progettata con un sistema di raffreddamento a liquido per gestire l’enorme calore generato. Secondo le stime, JUPITER dovrebbe raggiungere una prestazione di picco di oltre 90 exaflop specificamente per i calcoli legati all’intelligenza artificiale, una capacità che apre prospettive notevoli per lo sviluppo di modelli di grandi dimensioni.

La visione, almeno secondo Jensen Huang, fondatore e CEO di NVIDIA, è che «l’intelligenza artificiale potenzierà la scoperta scientifica e l’innovazione industriale», come ha affermato in una dichiarazione ufficiale sul sito dell’azienda. Queste dichiarazioni, sebbene parte di una legittima strategia di comunicazione aziendale, sottolineano come la corsa al supercalcolo sia anche un affare di enormi proporzioni commerciali per i giganti della tecnologia, che vedono in questi progetti una vetrina per le loro soluzioni più avanzate.

Tuttavia, un aspetto spesso trascurato quando si parla di supercomputer è il loro consumo energetico. L’enorme potenza di calcolo richiede un’altrettanto enorme quantità di energia, un problema sempre più rilevante in un contesto di crisi climatica e di attenzione alla sostenibilità.

Proprio su questo punto, JUPITER introduce un elemento di novità significativo. Tra i primi cinque sistemi più potenti al mondo, è quello con la maggiore efficienza energetica, operando a 60 gigaflop per watt. Questo risultato non è un dettaglio secondario, ma rappresenta un passo importante verso un calcolo ad alte prestazioni più sostenibile.

L’efficienza energetica, infatti, non riduce solo i costi operativi, ma definisce anche la fattibilità a lungo termine di queste infrastrutture. È la dimostrazione che l’aumento della potenza di calcolo non deve necessariamente tradursi in un aumento proporzionale del consumo di risorse.

Resta da vedere, però, come questa enorme capacità di calcolo verrà effettivamente impiegata per affrontare le sfide più urgenti della nostra società.

Dalle previsioni del tempo all’intelligenza artificiale

Le applicazioni di un supercomputer come JUPITER sono tanto vaste quanto rivoluzionarie. Uno degli ambiti che beneficerà maggiormente di questa nuova potenza di calcolo è quello della climatologia e delle previsioni meteorologiche. JUPITER consentirà di creare simulazioni del clima e del tempo molto più accurate e dettagliate, migliorando drasticamente la capacità di prevedere eventi meteorologici estremi a livello locale, come piogge intense e temporali violenti.

Questa capacità è fondamentale per sviluppare strategie di adattamento più efficaci in un mondo segnato da un clima sempre più imprevedibile.

Un altro settore chiave è quello dell’intelligenza artificiale. A piena capacità, JUPITER sarà in grado di completare l’addestramento dei più grandi modelli linguistici (LLM), uno dei compiti più esigenti in ambito di machine learning, in meno di una settimana. Questo riduce drasticamente i tempi di sviluppo e apre la porta a modelli ancora più complessi e potenti, con possibili ricadute in innumerevoli campi, dalla ricerca scientifica all’automazione industriale.

Il passaggio dalla simulazione alla produzione reale rappresenterà, naturalmente, la sfida successiva. Un modello digitale perfetto, elaborato da JUPITER per ottimizzare un processo, dovrà potersi tradurre in ordini e flussi di lavoro concreti. gestiti ad esempio tramite lo sviluppo di Sistemi di Esecuzione della Produzione, noti anche come MES, che fungono da ponte tra la progettazione virtuale e l’esecuzione fisica in fabbrica.

Ma le applicazioni non si fermano qui.

– Leggi anche: Attacco ‘Grokking’: l’AI di X diventa veicolo per link malevoli

La ricerca fondamentale in fisica delle particelle, la biologia strutturale, l’ingegneria computazionale e l’astrofisica potranno avvalersi di simulazioni finora impossibili, permettendo di convalidare le leggi della natura e di studiare l’origine degli elementi chimici con una precisione senza precedenti.

Anche il settore medico, in particolare la ricerca sul cancro, potrebbe trarre enormi vantaggi, utilizzando modelli predittivi per testare le reazioni ai farmaci e accelerare i processi di scoperta di nuove terapie.

È però importante sottolineare che l’accesso a una risorsa così potente e costosa è una questione delicata. La gestione di JUPITER è stata strutturata secondo un principio di collaborazione europea: il 50% del tempo di calcolo è gestito dalla EuroHPC Joint Undertaking, un’iniziativa pubblico-privata che lo rende disponibile ai ricercatori di tutta Europa, mentre il restante 50% è allocato dal Gauss Centre for Supercomputing (GCS) a università e istituti di ricerca tedeschi.

Questo modello di governance mira a garantire che i benefici di questa infrastruttura siano ampiamente distribuiti, anziché rimanere concentrati nelle mani di pochi.

Un passo verso la sovranità tecnologica

Lo sviluppo di JUPITER non è solo un traguardo scientifico, ma incarna l’ambizione strategica dell’Europa di raggiungere una maggiore sovranità tecnologica.

In un mondo in cui la dipendenza da tecnologie prodotte altrove comporta rischi significativi, possedere e controllare infrastrutture di calcolo di questo livello è fondamentale.

Questa capacità, come evidenziato da diverse analisi del settore, ha implicazioni dirette anche per la sicurezza nazionale, fornendo strumenti avanzati per contrastare minacce fisiche e informatiche, oltre a promuovere la crescita in settori come le tecnologie sostenibili e la pianificazione per la ripresa da disastri naturali.

La corsa all’exascale, inoltre, tocca questioni quasi filosofiche.

Da anni, uno degli obiettivi del calcolo ad alte prestazioni è quello di raggiungere una potenza di elaborazione paragonabile a quella del cervello umano a livello neurale, un traguardo che era al centro di progetti come lo Human Brain Project.

Con l’avvento dei sistemi exascale, ci stiamo avvicinando a questa soglia, un fatto che solleva domande profonde sulla natura dell’intelligenza e sul futuro rapporto tra esseri umani e macchine.

In conclusione, JUPITER è molto più di un semplice ammasso di processori e cavi raffreddati a liquido.

È il simbolo di un’Europa che cerca di affermare il proprio ruolo nella frontiera tecnologica globale, dotandosi degli strumenti necessari per affrontare le grandi sfide scientifiche e sociali del nostro tempo.

Mentre ricercatori e istituzioni iniziano a sfruttare questa straordinaria potenza di calcolo, i prossimi anni ci diranno se questa immensa capacità si tradurrà in progressi concreti per la società, posizionando davvero l’Europa all’avanguardia della prossima generazione di scoperte scientifiche.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

Attacco ‘Grokking’: l’AI di X diventa veicolo per link malevoli

Attacco ‘Grokking’: l’AI di X diventa veicolo per link malevoli

Una nuova tecnica, 'Grokking', sfrutta l'AI Grok di X per diffondere link malevoli. Gli aggressori nascondono URL nei metadati degli annunci, poi ingannano Grok con domande specifiche. L'AI, ignara, riporta il link come risposta ufficiale, conferendogli legittimità e amplificandone la diffusione. La scoperta di Guardio Labs solleva seri interrogativi sulla sicurezza dei sistemi AI nei social e la manipolazione per scopi illeciti.

Scale AI contro Mercor: la guerra per i dati e i talenti nell’IA sfocia in un’accusa di spionaggio industriale

Scale AI contro Mercor: la guerra per i dati e i talenti nell’IA sfocia in un’accusa di spionaggio industriale

Scale AI ha citato in giudizio la rivale Mercor per spionaggio industriale. Al centro delle accuse l'ex dirigente Eugene Ling, passato a Mercor, reo di aver sottratto documenti riservati e tentato di acquisire un cliente chiave. La causa evidenzia l'intensificarsi della "guerra" per dati e talenti nel settore IA, con valutazioni miliardarie e alleanze strategiche che ridefiniscono gli equilibri.

L’alleanza inattesa: Apple e Google uniscono le forze per Siri e l’IA

L’alleanza inattesa: Apple e Google uniscono le forze per Siri e l’IA

Apple e Google sarebbero vicine a un accordo storico per integrare Gemini in Siri, mossa sorprendente che ammette il ritardo di Apple nell'IA. Ciò renderebbe Siri più intelligente. La strategia solleva però interrogativi su privacy e dipendenza, mentre Apple lavora a un proprio "motore di risposte" AI per sfidare Google in futuro.

[Altre storie]

La contesa per il controllo di Internet: Web3, AI e la sfida della centralizzazione

La contesa per il controllo di Internet: Web3, AI e la sfida della centralizzazione

La lotta per il controllo di Internet è aperta. Il Web 2.0 è centralizzato, ma il Web3 propone un'alternativa decentralizzata basata su blockchain per ridare il potere agli utenti. L'intelligenza artificiale generativa, però, complica lo scenario, introducendo nuove sfide sulla centralizzazione del potere tecnologico e rimodellando il futuro della rete.

La grande scommessa di Elon Musk: Grok 5 di xAI punta all’AGI sfidando OpenAI e Google

Elon Musk scuote il settore IA con xAI e Grok 5, promettendo il raggiungimento dell'Intelligenza Artificiale Generale (AGI) entro il 2025. La mossa intensifica la competizione con OpenAI, supportata da investimenti infrastrutturali massicci e l'integrazione con l'ecosistema Tesla. Nonostante le passate scadenze mancate, Musk punta a un punto di svolta tecnologico globale.

ChefGenie: l’esperimento di cucina automatizzata con AI a Singapore ridefinirà la ristorazione

A Singapore prende il via l'esperimento ChefGenie: un sistema di cucina quasi interamente automatizzato e gestito da AI. Il progetto, supportato dal governo e da otto marchi rinomati, mira a testare l'efficienza e l'accettazione dei consumatori, offrendo 4.000 pasti a prezzo simbolico. L'iniziativa è cruciale per la strategia nazionale di Singapore sulla sicurezza alimentare e l'innovazione nella ristorazione.

Automattic lancia Telex: l’AI sperimentale che reinventa lo sviluppo su WordPress

Automattic ha svelato Telex, un'intelligenza artificiale sperimentale che promette di rivoluzionare lo sviluppo di siti WordPress. Lo strumento, presentato da Matt Mullenweg, genera blocchi per l'editor Gutenberg tramite linguaggio naturale, mirando a democratizzare la creazione web. Attualmente in fase "V0", i primi test evidenziano risultati variabili e la necessità di affinamenti per raggiungere la piena affidabilità.

L’intelligenza artificiale nelle aziende italiane: un’adozione a due velocità secondo l’EY Italy AI barometer

L'adozione dell'intelligenza artificiale in Italia è aumentata rapidamente (dal 12% al 46%). L'EY Italy AI Barometer rivela un'adozione "a due velocità": forte a livello di management (52% benefici) ma più lenta tra i dipendenti. Le sfide includono sicurezza dati e consapevolezza etica. Nonostante gli investimenti elevati, la trasformazione tecnologica in evoluzione culturale è cruciale, con i lavoratori italiani in testa per la formazione individuale.

Edge computing: l’AI si decentralizza, spostandosi dal Cloud ai dispositivi

L'Edge computing sta rivoluzionando l'intelligenza artificiale, spostando l'elaborazione dal Cloud ai dispositivi periferici. Spinto da necessità economiche e tecnologiche, riduce drasticamente costi e latenza, abilitando applicazioni in tempo reale in settori come retail e industria. Questa decentralizzazione promette un'intelligenza più diffusa e reattiva, ma solleva interrogativi sulla democratizzazione e le nuove dipendenze.

Apertus: l’AI open source pubblica della Svizzera contro il monopolio tecnologico

La Svizzera ha lanciato Apertus, un modello di AI su larga scala completamente open source. Frutto di una collaborazione accademica, si propone come alternativa pubblica e trasparente ai giganti tecnologici. Addestrato con un forte focus multilingue, mira a promuovere innovazione, controllo indipendente e maggiore equità nel settore dell'AI.

Errori in busta paga: La minaccia nascosta che può costare milioni e talenti alle aziende

Errori e ritardi ricorrenti nelle buste paga spingono oltre la metà dei dipendenti statunitensi a considerare di cambiare lavoro. Uno studio evidenzia come questa problematica stia diventando una minaccia concreta per le aziende, generando costi milionari tra correzioni, contenziosi legali e l'onerosa perdita di talenti qualificati. L'accuratezza delle retribuzioni è ora un fattore strategico cruciale.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP