La nuova unità punta a costruire un’infrastruttura AI che consumi decine di gigawatt entro il decennio, spostando la competizione tecnologica verso il controllo fisico dell’energia e delle risorse

[In pillole] La sintesi per chi va di fretta:
Meta ha annunciato la creazione di Meta Compute, una nuova unità per costruire un'infrastruttura AI su una scala senza precedenti. Guidata da Mark Zuckerberg, l'iniziativa mira a sviluppare una potenza di calcolo di decine di gigawatt, investendo fino a 600 miliardi di dollari. L'obiettivo è trasformare Meta in un gigante delle infrastrutture per garantirsi un vantaggio strategico nel futuro dell'IA.
La scala di un’ambizione senza precedenti
Per comprendere la dimensione del progetto di Meta è utile partire dai numeri. Quando Zuckerberg parla di “decine di gigawatt”, si riferisce a una quantità di energia che ridefinisce la scala delle operazioni del settore.
Attualmente, l’insieme di tutti i data center del mondo consuma circa l’1-2% dell’elettricità globale; Meta da sola intende costruire, entro il 2030, un’infrastruttura con un consumo paragonabile a quello di intere nazioni.
L’obiettivo a lungo termine di “centinaia di gigawatt” supera di gran lunga qualsiasi progetto infrastrutturale annunciato finora da altre aziende tecnologiche, come spiegato da Axios.
Questo significa che l’azienda non dovrà più pensare solo a come ottimizzare i suoi server, ma dovrà occuparsi attivamente di catene di approvvigionamento energetico, partnership con governi locali per la costruzione di impianti e acquisizione strategica di terreni.
A sostegno di questa visione, Meta ha messo sul piatto un impegno finanziario imponente. La società prevede di investire fino a 600 miliardi di dollari in infrastrutture e posti di lavoro negli Stati Uniti entro il 2028, una cifra che include esplicitamente i data center per l’intelligenza artificiale.
Questo impegno economico rappresenta un’accelerazione notevole rispetto alle precedenti previsioni di spesa e segnala l’intenzione di entrare in quella che alcuni analisti definiscono una “modalità di piena accelerazione sull’IA”.
L’investimento non è più reattivo, cioè non segue la necessità di più potenza per un nuovo prodotto, ma è proattivo: si costruisce l’infrastruttura con anni di anticipo per garantirsi un vantaggio competitivo che altri non potranno colmare facilmente.
Governare una macchina così complessa, che unisce finanza, politica e ingegneria di altissimo livello, richiede però una struttura di comando altrettanto sofisticata.
Una struttura per governare la complessità
Meta Compute non sarà un’entità isolata all’interno dell’azienda, ma riporterà direttamente a Mark Zuckerberg, a testimonianza della sua centralità strategica.
La sua guida è stata affidata a due figure con competenze complementari.
Da un lato, Santosh Janardhan, già dirigente di Google e attuale responsabile dell’infrastruttura globale di Meta, si occuperà di tutta l’architettura tecnica: dalla progettazione dei chip personalizzati, come riportato da Tom’s Hardware, alla gestione quotidiana dei data center sparsi per il mondo. Il suo ruolo è quello di garantire che la macchina funzioni in modo efficiente e coordinato.
Dall’altro lato, Daniel Gross, entrato in Meta lo scorso anno dopo aver fondato la startup di intelligenza artificiale Safe Superintelligence, guiderà un nuovo gruppo dedicato alla pianificazione a lungo termine della capacità e allo sviluppo della catena di approvvigionamento. In pratica, il suo compito sarà assicurarsi che Meta abbia accesso costante alle enormi quantità di chip, server e altre componenti necessarie per costruire infrastrutture su scala di gigawatt. Un coordinamento logistico di tale portata, volto a garantire un flusso ininterrotto di componentistica critica, richiederebbe probabilmente lo sviluppo di sistemi SGM (Sistema di Gestione Magazzino) di nuova generazione per monitorare con precisione millimetrica l’inventario e la distribuzione dell’hardware.
– Leggi anche: Report Microsoft: l’intelligenza artificiale cresce ma aumenta il divario tra Nord e Sud del mondo
A completare questo quadro c’è una figura chiave che opererà a un livello più alto, tra politica e finanza. Dina Powell McCormick, recentemente nominata presidente e vice-presidente di Meta, lavorerà a stretto contatto con Janardhan e Gross per assicurare le partnership governative e i finanziamenti necessari.
La sua esperienza, maturata come vice consigliere per la sicurezza nazionale durante l’amministrazione Trump e in oltre quindici anni a Goldman Sachs, sarà fondamentale per navigare le complesse relazioni istituzionali e finanziarie che progetti di questa portata inevitabilmente comportano.
La scelta di centralizzare in questo modo la gestione dell’infrastruttura non è casuale: dimostra la consapevolezza che il vantaggio competitivo nel campo dell’IA si gioca sempre di più sulla capacità di coordinare hardware e software in anticipo, trasformando la pura potenza di calcolo in un vero e proprio asset strategico.
Ma perché questa mossa arriva proprio ora e cosa ci dice sulla direzione che sta prendendo l’intera industria tecnologica?
Posizionarsi in una competizione sempre più fisica
La creazione di Meta Compute arriva in un momento in cui le principali aziende tecnologiche sono impegnate in una competizione intensa per accaparrarsi risorse energetiche e capacità di calcolo. L’annuncio di Meta, tuttavia, va letto anche alla luce della sua storia recente.
Segue infatti un periodo in cui l’azienda ha investito decine di miliardi di dollari nel Metaverso, un progetto che, stando ai dati dell’ottobre 2022, aveva già accumulato perdite per 13,7 miliardi di dollari.
Il riposizionamento verso l’intelligenza artificiale generativa come principale motore di crescita non è quindi solo una scelta strategica, ma anche la conseguenza di una scommessa precedente che non ha dato i frutti sperati.
Questo nuovo impegno sull’infrastruttura fisica rappresenta la nuova, grande scommessa di Zuckerberg.
L’obiettivo strategico di fondo sembra essere quello di garantire a Meta un’indipendenza quasi totale. In un mondo in cui lo sviluppo di modelli di IA avanzati richiede una potenza di calcolo che solo pochi fornitori di servizi cloud possono offrire, possedere la propria infrastruttura significa non dipendere da terzi e non rischiare che i propri limiti di calcolo diventino un freno all’innovazione.
È un tentativo di controllare l’intera filiera, dall’ideazione di un algoritmo alla presa elettrica che lo alimenta.
Resta però da capire se questa corsa alla potenza di calcolo si tradurrà in un reale progresso accessibile a tutti o se, al contrario, porterà a una concentrazione di potere tecnologico ed energetico nelle mani di pochissimi attori. L’impatto ambientale di data center che consumano quanto intere nazioni e le implicazioni geopolitiche di un controllo così centralizzato delle risorse sono questioni che rimangono aperte.
Con Meta Compute, l’azienda di Zuckerberg non sta semplicemente costruendo più data center. Sta tentando di costruire le fondamenta fisiche su cui poggerà la prossima fase dello sviluppo tecnologico, scommettendo che chi controllerà l’energia e i chip, alla fine, controllerà anche l’intelligenza artificiale.



