L’accordo tra l’azienda nota per i suoi robot dalle movenze quasi animali e la divisione di ricerca sull’intelligenza artificiale di Google mira a combinare la meccanica sofisticata di Atlas con i modelli Gemini Robotics di ultima generazione.

[In pillole] La sintesi per chi va di fretta:
Al CES 2026, Boston Dynamics e Google DeepMind hanno annunciato una partnership strategica per integrare i robot umanoidi nell'industria. L'intesa unisce il nuovo robot Atlas con l'IA Gemini Robotics, puntando a sviluppare macchine capaci di compiti complessi. I primi test operativi sono previsti negli stabilimenti Hyundai già nel 2026, segnando un passo cruciale per l'automazione.
Una sinergia tra muscoli e cervello
Al centro dell’accordo c’è l’integrazione di due elementi distinti ma complementari.
Da una parte, la nuova piattaforma Atlas di Boston Dynamics, che l’azienda ha riprogettato non più come un prototipo da ricerca, ma come una macchina pronta per la produzione. Dall’altra, i modelli di intelligenza artificiale Gemini Robotics di Google DeepMind, sistemi multimodali pensati per dotare le macchine di capacità avanzate di percezione, ragionamento e interazione con l’ambiente.
La ricerca congiunta, che dovrebbe iniziare nel corso del 2026, si concentrerà sullo sviluppo di quelli che in gergo tecnico vengono chiamati “modelli visual-language-action”, ovvero sistemi capaci di comprendere comandi verbali, analizzare visivamente una situazione complessa e tradurre il tutto in azioni fisiche coerenti.
Il nuovo Atlas è stato ingegnerizzato per operare in condizioni ambientali estreme, come mostrato in una dimostrazione tecnica, con giunti a rotazione completa che gli permettono di funzionare a temperature che vanno da -20 a 40 gradi Celsius, rendendolo adatto agli ambienti industriali più difficili.
L’autonomia operativa è un altro punto chiave: il robot è in grado di navigare in modo indipendente verso le stazioni di ricarica e persino di sostituire le proprie batterie senza alcun intervento umano.
Queste caratteristiche fisiche, tuttavia, rappresentano solo una parte dell’equazione.
Senza un’intelligenza capace di gestirle, resterebbero potenzialità inespresse.
Ed è qui che interviene DeepMind.
Alberto Rodriguez, direttore del comportamento dei robot per Atlas in Boston Dynamics, ha spiegato la logica dietro la scelta del partner: “Stiamo costruendo l’umanoide più capace al mondo e sapevamo di aver bisogno di un partner che potesse aiutarci a creare nuovi tipi di modelli visual-language-action. Nessuno al mondo è più adatto di DeepMind per costruire modelli affidabili e scalabili”.
Dal canto suo, Carolina Parada, direttrice senior della robotica a Google DeepMind, ha inquadrato l’iniziativa dal punto di vista dell’azienda di intelligenza artificiale, sottolineando come i modelli Gemini Robotics siano stati sviluppati proprio per “portare l’IA nel mondo fisico”.
L’alleanza, quindi, non è un semplice accordo commerciale, ma una simbiosi tecnica in cui l’hardware avanzato di Boston Dynamics diventa il corpo per l’intelligenza artificiale di DeepMind, e quest’ultima fornisce il cervello necessario per rendere quel corpo veramente utile.
Se la struttura tecnica appare solida, la domanda che sorge spontanea è dove e come questi sofisticati umanoidi verranno effettivamente messi alla prova.
Dalle acrobazie alla catena di montaggio
Per anni, i video di Boston Dynamics che mostravano i robot Atlas compiere salti mortali e complesse coreografie hanno affascinato il pubblico, ma hanno anche sollevato dubbi sulla loro reale applicabilità commerciale.
Questa nuova fase segna un netto cambio di rotta: l’obiettivo non è più stupire, ma produrre.
I primi settori di applicazione individuati sono la manifattura e la produzione automobilistica, ambienti in cui compiti ripetitivi, faticosi o ad alto rischio per gli esseri umani sono all’ordine del giorno. I primi test operativi sono previsti già nel 2026 all’interno degli stabilimenti di Hyundai, l’azienda automobilistica che è anche azionista di maggioranza di Boston Dynamics, e nei centri di ricerca di Google DeepMind.
Il coinvolgimento di Hyundai è tutt’altro che marginale. Il gruppo ha inserito questa collaborazione nel suo più ampio programma denominato “Partnering Human Progress”, una visione in cui i robot si fanno carico delle mansioni più logoranti, lasciando agli operatori umani compiti di supervisione e di maggior valore aggiunto.
– Leggi anche: La truffa su Booking.com che parte dagli hotel per ingannare i clienti
Si tratta di una narrazione che, sebbene presenti indubbi vantaggi in termini di comunicazione, dovrà confrontarsi con le complesse implicazioni sociali e occupazionali che un’automazione di questo livello comporta.
L’obiettivo a lungo termine è ambizioso: entro il 2028, si prevede di integrare Atlas nelle operazioni di sequenziamento dei componenti presso lo stabilimento Hyundai Motor Group Metaplant America (HMGMA), con una visione produttiva che punta a raggiungere le 30.000 unità all’anno. Un numero che, se confermato, trasformerebbe i robot umanoidi da prodotti di nicchia a una presenza consolidata nell’industria pesante. Si potrebbe ipotizzare che, per coordinare efficacemente queste unità robotiche all’interno di una fabbrica intelligente, diventi essenziale l’integrazione con un MES (Manufacturing Execution System), capace di orchestrare il lavoro delle macchine in perfetta sincronia con i ritmi e i flussi della produzione industriale.
Un piano di questa portata, tuttavia, non si sviluppa in un vuoto di mercato, ma si inserisce in un contesto di crescente fermento e competizione.
La vera posta in gioco non è l’hardware
L’annuncio di Boston Dynamics e Google DeepMind arriva in un momento in cui l’attenzione verso la robotica umanoide è particolarmente alta, alimentata in buona parte anche dalla visibilità mediatica del robot Optimus di Tesla. Molti osservatori del settore ritengono che il 2026 possa rappresentare un punto di svolta per l’adozione di quella che viene definita “IA fisica”.
Jensen Huang, CEO di NVIDIA, ha suggerito che la robotica si trovi sulla soglia del suo “momento ChatGPT”, un’innovazione capace di sbloccarne l’adozione di massa, rendendola accessibile e versatile. La partnership tra Google e Boston Dynamics, come riportato da 24/7 Wall St., potrebbe aver dato il via a una vera e propria corsa ai robot umanoidi.
Tuttavia, un’analisi più approfondita suggerisce che il vero vantaggio competitivo non risiederà tanto nella progettazione dell’hardware, per quanto complessa, quanto nei modelli di intelligenza artificiale che permettono ai robot di apprendere, adattarsi e generalizzare le proprie capacità in contesti diversi.
Controllando sia la piattaforma fisica (Atlas) sia il livello di intelligenza fondamentale (Gemini), Google e Boston Dynamics si stanno posizionando al centro di un potenziale modello di business basato su licenze ad alto margine. In futuro, potrebbero non solo vendere i robot, ma anche fornire l’ “intelligenza” ad altri produttori di hardware, creando una sorta di sistema operativo per il lavoro fisico automatizzato. Questa strategia, se avrà successo, potrebbe consolidare ulteriormente il loro dominio dal mondo digitale a quello fisico.
Questo posizionamento strategico è in realtà il culmine di un percorso lungo decenni, iniziato in un contesto molto diverso da quello delle fabbriche automobilistiche. Boston Dynamics aveva annunciato l’intenzione di commercializzare robot umanoidi già nel 2024, segnando una svolta rispetto a una lunga storia focalizzata sulla ricerca, spesso finanziata da agenzie governative e militari.
Per anni, l’ostacolo principale alla commercializzazione non è stata la meccanica, campo in cui l’azienda ha sempre eccelso, ma la difficoltà di implementare modelli di IA in modo affidabile su sistemi fisici. I recenti progressi nell’addestramento e nell’implementazione dell’IA hanno finalmente reso praticabile ciò che prima era solo teorico, spostando il collo di bottiglia dallo scheletro meccanico al cervello digitale.
È lecito attendersi che il successo di queste implementazioni non dipenderà solo da modelli generici, ma dalla capacità di addestrare un’intelligenza artificiale su misura che sappia interpretare correttamente le variabili uniche e i compiti specifici di ogni singolo contesto aziendale.



