L’azienda ha presentato un nuovo sistema di intelligenza artificiale che permette alle macchine di ragionare, pianificare azioni complesse e adattare le proprie capacità a corpi diversi: un passo avanti notevole, che però apre anche a nuove e complesse questioni.

[In pillole] La sintesi per chi va di fretta:
Google DeepMind ha presentato un rivoluzionario sistema di intelligenza artificiale che insegna ai robot a ragionare, pianificare azioni complesse e adattarsi a diverse configurazioni fisiche. Questa innovazione supera i limiti tradizionali, permettendo alle macchine di "pensare" e agire autonomamente nel mondo reale. Un progresso notevole che apre a importanti dibattiti sul futuro dell'automazione e sicurezza.
Google crede di aver insegnato ai robot a pensare
Google, attraverso la sua divisione di ricerca DeepMind, ha annunciato quello che descrive come un punto di svolta per la robotica: un nuovo sistema di intelligenza artificiale che conferirebbe alle macchine una forma di ragionamento incarnato. L’idea è quella di superare il modello del robot come mero esecutore, per arrivare a un “agente fisico” in grado di comprendere un obiettivo complesso, scomporlo in passaggi logici e agire nel mondo reale.
Si tratta di un cambiamento di paradigma che, se confermato, potrebbe accelerare notevolmente l’integrazione di robot autonomi in ambienti di lavoro e, un giorno, domestici.
Fino ad oggi, uno dei limiti principali della robotica è sempre stato la sua rigidità. Un robot programmato per avvitare un bullone in una catena di montaggio è efficientissimo in quel compito, ma del tutto incapace di capire cosa fare se il bullone cade a terra. Il nuovo approccio di Google mira a colmare questo divario, dotando le macchine di una flessibilità cognitiva finora appannaggio della fantascienza.
La promessa è quella di robot che non solo “fanno”, ma “capiscono” cosa stanno facendo e perché.
Una promessa che si basa su un’architettura software sofisticata, progettata per imitare, almeno in parte, un processo di pensiero.
Ma questa capacità di elaborazione non si limita a un singolo compito o a un singolo tipo di macchina, e introduce un livello di generalizzazione che potrebbe risolvere uno dei problemi più annosi del settore.
Un “dialogo interiore” per risolvere i problemi
Il cuore della nuova tecnologia di Google DeepMind risiede in una coppia di modelli di intelligenza artificiale che lavorano in sinergia. Il primo, chiamato Gemini Robotics-ER 1.5 (dove “ER” sta per Embodied Reasoning, ovvero “ragionamento incarnato”), agisce come una sorta di mente strategica.
Quando riceve un comando vago e complesso, come “riordina la stanza”, il suo compito non è muovere un braccio meccanico, ma pensare. Scompone l’obiettivo principale in una sequenza di sotto-obiettivi logici: “identifica gli oggetti fuori posto”, “raccogli i vestiti e mettili nella cesta”, “butta la spazzatura nel cestino”.
Per svolgere questo compito può persino accedere a informazioni esterne, per esempio utilizzando il motore di ricerca di Google per capire le regole della raccolta differenziata di un comune specifico prima di smistare i rifiuti.
Una volta definito il piano d’azione, entra in gioco il secondo modello, Gemini Robotics 1.5, che funge da esecutore. Questo modello traduce i passaggi logici elaborati dal suo “collega” in movimenti fisici concreti, controllando i motori, i sensori e le pinze del robot.
L’aspetto più interessante, e che Google ha tenuto a sottolineare, è che questo processo di pianificazione non è una scatola nera. Il modello ER genera una sorta di “dialogo interiore” in linguaggio naturale, una traccia testuale del suo ragionamento.
Prima di spostare una maglietta, il sistema potrebbe formulare internamente la frase: “Questo è un indumento colorato, quindi va nel cesto dei colorati”.
– Leggi anche: L’Italia nell’automazione industriale: tra leadership europea e sfide globali dell’intelligenza artificiale
Questa trasparenza, secondo l’azienda, rende il comportamento del robot più prevedibile, interpretabile e, in teoria, più sicuro. È un passo avanti significativo rispetto ai sistemi precedenti, che spesso agivano in modi che neanche i loro stessi programmatori potevano anticipare pienamente.
Questa ricerca di trasparenza e interpretabilità non è un dettaglio, ma una scelta progettuale fondamentale. La differenza tra un robot imprevedibile e uno affidabile risiede proprio nel processo di sviluppo dell’intelligenza artificiale, dove la capacità di tracciare il “ragionamento” della macchina non è un’opzione, ma un requisito di sicurezza cruciale.
Tuttavia, resta da capire quanto questo “dialogo interiore” rappresenti una genuina comprensione del contesto e quanto sia invece una sofisticatissima replica di schemi appresi da un’enorme mole di dati.
La capacità di formulare una frase corretta non equivale necessariamente a una vera consapevolezza.
Eppure, questa nuova abilità di pianificare e verbalizzare il proprio piano d’azione sarebbe di utilità limitata se fosse vincolata a un unico, specifico modello di robot. Google, però, sostiene di aver superato anche questo ostacolo storico della robotica.
La stessa mente in corpi diversi
Uno dei risultati più significativi presentati da DeepMind è quello che in gergo tecnico viene chiamato apprendimento cross-embodiment. Si tratta della capacità di trasferire le competenze apprese da un tipo di robot a un altro, con una forma e una meccanica completamente diverse, senza bisogno di un nuovo e lungo addestramento.
Storicamente, un software sviluppato per un braccio robotico industriale era del tutto inutile per un robot umanoide, perché i movimenti, i sensori e le dinamiche fisiche erano differenti.
Era come chiedere a un pianista di suonare un violino aspettandosi che sapesse già come fare.
Google afferma che il suo nuovo sistema è in grado di fare proprio questo.
Abilità complesse, addestrate su un tipo di robot da laboratorio, sono state trasferite con successo a piattaforme molto diverse, incluso l’Apollo, un robot umanoide sviluppato dalla società Apptronik. Come descritto dalla testata specializzata Humanoids Daily, la collaborazione con Apptronik non è solo un esperimento di ricerca, ma è già orientata a un’applicazione pratica, con l’obiettivo di “implementare robot Apollo potenziati da Gemini in ulteriori strutture dei clienti”.
Questo significa che la tecnologia sta uscendo dai laboratori per entrare in magazzini, fabbriche e altri ambienti di lavoro reali.
L’ingresso di questi robot autonomi in ambienti di lavoro reali come fabbriche e magazzini, tuttavia, non avverrà nel vuoto. Queste macchine non opereranno in modo isolato, ma dovranno integrarsi con l’infrastruttura digitale esistente. In un contesto industriale, questo significa dialogare con il Sistema di Esecuzione della Produzione (MES), il software che già oggi orchestra l’intero flusso di lavoro, dagli ordini alle macchine, e che diventerà il direttore d’orchestra di questi nuovi “musicisti” autonomi.
L’implicazione di questa capacità di generalizzazione è profonda.
Potrebbe ridurre drasticamente i tempi e i costi di sviluppo per l’automazione, creando un “cervello” robotico universale che può essere installato su diversi “corpi” a seconda delle necessità. Un unico modello di intelligenza artificiale potrebbe un giorno controllare un drone, un braccio meccanico per la logistica o un assistente umanoide, apprendendo dall’esperienza di tutte queste piattaforme contemporaneamente.
Un progresso che promette efficienza e versatilità, ma che allo stesso tempo concentra un potere tecnologico enorme nelle mani di chi controlla quel “cervello” centrale.
La transizione verso applicazioni nel mondo reale, specialmente con robot umanoidi destinati a operare a fianco delle persone, porta inevitabilmente alla ribalta questioni che vanno ben oltre l’ambito puramente tecnico.
Le promesse e le incognite della nuova autonomia
Di fronte a un progresso tecnologico di questa portata, è naturale interrogarsi sulle sue conseguenze a lungo termine. Google ha cercato di rassicurare su questo fronte, spiegando di aver implementato un approccio alla sicurezza su più livelli e di aver aggiornato il suo benchmark di valutazione, chiamato ASIMOV, per testare la sicurezza semantica e fisica dei sistemi robotici. Il nome, un chiaro omaggio allo scrittore Isaac Asimov e alle sue famose Tre Leggi della Robotica, sembra voler suggerire un’attenzione etica al problema.
Ma un benchmark sviluppato internamente dall’azienda che crea la tecnologia può essere considerato un arbitro sufficientemente imparziale e rigoroso?
Le domande aperte sono molte.
Cosa succede quando un robot capace di “ragionare” commette un errore non previsto in un ambiente complesso e imprevedibile come una casa o un magazzino affollato? Le sue decisioni autonome, basate su un “dialogo interiore” che non è altro che un prodotto statistico, come verranno giudicate in caso di incidenti?
L’introduzione di robot umanoidi capaci di apprendere e adattarsi a più compiti solleva anche questioni economiche e sociali ineludibili riguardo al futuro del lavoro, specialmente in settori come la logistica e la manifattura.
La strategia di rilascio di Google sembra riflettere una certa cautela. Mentre il modello di ragionamento strategico è stato reso disponibile agli sviluppatori, l’accesso al modello esecutivo rimane limitato a partner selezionati. È un modo per raccogliere dati e testare la tecnologia in ambienti controllati prima di una diffusione su larga scala.
Questo annuncio segna senza dubbio un passaggio fondamentale: quello da macchine che eseguono a macchine che, in una certa misura, decidono.
La tecnologia sembra pronta a fare un balzo in avanti, ma la discussione collettiva su come gestire, regolare e integrare questi nuovi agenti autonomi nella nostra società appare ancora nelle sue fasi iniziali. Il confine tra uno strumento molto avanzato e un’entità autonoma sta diventando sempre più sottile.
 
         
         
         
        


