Ricercatori di diverse università stanno sviluppando algoritmi per analizzare espressioni facciali e comportamenti di ascolto, con l’obiettivo di superare la semplice imitazione e costruire una comprensione emotiva più autentica e personalizzata.

[In pillole] La sintesi per chi va di fretta:
Ricercatori di università come la Simon Fraser e Purdue stanno insegnando ai robot a comprendere le emozioni umane attraverso l'analisi di espressioni facciali e l'ascolto attivo. Superando la semplice imitazione, questa tecnologia mira a creare un'interazione più autentica. I progressi si traducono già in prodotti commerciali, come il robot An'an, e attirano l'interesse di colossi come Apple.
La difficile sfida di insegnare ai robot a capirci davvero
Da tempo l’intelligenza artificiale cerca di simulare l’empatia, ma simulare non significa comprendere. Chatbot e assistenti vocali sono programmati per rispondere con frasi che suonano premurose, eppure spesso queste interazioni risultano vuote, a volte persino irritanti.
Il problema è che queste macchine non capiscono realmente lo stato d’animo di una persona; si limitano a seguire un copione basato su parole chiave.
Questo approccio, però, sta mostrando i suoi limiti.
Un numero crescente di ricercatori in tutto il mondo sta lavorando a una sfida ben più complessa: insegnare ai robot a sviluppare una comprensione emotiva autentica, superando la semplice imitazione.
In questo campo, uno dei lavori più significativi è quello di Angelica Lim, docente di informatica presso la Simon Fraser University, che sta sviluppando algoritmi per consentire ai robot di analizzare le espressioni facciali e cogliere le sfumature emotive più sottili.
La sua ricerca nasce da una preoccupazione precisa: i sistemi attuali, con le loro risposte “eccessivamente empatiche”, possono risultare controproducenti.
Un assistente virtuale che risponde a un momento di frustrazione con un’allegria artificiale o frasi fatte non offre un reale supporto, anzi, può accentuare il senso di incomprensione.
La tecnologia su cui si basano molte di queste piattaforme, come quelle di OpenAI, offre risposte emotive predeterminate che mancano della capacità di afferrare ciò che un individuo sta veramente provando.
Il lavoro del team di Lim, come spiegato in un articolo su BGR, mira a perfezionare una tecnologia che permetta ai robot di trattarci come esseri umani, non come semplici interlocutori da accontentare con una formula.
Un esempio pratico illustra bene questa differenza: se un robot programmato dal suo team racconta una battuta e non ottiene alcuna risata, i suoi algoritmi gli permettono di riconoscere questa mancata corrispondenza emotiva e di adeguare la sua reazione, invece di continuare a seguire il suo script.
Questo piccolo scarto segna un passaggio fondamentale: dalla semplice identificazione di un’emozione – come riconoscere un sorriso – a quella che i ricercatori chiamano “comprensione attiva”, ovvero la capacità di ipotizzare le possibili cause di uno stato emotivo e di rispondere in modo contestualizzato.
Ma analizzare le espressioni facciali è solo una parte della storia.
La vera comprensione umana si basa su un dialogo continuo, fatto non solo di parole ma anche di silenzi, pause e piccoli segnali di assenso.
E proprio su questo aspetto si concentra un altro filone di ricerca, che esplora come i robot possano imparare ad ascoltare.
L’ascolto come strumento di comprensione
Il lavoro di Angelica Lim non è un caso isolato. In altri laboratori, la ricerca sta prendendo una direzione complementare, focalizzandosi non tanto su cosa un robot vede, ma su come ascolta.
Alla Purdue University, il laboratorio di Sooyeon Jeong, assistente di informatica, si occupa di interazione uomo-robot con applicazioni in ambito sanitario, terapeutico ed educativo. La sua ricerca ha dimostrato che l’implementazione di comportamenti di ascolto empatico migliora notevolmente il modo in cui i robot possono supportare le persone.
Invece di concentrarsi solo sulle risposte verbali, il team di Jeong insegna ai robot a generare quelli che in linguistica si chiamano “segnali di backchannel”: i cenni del capo, le brevi affermazioni come “capisco” o “certo”, e tutte quelle piccole reazioni che, in una conversazione umana, segnalano attenzione e coinvolgimento.
Per farlo, i ricercatori utilizzano modelli linguistici di grandi dimensioni e registrazioni vocali, addestrando le macchine a riconoscere il momento giusto per inserire questi segnali, rendendo il dialogo più naturale e meno unilaterale.
“Più comportamenti di ascolto empatico riusciamo a implementare, più personalizzato sarà il supporto che potremo fornire”, ha spiegato Jeong, come riportato sul sito della Purdue University.
– Leggi anche: Classifiche IA: la loro inaffidabilità svelata da uno studio del MIT
Il suo lavoro ha anche rivelato una complessità interessante: la necessità di personalizzazione.
Durante un test con un robot progettato per aiutare gli studenti a studiare, alcuni ragazzi preferivano che la macchina fosse più severa e li riprendesse quando si distraevano, mentre altri desideravano un approccio più gentile e incoraggiante.
Questa scoperta sottolinea come non esista un’unica forma di empatia valida per tutti; un robot veramente di supporto dovrà essere in grado di adattare il proprio stile di interazione alle preferenze e alla personalità dell’individuo. In questo senso, il successo di tali tecnologie dipenderà sempre più da una meticolosa progettazione di interfacce e user experience, capace di tradurre i dati emotivi in gesti e risposte che non risultino invasivi, ma che creino un percorso di utilizzo fluido e realmente confortevole per l’utente.
Questi progressi, che uniscono l’analisi visiva a quella conversazionale, non sono più confinati ai laboratori universitari. Stanno già trovando la loro strada verso il mercato, trasformando l’idea di empatia artificiale da un concetto teorico a un prodotto tangibile, con tutte le implicazioni commerciali e tecnologiche che ne derivano.
L’empatia diventa un prodotto
Il passaggio dalla ricerca accademica all’applicazione commerciale sta avvenendo rapidamente. Al CES 2026, una delle più importanti fiere di tecnologia al mondo, un robot a forma di panda di nome An’an ha ricevuto un premio nella categoria Intelligenza Artificiale, diventando l’unico “animale domestico elettronico” a ottenere un simile riconoscimento.
Sviluppato in collaborazione tra la Xi’an Jiaotong-Liverpool University e l’azienda Mind with Heart Robotics, An’an rappresenta un’evoluzione di questi concetti. Utilizza un sistema di “dialogo empatico multimodale”, che gli permette di comprendere le emozioni umane analizzando simultaneamente il tono della voce, le espressioni del viso e le informazioni contestuali.
Questa capacità integrata gli consente di compiere inferenze piuttosto sofisticate: può interpretare il silenzio di una persona anziana non come assenza di comunicazione, ma come un segno di solitudine, oppure rilevare la frustrazione di un bambino in un ambiente caotico.
A quel punto, può intervenire in modo proattivo, magari riproducendo una canzone nostalgica per l’anziano o offrendo un incoraggiamento al bambino.
“Il calore di An’an è personalizzato”, ha spiegato il professor Jionglong Su, sottolineando come il robot costruisca un profilo emotivo unico per ogni utente, affinando la sua comunicazione nel tempo, secondo quanto descritto dalla Xi’an Jiaotong-Liverpool University.
Il potenziale commerciale di tecnologie simili non è passato inosservato. Di recente, Apple ha completato una delle sue acquisizioni più costose, comprando una startup israeliana di intelligenza artificiale che detiene brevetti per l’analisi delle espressioni facciali e degli input vocali.
Le intenzioni specifiche dell’azienda non sono state dichiarate, ma è lecito chiedersi come un colosso tecnologico, che ha fatto della privacy uno dei suoi cavalli di battaglia, intenda utilizzare una tecnologia capace di leggere in modo così intimo le emozioni dei suoi utenti.
Allo stesso tempo, la ricerca tecnica continua ad avanzare. Un recente studio ha documentato la creazione di una pelle elettronica che permette ai robot di distinguere un tocco ordinario da un contatto potenzialmente dannoso, consentendo loro di reagire in modo più sicuro e naturale durante l’interazione fisica.
Nonostante la rapidità di questi progressi, i ricercatori sottolineano che l’obiettivo non è sostituire le relazioni umane. L’idea è piuttosto quella di migliorare l’assistenza, offrendo uno strumento che possa “amplificare l’impatto degli operatori sanitari e colmare le lacune nel supporto emotivo”, specialmente per le fasce più vulnerabili della popolazione.
La convergenza di questi sforfi suggerisce che la prossima generazione di macchine potrebbe finalmente superare la semplice recita dell’empatia per dimostrare una vera intelligenza sociale ed emotiva.
Tuttavia, mentre la tecnologia si affina, la domanda di fondo rimane aperta: stiamo costruendo macchine che ci capiscono veramente o semplicemente macchine che sono diventate incredibilmente brave a farcelo credere?



