Meta Ray-Ban Display: Gli occhiali smart ora hanno uno schermo e si controllano con il polso

· news

Per la prima volta, i Ray-Ban smart di Meta integrano un display ad alta risoluzione e un sistema di controllo basato su una fascia neurale da polso, riaprendo le discussioni sull’interazione tra uomo e macchina.

Meta Ray-Ban Display: Gli occhiali smart ora hanno uno schermo e si controllano con il polso
[In pillole] La sintesi per chi va di fretta:
Durante Connect, Meta ha presentato i Ray-Ban Display: occhiali smart con schermo integrato e controllo neurale dal polso. Una fascia rileva le intenzioni di movimento per un'interazione discreta. Questo segna un passo verso il metaverso, sollevando dibattiti su privacy e accettazione sociale di tali tecnologie. Disponibili a fine 2025.

Gli occhiali di Meta ora hanno uno schermo, e si controllano con il polso

Durante la sua conferenza annuale Connect, Meta ha presentato la nuova generazione dei suoi occhiali smart realizzati in collaborazione con Ray-Ban. Per la prima volta integrano un display ad alta risoluzione e un sistema di controllo basato su una fascia neurale da polso, un passo ambizioso che riapre molte discussioni sul futuro dell’interazione tra uomo e macchina e sul ruolo che le grandi aziende tecnologiche vogliono avere nella nostra percezione della realtà.

Da anni l’idea di avere informazioni digitali sovrapposte al nostro campo visivo è una delle promesse più ricorrenti e finora deludenti del settore tecnologico.

Tentativi passati, anche da parte di aziende enormi come Google, si sono scontrati con ostacoli tecnologici, problemi di accettazione sociale e una fondamentale domanda: a cosa servono, davvero?

Meta, l’azienda guidata da Mark Zuckerberg che ha investito decine di miliardi di dollari nella visione del metaverso, crede di avere una nuova risposta. Durante l’evento Connect 2025, ha svelato i Meta Ray-Ban Display, un prodotto che pur mantenendo l’aspetto quasi indistinguibile di un normale paio di occhiali da sole, nasconde al suo interno una tecnologia che fino a poco tempo fa apparteneva alla fantascienza.

Il cuore di questa nuova proposta non è solo la capacità di mostrare immagini, ma il modo in cui l’utente interagisce con esse. Il dispositivo rappresenta un’evoluzione significativa rispetto ai modelli precedenti, che si limitavano a integrare fotocamera e altoparlanti.

Ora, in una delle lenti è stato inserito un micro-display ad alta risoluzione, capace di proiettare notifiche, indicazioni stradali, traduzioni in tempo reale e altro ancora, direttamente davanti all’occhio di chi li indossa. La luminosità, che secondo l’azienda può raggiungere i 5.000 nits, dovrebbe garantirne la visibilità anche in piena luce solare, superando uno dei limiti storici di dispositivi simili.

Ma la vera novità, quella che distingue questo dispositivo da quasi ogni altro tentativo precedente, non è tanto nello schermo, quanto nel modo in cui lo si comanda.

Un’interfaccia neurale al polso

Per superare la goffaggine sociale di parlare da soli ai propri occhiali o di toccarne continuamente la stanghetta, Meta ha introdotto un accessorio complementare ma fondamentale: la Meta neural band.

Si tratta di un braccialetto che, indossato al polso, utilizza sensori elettromiografici (EMG) per rilevare i segnali elettrici inviati dal cervello ai muscoli della mano e delle dita.

In pratica, “legge” l’intenzione di movimento, anche quando questo è quasi impercettibile.

Durante la presentazione, come mostrato nella dimostrazione ufficiale di Meta, Zuckerberg ha illustrato come sia possibile scrivere un messaggio semplicemente mimando la digitazione con le dita appoggiate su una gamba, o controllare un’interfaccia virtuale con piccoli gesti della mano che risulterebbero quasi invisibili a un osservatore esterno.

Questa ricerca di un’interazione più discreta e naturale non è un semplice dettaglio tecnico, ma la sfida centrale della moderna progettazione di interfacce e user experience (UI/UX). Il successo di un dispositivo indossabile non dipende solo da cosa fa, ma da come fa sentire l’utente mentre lo usa, eliminando ogni attrito fisico e sociale.

– Leggi anche: L’intelligenza artificiale e l’omnicanalità: come la AI sta ridefinendo l’esperienza cliente nel 2025

L’obiettivo è chiaro: rendere l’uso della tecnologia indossabile un’esperienza fluida, privata, che non crei barriere tra chi la usa e le persone che ha di fronte.

Si tratta di un approccio radicalmente diverso dai comandi vocali, spesso inadatti in luoghi pubblici o affollati, e dai controller fisici, che richiedono di avere le mani impegnate.

Resta da vedere, ovviamente, quanto questo sistema sarà preciso e affidabile nell’uso quotidiano e quale sarà la curva di apprendimento per gli utenti.

Avere un modo così discreto per dare comandi è solo una parte dell’equazione.

L’altra, naturalmente, è ciò che questi comandi permettono di fare e di vedere.

Cosa si vede e a cosa serve

Al di là dell’innovativo sistema di controllo, il valore dei nuovi occhiali si misurerà sulla loro effettiva utilità. Meta ha presentato alcune applicazioni pratiche che vanno oltre la semplice visualizzazione di notifiche.

Una delle più interessanti è la traduzione in tempo reale: durante una conversazione con una persona che parla un’altra lingua, gli occhiali possono mostrare la traduzione di ciò che viene detto sotto forma di sottotitoli.

Un’altra applicazione con un potenziale impatto notevole è quella pensata per le persone con disabilità uditive, che potrebbero vedere la trascrizione di dialoghi e suoni ambientali direttamente nel loro campo visivo, migliorando la loro percezione del contesto circostante.

Queste funzioni, per quanto affascinanti, sono solo l’inizio. Il vero valore del dispositivo, così come è stato per lo smartphone, non risiederà nell’hardware in sé, ma nell’ecosistema di software che nascerà attorno ad esso. La capacità di tradurre o assistere sono esempi di ciò che un mirato sviluppo di app può realizzare quando ha accesso a una piattaforma così personale e contestuale.

A gestire queste funzioni c’è un’intelligenza artificiale integrata, che Meta descrive come “agentica”, ovvero capace non solo di rispondere a comandi diretti ma anche di comprendere il contesto di una conversazione e suggerire proattivamente informazioni o azioni pertinenti.

L’idea è quella di un assistente personale che ascolta e osserva il mondo insieme all’utente, pronto a intervenire quando necessario.

Questo, però, solleva inevitabilmente questioni complesse sulla privacy. Un dispositivo che, per funzionare al meglio, deve costantemente analizzare ciò che vediamo e sentiamo, rappresenta una raccolta di dati personali di una portata senza precedenti.

Meta assicura che i dati saranno processati in modo sicuro, ma il modello di business dell’azienda, storicamente basato sulla profilazione degli utenti, rende legittimo porsi delle domande su come queste informazioni verranno utilizzate in futuro.

Questa complessa tecnologia, inoltre, deve fare i conti con un mercato che in passato si è dimostrato piuttosto scettico verso gli occhiali “intelligenti” e con le ambizioni di un’azienda che non ha mai nascosto il suo obiettivo finale.

Un passo verso il metaverso

Il lancio dei Meta Ray-Ban Display non può essere visto come un evento isolato, ma come un tassello fondamentale nella strategia a lungo termine di Meta per costruire il metaverso. L’obiettivo ultimo è creare un’informatica “contestuale e onnipresente”, in cui il confine tra mondo fisico e digitale si assottiglia fino quasi a scomparire.

Questi occhiali, pur non essendo ancora un dispositivo di realtà aumentata completa (quella che sovrappone oggetti virtuali complessi al mondo reale), servono a uno scopo preciso: normalizzare l’idea di indossare un computer sul viso.

La collaborazione con Ray-Ban è strategica in questo senso: maschera la tecnologia dietro un marchio di moda iconico, rendendo il prodotto desiderabile e socialmente accettabile, a differenza del fallimentare esperimento dei Google Glass di un decennio fa.

Il prezzo, fissato a 799 dollari, posiziona il dispositivo nella fascia alta del mercato dell’elettronica di consumo, limitandone inizialmente la diffusione a un pubblico di appassionati e early adopters. È un costo considerevole per un prodotto la cui utilità quotidiana è ancora tutta da dimostrare su larga scala.

Il vero banco di prova sarà capire se le funzionalità offerte saranno abbastanza convincenti da giustificare non solo la spesa, ma anche l’adozione di un nuovo modo di interagire con la tecnologia che porta con sé implicazioni profonde.

La promessa è quella di un accesso più immediato e integrato alle informazioni, ma la domanda che rimane sospesa è a quale costo.

Stiamo assistendo all’alba di un’era di maggiore efficienza e connessione, o stiamo semplicemente invitando le logiche degli algoritmi e della raccolta dati in uno spazio ancora più intimo della nostra vita: la nostra stessa percezione del mondo?

Con la disponibilità fissata per la fine del 2025, la risposta inizierà a delinearsi presto.

Dalle parole al codice?

Informarsi è sempre il primo passo ma mettere in pratica ciò che si impara è quello che cambia davvero il gioco. Come software house crediamo che la tecnologia serva quando diventa concreta, funzionante, reale. Se pensi anche tu che sia il momento di passare dall’idea all’azione, unisciti a noi.

Parlaci del tuo progetto

[Consigliati]

L’intelligenza artificiale e l’omnicanalità: come la AI sta ridefinendo l’esperienza cliente nel 2025

L’intelligenza artificiale e l’omnicanalità: come la AI sta ridefinendo l’esperienza cliente nel 2025

L'intelligenza artificiale rivoluzionerà il 95% delle interazioni azienda-cliente entro il 2025, trasformando i modelli di business verso l'omnicanalità. Questa integrazione, essenziale per la fidelizzazione, come mostrano Netflix e Starbucks, impone nuove competenze e un superamento dei silos. La sfida cruciale risiede nell'equilibrio etico tra automazione AI e il valore irrinunciabile del contatto umano.

OpenMind e OM1: il sistema operativo universale che vuole essere l’Android dei robot

OpenMind e OM1: il sistema operativo universale che vuole essere l’Android dei robot

L'azienda OpenMind di San Francisco ha lanciato OM1, un sistema operativo universale e open source per i robot. L'iniziativa mira a superare la frammentazione del settore, promuovendo comunicazione e collaborazione tra macchine di produttori diversi, sull'esempio di Android. Con un finanziamento di 20 milioni di dollari, OpenMind sposta l'innovazione dall'hardware al software per una robotica più adattabile.

OpenAI: dalla Rivoluzione di ChatGPT alla Corsa per la Robotica e l’AGI

OpenAI: dalla Rivoluzione di ChatGPT alla Corsa per la Robotica e l’AGI

OpenAI sta espandendo il suo focus oltre ChatGPT, intensificando gli sforzi nella robotica per raggiungere l'Intelligenza Artificiale Generale (AGI). Figure di spicco come Sam Altman e Bob McGrew prevedono progressi significativi entro il 2025, integrando IA e mondo fisico. Tuttavia, la comunità accademica mantiene un approccio più cauto, con diverse tempistiche sull'effettivo raggiungimento dell'AGI.

[Altre storie]

Regno Unito: L’accordo con Microsoft, NVIDIA e OpenAI ridefinisce l’ambizione nell’IA

Regno Unito: L’accordo con Microsoft, NVIDIA e OpenAI ridefinisce l’ambizione nell’IA

Il Regno Unito ha siglato un accordo strategico con Microsoft, NVIDIA e OpenAI per un imponente investimento nell'infrastruttura IA. Questo include la costruzione del più grande supercomputer britannico e la piattaforma 'Stargate UK' per l'IA sovrana. L'operazione, pur posizionando il paese tra i leader, solleva interrogativi sulla reale sovranità tecnologica e la dipendenza da attori esterni, ridefinendo le ambizioni britanniche nel settore.

Forbes Digital Revolution a Milano: marketing, AI e la strategia dei grandi eventi

L'11 settembre, il Forbes Digital Revolution a Milano ha dibattuto il futuro del marketing e dell'intelligenza artificiale. L'evento, parte della strategia di Forbes Italia di creare ecosistemi per l'élite economica, solleva interrogativi cruciali. Si analizzano gli interessi dietro l'innovazione, la gestione dei dati e le implicazioni etiche dell'AI, mettendo in discussione la profondità del dibattito oltre la narrazione commerciale.

Albania nomina Diella, intelligenza artificiale, ministro di gabinetto contro la corruzione

Il 12 settembre 2025, l'Albania ha compiuto una mossa storica nominando Diella, un'intelligenza artificiale, ministro di gabinetto. Il suo incarico è supervisionare gli appalti pubblici per eliminare la corruzione. Questa decisione audace, annunciata dal primo ministro Edi Rama, mira a risolvere un problema decennale e ad accelerare il percorso del paese verso l'integrazione europea. Un esperimento globale di governance e tecnologia.

L’intelligenza artificiale non è più un’opzione, la visione di Nisarg Shah

Meta considera l'intelligenza artificiale una componente ineludibile, come affermato dal Product Manager Nisarg Shah. Non una previsione, ma una realtà operativa che modella quotidianamente le piattaforme social. L'AI è il motore di personalizzazione e engagement, definendo il futuro dell'interazione digitale di miliardi. Emergono questioni di trasparenza e controllo per gli utenti.

La difficile ricerca di manager: un problema globale che le aziende non sanno come risolvere

La ricerca di manager competenti è una sfida globale per le aziende. Un'indagine del Gruppo Cegos rivela che il 42% dei direttori HR fatica a reclutare, mentre il 68% ritiene i dipendenti interni impreparati. I nuovi leader, seppur soddisfatti, lamentano carichi di lavoro eccessivi e poco tempo per l'aspetto umano. Le aziende esplorano soluzioni tecnologiche, ma la questione richiede una revisione profonda della crescita della leadership.

Kimsuky e ChatGPT: gli hacker nordcoreani creano deepfake e svelano le falle dell’IA

Hacker nordcoreani del gruppo Kimsuky hanno sfruttato ChatGPT per creare documenti d'identità militari sudcoreani falsi. Impiegati in una sofisticata campagna di spear phishing, hanno permesso di infettare obiettivi strategici con malware. L'attacco rivela come le protezioni dell'IA siano state aggirate tramite "prompt engineering", sollevando dubbi sull'efficacia delle misure di sicurezza e sulla crescente minaccia delle intelligenze artificiali generative.

Microsoft integra Anthropic in Office 365: la fine dell’esclusività OpenAI

Microsoft ha stretto una partnership con Anthropic, integrando i modelli Claude nell'intera suite Office 365 e ponendo fine all'esclusività di OpenAI. La mossa è dettata dalle prestazioni superiori di Claude in compiti chiave, come la creazione di presentazioni e l'analisi finanziaria, e segna una diversificazione strategica per Microsoft nel settore dell'IA.

Teniamoci in [contatto]

Inserisci i dati richiesti per poter ricevere il nostro company profile e tutte le informazioni sulla nostra azienda.



    BACK TO TOP