L’azienda ha svelato una nuova generazione di occhiali intelligenti e un innovativo sistema di controllo neurale per rendere normale l’idea di indossare un computer sul viso.

[In pillole] La sintesi per chi va di fretta:
Meta presenta una nuova generazione di occhiali intelligenti, dai Ray-Ban Meta AI ai Display AI, pensati per affiancare o sostituire lo smartphone. L'innovazione cruciale è il Meta Neural Band, un braccialetto che interpreta i segnali neurali per controllare il digitale con il pensiero, promettendo un'interazione rivoluzionaria con la realtà aumentata. Meta punta a dominare un mercato nascente, superando le sfide sulla privacy e l'accettazione.
Una strategia per tutti, o quasi
L’approccio di Meta al mercato degli occhiali connessi è cambiato radicalmente. Se il primo modello, i Ray-Ban Stories lanciati nel 2021, era poco più di un esperimento per testare l’interesse del pubblico, oggi l’azienda ha messo in campo una vera e propria offensiva commerciale.
La strategia si basa su tre livelli distinti, pensati per attrarre tipi diversi di consumatori. Alla base della piramide restano i Ray-Ban Meta AI Glasses, il modello d’ingresso che integra funzioni di intelligenza artificiale, come la fotocamera e l’assistente vocale, con prezzi che partono da circa 300 dollari. Si tratta dell’evoluzione diretta del concetto originale: un paio di occhiali esteticamente quasi indistinguibili da quelli normali, ma con alcune funzioni “smart” discrete.
Un gradino più su si posiziona la linea sportiva, sviluppata in collaborazione con Oakley, un altro marchio del gruppo EssilorLuxottica. Qui troviamo modelli come gli HSTN e i Vanguard, con prezzi che salgono fino a circa 500 dollari e funzioni pensate per gli atleti, come la registrazione video automatica durante un’attività sportiva o l’integrazione con applicazioni come Strava e con dispositivi Garmin.
Il vero salto, però, avviene con il modello di punta: i Meta Ray-Ban Display AI Glasses. Venduti a 799 dollari, sono i primi occhiali dell’azienda a integrare un display ad alta risoluzione direttamente nella lente.
Questa diversificazione mostra la volontà di non relegare più gli occhiali smart a una nicchia di appassionati di tecnologia, ma di provare a renderli un accessorio desiderabile per segmenti di pubblico più ampi e con esigenze specifiche.
Tuttavia, la storia della tecnologia è piena di prodotti che hanno cercato di creare un bisogno invece di soddisfarne uno esistente. Il ricordo del fallimento dei Google Glass, che inciamparono non solo su questioni tecnologiche ma anche su barriere sociali e di privacy, è ancora vivo.
Meta sembra aver imparato la lezione sul design, grazie alla partnership con EssilorLuxottica che garantisce una montatura accettabile, ma resta da vedere se il pubblico sia davvero pronto ad accogliere questa tecnologia nella propria quotidianità, a prescindere dal prezzo.
Oltre all’estetica, la vera sfida si gioca sull’interazione. Un dispositivo indossabile vince solo se l’esperienza d’uso è talmente intuitiva da diventare un’estensione naturale del corpo, un risultato che si ottiene unicamente attraverso un’attenta progettazione di interfacce e user experience.
Controllare il digitale con il pensiero
La caratteristica che più di ogni altra distingue la nuova proposta di Meta è il Meta Neural Band. Si tratta di un braccialetto che, indossato al polso, è in grado di interpretare i segnali elettrici inviati dal cervello ai muscoli della mano.
In pratica, rileva le intenzioni di movimento ancora prima che questo si compia, traducendo gesti quasi impercettibili in comandi digitali. Questa interpretazione avviene grazie a sofisticati algoritmi di machine learning allenati per riconoscere i pattern neuromuscolari unici di ogni utente
Durante la presentazione, come descritto nel blog ufficiale di Meta, l’amministratore delegato Mark Zuckerberg ha mostrato come sia possibile scorrere notifiche, avviare una chiamata o scattare una foto semplicemente sfiorando pollice e indice o compiendo piccoli movimenti con le dita.
L’idea è quella di rendere l’interazione con la tecnologia più naturale e meno invasiva, liberandoci dalla necessità di guardare continuamente lo schermo di un telefono.
Questo sistema di controllo diventa particolarmente interessante se abbinato ai Ray-Ban Display, il modello con il micro-display integrato. Quest’ultimo proietta un’immagine virtuale nel campo visivo dell’utente, con una risoluzione e una luminosità, a detta dell’azienda, sufficienti a renderla leggibile anche in pieno giorno.
– Leggi anche: Microsoft diversifica l’IA: Anthropic affianca OpenAI in Copilot Studio per esigenze aziendali
L’interfaccia neurale e il display lavorano insieme: con un gesto della mano si può richiamare una mappa per la navigazione, visualizzare i sottotitoli di una conversazione in tempo reale o vedere l’anteprima di una foto prima di scattarla.
È un passo significativo verso quella che viene definita “realtà aumentata”, anche se la stessa Meta ammette che si tratta ancora di una versione semplificata, un ponte verso dispositivi futuri ancora più complessi.
Una tecnologia così potente, però, solleva inevitabilmente interrogativi altrettanto importanti.
Un dispositivo capace di “leggere” i segnali neurali del nostro corpo, per quanto limitati al polso, rappresenta una nuova frontiera della raccolta dati. Le garanzie sulla gestione di queste informazioni dovranno essere estremamente solide per convincere gli utenti a indossare un sensore così intimo, prodotto da un’azienda la cui storia sul trattamento della privacy è stata spesso oggetto di critiche.
La promessa di un’interazione più fluida con il digitale si scontra con il timore di cedere un altro pezzo di noi stessi.
La scommessa sul futuro e i fantasmi del passato
Meta sta investendo miliardi di dollari in questa visione, e le previsioni di mercato sembrano darle ragione, almeno sulla carta. Il mercato globale degli occhiali AI, secondo le analisi della società di ricerca Omdia, è previsto in forte crescita, passando da poche centinaia di migliaia di unità vendute nel 2023 a oltre 5 milioni entro il 2025, con Meta che potrebbe conquistarne circa l’80%.
L’obiettivo dichiarato dall’azienda è di vendere 10 milioni di paia di occhiali entro la fine del 2026. Si tratta di numeri ambiziosi, che segnalano la determinazione a non ripetere gli errori del passato e a imporre un nuovo standard tecnologico.
L’azienda, però, non è sola in questa corsa.
La concorrenza si sta già organizzando. Da un lato ci sono i produttori cinesi, pronti a invadere il mercato con alternative a basso costo focalizzate su singole funzioni, come la traduzione in tempo reale. Dall’altro, i giganti tecnologici come Apple, Samsung e la stessa Google non stanno a guardare e lavorano a loro volta su soluzioni di fascia alta.
Google, in particolare, sta stringendo accordi con marchi di occhialeria per evitare di ripetere l’errore di design che contribuì all’insuccesso dei suoi Glass. La partita si giocherà non solo sulle caratteristiche del singolo dispositivo, ma sulla capacità di creare un ecosistema di prodotti e servizi interconnessi, in cui gli occhiali diventano un’interfaccia per controllare altri dispositivi e accedere a informazioni contestuali. L’integrazione tra gli occhiali Oakley e gli smartwatch Garmin ne è un primo esempio.
La scommessa di Meta è enorme e i rischi non sono pochi. La tecnologia è matura, il design è stato curato e la strategia commerciale sembra ben definita. Resta però la domanda più importante, quella a cui solo il tempo potrà rispondere.
Le persone vogliono davvero un computer sul viso?
La comodità di avere informazioni a portata di sguardo supererà le preoccupazioni per la privacy e la barriera psicologica di indossare un dispositivo che registra e interpreta il mondo che ci circonda?
Il successo di questa nuova generazione di occhiali non dipenderà solo dalla loro tecnologia, ma dalla risposta che la società darà a queste domande.



