Questa nuova generazione di dispositivi indossabili sta rapidamente guadagnando terreno grazie a un approccio che privilegia il design e l’assistenza vocale basata sull’intelligenza artificiale.

[In pillole] La sintesi per chi va di fretta:
Il mercato degli occhiali AI è in forte crescita, con previsioni di 10 milioni di unità vendute entro il 2026. Meta, in partnership con Ray-Ban, domina il settore, trasformando la tecnologia in un accessorio di moda. Il successo solleva dubbi su privacy dei dati, monopolio e dipendenza da piattaforme proprietarie.
La rincorsa agli occhiali intelligenti e il bivio tra moda e sorveglianza
C’è stato un momento, non troppo lontano nel tempo, in cui indossare un computer sul viso era considerato socialmente inaccettabile, un marchio di fabbrica riservato agli appassionati di tecnologia più radicali o a esperimenti fallimentari della Silicon Valley. Quel periodo sembra essersi concluso bruscamente, lasciando spazio a una fase nuova in cui l’estetica e la funzionalità hanno trovato un punto di incontro che sta generando numeri di vendita che pochi analisti avevano previsto con tale sicurezza.
Il mercato degli AI glasses, gli occhiali dotati di intelligenza artificiale, non è più una promessa vaga ma un settore industriale che ha iniziato a macinare cifre rilevanti, passando da nicchia per curiosi a potenziale sostituto dello smartphone.
Secondo le proiezioni più recenti, il 2026 sarà l’anno in cui questa tecnologia supererà la soglia psicologica e commerciale dei 10 milioni di unità vendute, segnando un aumento vertiginoso rispetto ai 5,1 milioni registrati nel 2025 come riportato da Omdia. Non si tratta di una crescita lineare, ma di un’accelerazione che suggerisce come le grandi aziende tecnologiche abbiano finalmente capito cosa sbagliavano in passato.
Smettere di vendere tecnologia e iniziare a vendere accessori di moda che, incidentalmente, possiedono capacità di calcolo avanzate.
Questa trasformazione non è avvenuta per caso, ma è il risultato di una strategia precisa che ha spostato l’attenzione dallo schermo alla voce, e dalla realtà aumentata all’intelligenza artificiale generativa. Se fino a qualche anno fa l’obiettivo era proiettare ologrammi davanti agli occhi dell’utente, oggi la priorità è diventata sussurrargli risposte nell’orecchio, sfruttando modelli linguistici sempre più sofisticati.
È un cambio di paradigma che ha abbassato le barriere tecnologiche necessarie per produrre questi dispositivi, permettendo prezzi più accessibili e design meno invasivi, ma che apre contemporaneamente questioni complesse sul controllo dei dati e sulla dipendenza da piattaforme proprietarie.
Il monopolio di fatto e la lezione imparata da Google
Per capire la dimensione di questo fenomeno è necessario guardare a chi lo sta guidando.
Attualmente il mercato non è frammentato in una sana competizione tra molteplici attori, ma è dominato in modo quasi imbarazzante da un unico soggetto.
I dati relativi alla prima metà del 2025 mostrano che Meta, la società che controlla Facebook e Instagram, ha catturato oltre il 70 per cento delle quote di mercato globali secondo le analisi di Counterpoint Research.
Questo predominio è stato costruito su una partnership industriale con EssilorLuxottica, che ha permesso di inserire telecamere e microfoni all’interno della montatura più famosa al mondo, i Ray-Ban, rendendo la tecnologia quasi invisibile.
Il successo di questa operazione si spiega guardando al passato, in particolare al fallimento dei Google Glass di oltre un decennio fa.
Quel progetto naufragò non perché la tecnologia non fosse interessante, ma perché il design del dispositivo marcava una distanza sociale tra chi lo indossava e chi lo osservava, creando diffidenza e problemi di privacy immediati.
– Leggi anche: DeepSeek rovescia il duopolio dell’IA: efficienza batte potenza bruta
Meta ha aggirato il problema nascondendo la tecnologia dentro un oggetto che le persone indossavano già volentieri.
La scommessa di Zuckerberg è stata quella di rendere gli occhiali intelligenti un oggetto del desiderio estetico prima che funzionale, sfruttando la familiarità del marchio Ray-Ban per far accettare al grande pubblico l’idea di avere una telecamera sempre accesa sul viso.
Tuttavia, questa egemonia solleva dubbi legittimi sulla direzione che prenderà l’intero settore.
Quando un’unica azienda detiene una quota così massiccia del mercato, ha il potere di stabilire gli standard de facto per l’intera industria.
Decidendo quali funzionalità siano accessibili, come vengano gestiti i dati biometrici raccolti dalle telecamere e, soprattutto, quale intelligenza artificiale l’utente sia costretto a utilizzare.
La differenza tra vedere e ascoltare
È fondamentale distinguere tra le diverse promesse tecnologiche che spesso vengono confuse sotto l’etichetta generica di “smart glasses”.
Quelli che stanno vendendo oggi, e che guideranno il mercato nei prossimi cinque anni, sono dispositivi focalizzati sull’audio e sull’assistenza vocale.
Non cercano di sovrapporre elementi grafici alla realtà, un compito che richiede display costosi, batterie pesanti e processori che scaldano troppo per essere tenuti comodamente sul naso per tutto il giorno.
Al contrario, questi occhiali funzionano come un’estensione dell’udito e della voce.
Collegati a modelli di linguaggio di grandi dimensioni (LLM), interpretano le richieste dell’utente o analizzano ciò che la telecamera inquadra per fornire descrizioni audio.
La vera realtà aumentata (AR), quella che promette di farci vedere le indicazioni stradali disegnate sull’asfalto o le notifiche fluttuare a mezz’aria, è ancora tecnologicamente immatura per il mercato di massa.
Sebbene ci siano investimenti enormi in questa direzione, Bank of America sottolinea che gli occhiali AR veri e propri non raggiungeranno una maturità commerciale prima del 2027, e potrebbero superare i volumi di vendita degli attuali occhiali AI solo verso il 2030.
La ragione è fisica.
Le guide d’onda e i micro-display necessari per l’AR sono ancora troppo complessi da miniaturizzare mantenendo un aspetto socialmente accettabile e un prezzo che non sia proibitivo.
Nel frattempo, l’industria ha trovato un compromesso molto redditizio.
Vendendo occhiali che sono essenzialmente cuffie molto evolute con una videocamera, le aziende possono abituare i consumatori all’idea di interagire con un assistente virtuale senza dover estrarre il telefono dalla tasca.
Questo passaggio è funzionale a raccogliere una quantità di dati senza precedenti sul mondo reale visto dalla prospettiva degli utenti, dati che sono il carburante necessario per addestrare le future generazioni di intelligenza artificiale.
Il rischio del giardino recintato e la questione privacy
Mentre i numeri crescono, con una previsione di mercato che punta a 35 milioni di unità entro il 2030, emerge un problema strutturale che riguarda la libertà di scelta dell’utente.
La tendenza dei produttori è quella di creare sistemi chiusi, dove l’hardware è indissolubilmente legato al software proprietario.
Chi compra un paio di occhiali intelligenti oggi non sta acquistando solo un pezzo di plastica e silicio, ma sta sottoscrivendo un abbonamento implicito all’ecosistema di servizi di quella specifica azienda. Omdia evidenzia come i venditori stiano cercando di “bloccare” gli utenti nelle proprie piattaforme AI, rendendo difficile o impossibile utilizzare assistenti virtuali concorrenti sullo stesso dispositivo.
Per sfuggire a tale blocco, le imprese potrebbero dover investire nello sviluppo di applicazioni mobile proprietarie, create ad hoc per interfacciarsi con i device indossabili mantenendo il controllo sui dati e sui flussi di lavoro.
Questo approccio crea una frammentazione che potrebbe paradossalmente rallentare l’innovazione.
Invece di avere dispositivi agnostici in grado di connettersi al miglior servizio disponibile, ci si avvia verso un futuro in cui la scelta della montatura determina quale intelligenza artificiale filtrerà la nostra percezione del mondo.
Inoltre, la questione della privacy rimane un ostacolo non trascurabile.
A differenza di uno smartphone, che passa gran parte del tempo in tasca o appoggiato su un tavolo, gli occhiali hanno una visuale privilegiata e costante su tutto ciò che l’utente fa e sulle persone che incontra.
Spesso senza che queste ultime ne siano consapevoli o abbiano dato il consenso a essere riprese o analizzate da algoritmi.
C’è poi l’incognita geografica.
Mentre gli Stati Uniti guidano l’adozione, la Cina si sta configurando come un mercato secondario ma significativo, con previsioni di 1,2 milioni di unità vendute nel 2026. Lì, la competizione segue logiche diverse, con giganti locali che integrano questi dispositivi in piattaforme di servizi ancora più pervasive.
La vera partita, dunque, non si gioca solo sulla capacità di vendere l’oggetto.
Piuttosto, si gioca sulla capacità di convincere le persone che il vantaggio di avere un assistente sempre pronto all’orecchio valga la cessione di una parte consistente della propria privacy visiva e uditiva.
Un calcolo che, a giudicare dai dati di vendita, molti consumatori hanno già risolto a favore della comodità.



