La Meta Connect 2025 a eut lieu du 16 et 18 septembre et comme nous l’attendions, Mark Zuckerberg et son équipe ont particulièrement insisté sur l’importance que devait prendre la réalité augmentée dans les usages numériques futurs. Évidement, ce sont les lunettes qui ont été désignées comme matériel indispensable, avec une bonne dose d’IA pour assurer l’interface. Nous voous proposons de revenir sur les annonces qui touchent plus spécifiquement la RA et, dans une certaine mesure, d’imaginer la suite !
Positionnement et stratégie
L’ambition affichée par Meta est claire depuis déjà quelques années : faire des lunettes connectées le pont naturel entre l’utilisateur et les « services augmentés », en les intégrant progressivement dans la vie de tous les jours. Mark Zuckerberg présente les lunettes non comme un gadget, mais comme un écran personnel discret, plus naturel et moins intrusif que le smartphone dans certains contextes.
La stratégie de prise de part de marché s’appuie sur une approche incrémentale et modulaire. D’abord proposer un affichage monoculaire léger (type HUD) couplé à un système d’interaction naturel (gestes, voix), puis évoluer vers des dispositifs RA complets, c’est-à-dire avec superpositions 3D complexes ancrés dans le monde réel, lorsque la technologie optique, énergétique et logicielle le permettra. L’idée est de familiariser l’utilisateur avec le port de lunettes intelligentes, tout en développant l’écosystème logiciel autour d’elles. Dans cette vision, les lunettes sont un point d’entrée vers un futur métavers “mixte” pour le grand public. Et c’est aussi une des points importants de l’analyse, le coté B2B n’est pas mentionné, alors qu’aujourd’hui les applications sont multiples. Si on peut s’interroger sur la pertinence de ce choix, il est au moins en complète cohérence avec le développement des autres produits du groupe comme Horizon.
La star de la présentation : les Ray-Ban Meta Display

Inutile de dire qu’on l’attendait ce modèle de lunettes, peut-être pas sous la marque Ray Ban, mais c’est une manière simple de profiter de la puissance du nom. Soyons précis, Les Ray-Ban Meta Display ne sont pas, à ce stade, des lunettes de réalité augmentée. Ce sont plutôt des HUD (Head-Up Display) monoculaires intégrés dans le verre. Un seul oeil affiche des éléments visuels. Elles ont des caractéristiques particulièrement intéressantes pour un usage dans la vie de tous les jours : environ 60/70g, une résolution est annoncée autour de 600×600 pixels pour 20° de champs de vision, une durée d’utilisation de plus de l’ordre de 6 heures. Le système de contrôle repose sur le « Meta Neural Band », une sorte de bracelet d’EMG, qui apporte une réponse intelligente à l’interactivité. En effet, les lunettes ayant plus d’options que les Ray Ban Meta, il est compliqué de les contrôler avec un seul bouton et une zone tactile (ne parlons pas de la commande vocale qui vous fait vite passer pour un clown). Les avis sont assez partagés sur l’utilisation du bracelet. Certains expliquent qu’en quelques minutes, le maniement devient naturel, d’autres que l’apprentissage est beaucoup plus long. Nous verrons à l’usage si Meta arrive véritablement à imposer un nouveau matériel à ses utilisateurs.
Donc, les Ray-Ban Meta Display peuvent être vues comme une étape intermédiaire entre les lunettes « spectaculaires »connectées » (caméra + audio + IA) et les lunettes de RA du futur (type Meta Orion). Comme le dit un commentateur : “c’est comme intégrer l’écran d’une montre dans une lunette ». Cela soulève une nouvelle interrogation. Quels sont les usages présentés par Meta qui justifie le format spécifique des lunettes ? Voici donc une liste des usages mis en avant classés en 3 catégories : ce qui est possible sur smartphone, sur montre, spécifique aux lunettes.
| Usages possibles sur smartphone | – Navigation piétonne (itinéraire) – Consultation de messages, notifications – Affichage de contenu (photos, vidéos, Instagram) – Appels vidéo, messagerie (WhatsApp) – Traduction en temps réel / sous-titres textuels / audio |
| Usages possibles sur montre (pour ne pas sortir son smartphone) | – Notifications – Alertes contextuelles – Contrôles simples (pause/mise en route) |
| Usages propres aux lunettes / vue 1ʳᵉ personne | – Mode “Live AI” : interagir avec l’IA au sujet de ce que l’on voit, obtenir des informations contextuelles – Capture photos et vidéo à la 1ʳᵉ personne |
Évidement, vous pouvez considérer que suivre une navigation dans les lunettes est plus pratique que sur son smartphone. Cependant, on peut difficilement en déduire que c’est suffisant pour que le grand public passe aux lunettes. La plupart des usages présentés ne tirent pas parti d’un affichage « spatial » et restent donc assez proches de ce que l’on connait. Le gain est potentiellement la libération des mains. L’assistance par l’IA par contre est très spécifique à ce genre de matériel, puisque la contextualisation en fonction de l’utilisateur est naturelle. C’est d’ailleurs cet aspect qui a particulièrement impressionné avec les Ray Ban Meta.
Les autres modèles de lunettes présentés
Pour être complet, deux autres modèles ont été présentés dans le cadre de la conférence. La nouvelle génération de Ray Ban Meta (Gen 2) et la nouvelle Oakley Meta Vanguard. Pour les Gen 2, qui ne sont donc pas une troisième génération de Ray Ban Meta, on note quelques améliorations matérielles comme une durée de fonctionnement plus long qui va suivre le porteur toute une journée, une meilleure caméra ou un nombre de design plus important.
Les Oakley Meta Vanguard sont probablement plus intéressantes car elles adressent un public sportif assez ciblé, dans le même créneau que GoPro. Dans ce secteur, les fonctionnalités spécifiques présentées dans le tableau précédent sont plus claires et attractives. On pense évidemment à la prise de vue à la première personne, mais la connexion avec des outils comme le GPS pour pouvoir les utiliser en mains libres est également pertinente. On peut toutefois se poser la question de l’absence d’affichage dans ce modèle alors que des lunettes Activelook le propose depuis des années.
Meta a donc maintenant trois modèles assez différents dans le secteur des lunettes connectées pour faire face à la concurrence de tout bords. Il est intéressant de noter que toute la gamme est sous marque « externe », même s’il est vrai que Meta est maintenant au capital d’EssilorLuxottica. Cela pose clairement le rôle des lunettes connectées comme des accessoires de mode, liés à l’identité et à l’image sociale de l’utilisateur. On comprend vite que « Ray Ban » est dans ce sens plus porteur que « Meta » qui traine plutôt une image associée à Facebook, au “big tech” et à la surveillance des données. Et puisqu’on a vu que pour le moment les fonctionnalités restent très superficielles, il est plus simple de vendre un style.
Autre réalité, vendre des lunettes est un métier qui ne s’improvise pas si on vise un marché global. En s’alliant avec Luxottica, Meta bénéficie d’un réseau de distribution et d’un savoir-faire industriel qui dépasse largement ce qu’elle pourrait bâtir seule. Cela ouvre un accès direct à des millions de consommateurs habitués à acheter des lunettes en magasin d’optique ou de mode, plutôt qu’en boutique high-tech. Ray-Ban n’est pas seulement une façade marketing, c’est un canal industriel et commercial vital pour Meta. La question qui va vite se poser portera sur l’exclusivité du partenariat.
Le “Wearables Device Access Toolkit” … et ses limites
Beaucoup de personnes attendaient avec impatience les annonces autour du développement d’application sur les lunettes. Elles ont bien eut lieu dans la partie plus orientée tech mais avec quelques de surprises pour la communauté. L’article d’Antony Vitillo revient en détail sur ces points. Nous allons juste relever les éléments importants. En premier lieu, Meta ne parle pas d’un SDK dont la fonction est de donner les outils pour développer des applications sur un matériel donné, il s’agit ici d’un « toolkit ». En termes plus clairs, c’est un ensemble d’outils à destination des applications sur smartphone pour accéder aux photos et vidéos de la lunette et pour créer un canal audio bidirectionnel entre cette dernière et le smartphone. Meta a laissé entendre que les fonctionnalités allaient se développer petit à petit en fonction des remarques des développeurs engagés dans la béta. Plusieurs exemples ont été mis en avant comme le livestream Twitch à la première personne, 18Birdies (application de golf) pour afficher les distances et recommandations durant le jeu, ou Disney Imagineering qui envisage l’usage dans ses parcs pour guider les visiteurs.
Comme le précise Anthony dans son article, cela ressemble beaucoup à une sortie forcée par l’arrivée d’Android XR. On dira que c’est une porte d’entrée prudente pour Meta. On peut y voir également une excellente opportunité, pour les développeurs, d’être plus intégrés dans la création du futur SDK des lunettes.
Et maintenant ?
A l’issue de cette Meta Connect, on peut dire que Meta reste dans « sa ligne ». La stratégie de contrôle du Metaverse est toujours présent même si 2025 est plus l’année des lunettes que des casques. Les annonces autour d’Horizon (et en particulier de l’OS ouvert aux matériels des concurrents) montre bien que c’est un élément majeur du développement. Meta a clairement une étape d’avance sur les lunettes mais les concurrents ne sont pas si loin derrière. Nous verrons si cette avance peut etre maintenue dans les mois qui viennent, en scrutant particulièrement les chiffres de vente pour les nouveaux modèles. Le succès de Ray Ban Meta sera-t-il reproduit ?
Certains avancent que Meta voudrait se transformer en nouvel Apple, en mettant en place un écosystème plus fermé, plus vertical. Si le développement des lunettes peut en donner l’impression, La stratégie autour d’Horizon ne semble pas aller dans cette voie, mais il est clair que rien ne semble graver dans le marbre !
Je suis Grégory Maubon, spécialisé dans les applications des technologies pour favoriser des innovations concrètes. Je m'intéresse aux données et à la manière dont on peut les utiliser pour améliorer la vie et le travail. Mes études en physique et en astrophysique et plus de 30 ans d'expérience dans l'industrie de la tech, en particulier dans les domaines de la réalité augmentée et de la science des données, ont façonné mon approche de l'innovation - toujours sur le terrain, avec un objectif clair. Ma carrière se distingue par ma capacité à combiner expertise technique et vision stratégique pour faciliter la mise en place de solutions numériques transformatrices.






