Après le fiasco des Google Glass, beaucoup pensaient que les lunettes connectées resteraient un gadget de salon. Meta veut prouver le contraire avec ses nouvelles Ray-Ban Display : un écran couleur intégré dans la lentille, un bracelet qui capte vos gestes nerveux, et surtout l’assistant Meta AI directement dans vos yeux. Traduction en direct, GPS, recettes en pas-à-pas… 69 grammes pour devenir Iron-Man ?
À première vue, rien de suspect : les Meta Ray-Ban Display ressemblent à des Wayfarer classiques. Deux tailles, deux couleurs, verres photochromiques… du pur Ray-Ban.
Mais derrière ce look discret, un afficheur couleur 600×600 px se projette dans la lentille droite. Invisible de l’extérieur, il affiche messages, images, vidéos ou appels uniquement pour le porteur.
Traducteur, GPS et sous-titres dans la rétine
Les Ray-Ban Display se veulent l’extension la plus pratique du smartphone. Elles affichent traductions en direct pendant une conversation, sous-titres automatiques pour les malentendants ou voyageurs, et GPS piéton directement dans la rétine.
La caméra 12 MP fait office de viseur AR, parfait pour cadrer photos et vidéos. Ajoutez des appels vidéo WhatsApp ou Messenger dans la lentille, et on commence à comprendre la promesse : moins sortir le téléphone, plus vivre en mode augmenté.
Meta AI dans tes yeux
Mark Zuckerberg l’a résumé ainsi : « Les lunettes sont la seule forme qui permet à l’IA de voir ce que vous voyez, d’entendre ce que vous entendez, et à terme de générer ce que vous voulez générer. »
Avec cette phrase, tout est dit. Meta veut faire des Ray-Ban Display le cheval de Troie de son IA multimodale Meta AI. L’assistant intégré ne se limite pas au texte : il analyse ce que vous regardez via la caméra et vous renvoie une réponse visuelle.
- Devant un tableau ? Infos et anecdotes apparaissent.
- Dans la cuisine ? L’IA affiche une recette adaptée à ce que vous avez.
- En voyage ? Traduction instantanée d’une pancarte ou d’un menu.
En clair, Meta AI fait le pont entre monde réel et intelligence artificielle. Et cette fois, il ne reste plus confiné à un smartphone ou un casque de VR.
Reste à savoir si Meta AI sera la seule option, ou s’il sera possible de choisir une autre IA comme ChatGPT ou Google Gemini…
Un bracelet qui lit dans tes nerfs
Pas besoin de grands gestes ridicules. Meta lance le Neural Band, un bracelet électromyographique qui capte les impulsions électriques de l’avant-bras.
Un simple pincement de doigts suffit pour scroller, cliquer, écrire dans l’air. Complémentaire des commandes vocales et tactiles sur la branche, ce bracelet étanche offre 18 heures d’autonomie.
Pour la première fois, on tient un accessoire qui transforme vraiment les lunettes en interface humaine naturelle.
Côté endurance, les lunettes offrent 6 heures d’usage mixte. Grâce à l’étui-chargeur, on grimpe à 30 heures cumulées. Le poids reste contenu (69 g pour les lunettes, 42 g pour le bracelet), mais l’ensemble peut fatiguer sur de longues sessions.
Suffisant pour un usage quotidien, mais encore loin du confort d’une paire classique. Il faudra sans doute patienter jusqu’aux prochaines versions pour un poids vraiment allégé.
La révolution sera dans tes lunettes… ou pas
À 799 $ dès le 30 septembre aux États-Unis (début 2026 en Europe), les Ray-Ban Display marquent une étape majeure dans la bataille de l’IA grand public.
Gadget de niche ou futur incontournable du quotidien ? La frontière est fine. Meta mise sur un assistant visuel omniprésent, qui colle à votre regard.
Notons que la firme vise aussi les sportifs avec les Oakley Meta Vanguard. Design enveloppant type Radar, caméra centrale, micros, haut-parleurs, et surtout intégration Garmin.
Vitesse, cardio et distance s’affichent en direct dans la lentille, avec une LED qui clignote quand un objectif est atteint. Bonus : les lunettes filment automatiquement vos exploits (chaque km, chaque sprint) et génèrent un highlight reel prêt pour Strava.
Mais malgré la hype autour des lunettes IA, des zones d’ombre subsistent. La démo officielle a connu quelques ratés techniques (latence, wifi instable).
L’écran demande un petit temps d’adaptation visuelle, certains testeurs parlant d’un effet “loucher volontaire”. Et bien sûr, la vie privée reste une crainte majeure : Meta assure qu’une LED prévient quand la caméra tourne, mais l’historique de l’entreprise incite à la méfiance.
La question à se poser est : êtes-vous prêt à laisser Mark Zuckerberg et son entreprise voir à travers vos yeux ? Partagez votre avis en commentaire !
- Partager l'article :




