Google et Xreal dévoilent enfin le Project Aura : des lunettes Android XR dotées d’un écran pour la réalité augmentée, et embarquant l’IA Gemini pour vous prêter assistance à tout moment et répondre à vos questions sur tout ce que vous voyez… découvrez tout ce qu’il faut savoir !
On pensait les lunettes intelligentes reléguées parmi les gadgets oubliés du passé. Surtout après le terrible fiasco du Google Glass, lancé en 2013.
Pourtant, contre toute attente, Google vient officiellement de revenir dans la course à la réalité augmentée !
Le géant américain s’allie à Xreal, champion chinois des lunettes AR, pour lancer le Project Aura : un dispositif de nouvelle génération présenté le 20 mai 2025 lors de la Google I/O 2025.
Ce partenariat de prestige marque clairement le début d’une nouvelle ère pour les lunettes connectées : plus discrètes, plus puissantes, et dopées à l’intelligence artificielle. Et cette fois, Google ne joue plus seul.
Une alliance stratégique pour contre Meta et Apple
Anciennement nommée Nreal, Xreal est une entreprise chinoise spécialisée dans les lunettes AR est considérée comme l’un des leaders de ce domaine à l’échelle mondiale.
Il se charge du matériel, tandis que Google fournit Android XR, sa plateforme dédiée à la réalité mixte lancée fin 2024.
Ensemble, ils entendent bien concurrencer Meta avec ses lunettes Orion et Apple qui a déjà lancé son Vision Pro début 2024.
Leur stratégie est de proposer une approche alternative : des lunettes légères, immersives, mais connectées à un module externe pour offrir une grande puissance de calcul. On est loin du masque de ski conçu par Apple !
Le projet inclut aussi Qualcomm, le géant des puces, qui fournit le chipset optimisé XR. Celui-ci n’est pas embarqué dans les lunettes elles-mêmes, mais dans un « compute puck » (petit boîtier relié aux lunettes).
Ceci permet de préserver leur légèreté, tout en garantissant des performances de pointe. On parle donc d’une architecture dite tethered compute, à mi-chemin entre lunettes et mini-ordinateur personnel. Le bon compromis ? A vous d’en juger !
Le premier vrai dispositif Android XR à transparence optique
Fin 2024, Samsung présentait le tout premier appareil Android XR : le casque Project Moohan. Cette fois, le Project Aura s’apparente à de véritables lunettes.
Contrairement à un casque de réalité augmentée fermé, Aura permet de voir le monde réel à travers ses verres et d’y superposer des éléments numériques : notifications, documents, interfaces interactives…
Ce type d’affichage utilise la technologie « birdbath optics », plus abordable que les waveguides, mais aussi plus encombrante.
C’est pourquoi l’appareil est un peu plus épais que des lunettes classiques et filtre partiellement la lumière ambiante.
Ceci le rend moins adapté à un port constant en intérieur, mais idéal pour des sessions d’affichage prolongées et immersives.
Sous le design compact, une ribambelle de capteurs
Visuellement, les lunettes reprennent les codes de la gamme Xreal One… mais en beaucoup plus aboutis.
Les premiers visuels laissent entrevoir des caméras placées sur les charnières et au pont nasal, probablement utilisées pour le suivi de position 6DoF (six degrés de liberté), la reconnaissance des gestes, ou la prise de photos/vidéos.
On retrouve aussi des microphones pour les commandes vocales, et des boutons physiques intégrés dans les branches pour interagir directement avec l’interface.
A tout cela s’ajoute une grande diagonale de champ de vision, qui promet une expérience bien plus enveloppante que les modèles précédents du constructeur !
L’IA Gemini dans vos lunettes
Mais l’élément central de Project Aura, c’est son intégration native de l’intelligence artificielle Gemini créée par Google !
L’idée est claire : faire de ces lunettes une interface cognitive, toujours disponible, capable d’assister l’utilisateur à tout moment dans son environnement réel.
Que ce soit pour traduire en temps réel, afficher une recette pendant que vous cuisinez, vous rappeler un RDV ou filtrer des notifications… Aura veut rendre l’IA à la fois invisible et omniprésente.
Si, comme moi, vous en avez marre de sortir votre smartphone toutes les 10 secondes pour poser une question à ChatGPT, ce format pourrait vous sembler beaucoup plus adapté à l’ère de l’IA.
Cela rejoint la démonstration de Project Astra, présentée lors de la même conférence : Google mise une IA perceptive, capable de comprendre l’espace autour de vous, vos gestes, vos intentions… et de vous répondre naturellement.
L’avis des premiers testeurs du Project Aura
Lors de la conférence Google I/O, plusieurs journalistes américains ont eu l’occasion de tester les lunettes Project Aura. Voici leurs avis suite à cette première prise en main.
Selon The Verge, les lunettes sont encore à un stade précoce, avec une démonstration limitée, mais prometteuse.
L’intégration de Gemini permet des interactions naturelles en regardant un objet et en posant une question, offrant une fluidité d’interaction qui donne enfin du sens à l’AR dans un usage quotidien.
La monture est relativement légère et bien équilibrée, avec un champ de vision meilleur que celui des modèles précédents, bien que limité comparé à un casque XR.
La dépendance au module externe est toutefois perçue comme une contrainte, bien que compréhensible d’un point de vue technique…
Même son de cloche chez Gizmodo, qui n’a pu tester le Project Aura que pendant 90 secondes. Malgré la brièveté de cette démonstration, l’IA Gemini a répondu de manière fluide à des questions contextuelles.
Les lunettes disposent d’un petit écran transparent dans le coin inférieur droit de la lentille droite, offrant une expérience de réalité augmentée discrète.
Pour Tom’s Guide, le design des lunettes est relativement discret et moins encombrant que celui d’autres modèles concurrents.
L’assistant IA Gemini offre une assistance contextuelle en temps réel, capable de répondre à des questions sur des objets visibles.
Toutefois, le champ de vision est jugé étroit, et l’activation de Gemini via le pavé tactile nécessite une certaine adaptation.
Chez Android Central, on confirme que les lunettes incluent des caméras frontales pour capturer des données spatiales. Elles permettent de suivre l’espace environnant.
De son côté, NotebookCheck souligne la ressemblance du Project Aura avec les précédents modèles de Xreal. On retrouve notamment les capteurs environnementaux 3D et la caméra au-dessus du pont nasal.
Néanmoins, il faudra attendre l’Augmented World Expo en juin pour découvrir les spécifications techniques complètes et des détails supplémentaires !
Un appel aux développeurs avant le lancement grand public
Le Project Aura n’est pas encore disponible à la vente, mais Google et Xreal ont clairement lancé un appel aux développeurs.
Le duo promet que les applications Android XR créées pour les casques pourront être portées facilement sur des lunettes comme Aura, grâce à une compatibilité native avec la plateforme Android XR.
Ce modèle n’est pas sans rappeler la stratégie de Google pour les montres connectées avec Wear OS : fournir un système, laisser les partenaires gérer le matériel, et attendre que l’écosystème prenne forme avant d’éventuellement lancer un produit « made By Google ».
C’est aussi la stratégie adoptée pour les smartphones Pixel, lancés bien longtemps après l’OS Android. Vu l’échec cuisant des Google Glass, cette approche semble prudente et réfléchie…
Google entre dans l’arène de l’informatique spatiale
Ce que dessine Project Aura, c’est une nouvelle génération de Wearable Computing, où les lunettes deviennent un point d’accès à un environnement intelligent, fluide et interactif.
Ensemble, Google, Xreal et Qualcomm veulent bâtir un écosystème spatial Android, dans lequel les objets réels, les assistants numériques et les applications XR cohabitent dans un même flux.
Le titan de Mountain View entre en concurrence frontale avec Meta et ses Orion ou Apple avec le Vision Pro. La réalité mixte est le nouveau champ de bataille, et chacun veut incarne le futur de l’informatique visuelle !
Le prochain chapitre s’écrira dès le mois prochain au salon Augmented World Expo, où davantage de détails devraient être dévoilés.
Alors, qu’en pensez-vous ? Croyez-vous au potentiel des lunettes connectées ? Avez-vous hâte de pouvoir acheter ce type de produit ? Partagez votre avis en commentaire !
- Partager l'article :