Fabricant

Google lève le voile sur ses lunettes Android XR via un guide officiel

Après plusieurs annonces teasées ces derniers mois, Google précise enfin sa vision des lunettes connectées sous Android XR. Un document destiné aux développeurs permet désormais de mieux comprendre l’expérience utilisateur, entre commandes physiques, interactions tactiles et interface épurée.

Un écosystème XR pensé pour le quotidien

Présenté lors de The Android Show: XR Edition, Android XR marque l’ambition de Google de s’imposer sur le marché de la réalité augmentée et mixte.

Dans cette dynamique, le projet Project Aura, développé en partenariat avec XREAL, illustre une approche hybride : des lunettes légères, connectées à un module externe qui embarque la batterie et la puissance de calcul. Une solution qui vise à concilier confort et performances.

L’objectif est clair : intégrer ces lunettes dans les usages du quotidien, notamment grâce à des services comme la navigation enrichie ou l’assistance en temps réel via l’IA.

Deux catégories de lunettes bien distinctes

Le guide publié par Google distingue deux grandes familles d’appareils :

  • Les AI Glasses : équipées de haut-parleurs, d’un micro et d’une caméra
  • Les Display AI Glasses : qui ajoutent un écran intégré, activable à la demande

Ces dernières se déclinent en deux formats :

  • monoculaire (un seul affichage)
  • binoculaire (deux écrans, prévus dans un second temps)

Cette segmentation permet d’adresser différents usages, du simple assistant audio à une expérience visuelle immersive.

Boutons, gestes et commandes vocales : une interaction hybride

Contrairement à certaines visions 100 % tactiles ou vocales, Google mise sur une combinaison d’interactions.

Tous les modèles devront intégrer :

  • un bouton d’alimentation
  • un bouton dédié à la caméra
  • un pavé tactile

Sur les versions avec affichage, un bouton supplémentaire permettra de gérer l’écran.

Côté usage :

  • un appui simple capture une photo
  • un appui long lance un enregistrement vidéo
  • une pression prolongée sur le pavé tactile active l’assistant Gemini
  • des gestes (glissement, multitouch) permettent de naviguer ou régler le volume

La commande vocale reste également au cœur de l’expérience.

Une interface minimaliste pensée pour l’efficacité

Le document met aussi l’accent sur des choix d’interface très précis. Parmi les éléments imposés :

  • deux LED : une pour l’utilisateur, une visible par l’entourage pour signaler une activité
  • un écran d’accueil inspiré du lockscreen Android
  • des notifications sous forme de bulles arrondies

Autre point notable : Google recommande l’usage de couleurs peu énergivores, comme le vert, afin de limiter la consommation et la chauffe, un enjeu clé pour ce type de dispositif.

Une stratégie qui se précise face à la concurrence

Avec ces nouvelles informations, Android XR apparaît comme une réponse directe aux initiatives de concurrents comme Meta.

En structurant dès maintenant les standards matériels et logiciels, Google cherche à poser les bases d’un écosystème cohérent, capable d’attirer développeurs et fabricants.

Reste à voir si cette approche, plus encadrée et orientée usages, suffira à convaincre le grand public, encore partagé entre fascination technologique et préoccupations liées à la vie privée.


Sources

https://www.phonandroid.com/google-devoile-le-fonctionnement-des-lunettes-android-xr-dans-un-document-officiel.html

Laisser un commentaire