Après plusieurs années de silence, Google s’apprête à revenir sur un terrain qu’il connaît bien : celui des lunettes intelligentes. Alors que les Ray-Ban Meta rencontrent un succès notable et que le marché des wearables visuels se structure enfin, le géant californien dévoile progressivement sa nouvelle vision des lunettes connectées. Et cette fois, la stratégie semble nettement plus mature.

Un contexte favorable au retour de Google
Le secteur des lunettes connectées n’a jamais été aussi dynamique. Longtemps perçu comme un marché de niche ou expérimental, il bénéficie aujourd’hui de plusieurs facteurs clés : miniaturisation des composants, démocratisation de l’intelligence artificielle embarquée et acceptation sociale accrue de ces dispositifs.
Dans ce contexte, Google ne pouvait rester absent indéfiniment. Après l’épisode mitigé des Google Glass au début des années 2010, l’entreprise semble avoir pris le temps de repenser entièrement son approche, en tirant les leçons de ses erreurs passées.
Une première démonstration qui a marqué les esprits
C’est lors d’une conférence publique que Google a laissé entrevoir concrètement son projet. Shahram Izadi, responsable des technologies de réalité augmentée et virtuelle au sein du groupe, est apparu sur scène équipé de lunettes au design volontairement sobre.
Derrière cette apparente simplicité se cachait pourtant un concentré de technologies. Les lunettes ont notamment démontré :
- la traduction instantanée d’une langue étrangère,
- la reconnaissance et la numérisation de texte imprimé,
- l’interaction vocale en temps réel.
Contrairement aux anciens Google Glass, souvent jugés trop intrusifs, ce nouveau prototype adopte une philosophie bien plus discrète, pensée pour un usage quotidien.
Une architecture pensée pour le confort et la légèreté
L’un des choix techniques majeurs de Google repose sur un fonctionnement hybride. Les lunettes ne concentrent pas toute la puissance de calcul : elles s’appuient largement sur le smartphone auquel elles sont connectées.
Ce parti pris permet :
- d’alléger considérablement la monture,
- de limiter l’encombrement visuel,
- d’accéder à l’écosystème applicatif du téléphone.
Les lunettes embarquent néanmoins les éléments essentiels : microphone, haut-parleur miniature et caméra intégrée. Cette dernière ne se contente pas de capturer des photos ou des vidéos, elle est également conçue pour contextualiser ce que l’utilisateur voit, ouvrant la voie à de nouveaux usages liés à la mémoire visuelle et à l’assistance intelligente.
Deux modèles distincts en préparation
Google ne travaille pas sur une seule paire de lunettes, mais sur deux concepts complémentaires, dont la sortie est prévue à l’horizon 2026.
- Un premier modèle avec affichage, proche des lunettes Android XR présentées récemment. Il proposerait des informations visuelles directement dans le champ de vision, en s’appuyant sur l’intelligence artificielle Gemini.
- Un second modèle sans écran, plus proche de la philosophie des Ray-Ban Meta, axé sur la capture photo, l’audio et les échanges vocaux avec l’IA.
Cette double approche permettrait à Google de couvrir à la fois les usages avancés de réalité augmentée et les besoins plus grand public.
Date de sortie et positionnement : ce que l’on sait
À ce stade, Google reste volontairement discret sur les aspects commerciaux. Aucun tarif officiel n’a été communiqué, et aucune date précise n’a été annoncée. Une chose est toutefois confirmée : les lunettes connectées Google arriveront sur le marché en 2026.
Reste à savoir si cette nouvelle génération saura convaincre là où les Google Glass avaient échoué. Mais cette fois, le contexte technologique, les attentes des consommateurs et la maturité de l’écosystème semblent enfin alignés.
Sources