Google prepara dos gafas inteligentes con IA Gemini para 2026, con cámara y pantalla

Danny Weber

06:53 10-12-2025

© Google

Google lanzará en 2026 dos gafas inteligentes con IA Gemini: una con audio y cámara, y otra con pantalla para navegación y traducción en tiempo real al instante.

Google ha confirmado oficialmente que lanzará sus primeras gafas inteligentes con IA en 2026, y llegarán en dos versiones. Ambas integrarán Google Gemini y están planteadas como un asistente que te acompaña en movimiento, sin tener que mirar el móvil a cada momento. El enfoque apunta a una apuesta por la ayuda contextual antes que por sumar otra pantalla que gestionar.

La primera versión sigue una fórmula directa y práctica: altavoces y micrófonos integrados, además de una cámara para hablar con Gemini y recibir indicaciones en tiempo real. La cámara permite hacer fotos y luego pedir a la IA que interprete lo que te rodea: identificar un objeto, sugerir hacia dónde girar o leer lo que dice un cartel. Es un punto de partida contenido que prioriza la utilidad cotidiana.

La segunda versión es claramente más ambiciosa. Además de las mismas funciones de IA, incorpora una pantalla en el interior de la lente. Ese visor puede mostrar indicaciones útiles como navegación giro a giro y subtítulos de traducción en tiempo real, convirtiendo las gafas en un pequeño panel a golpe de mirada que ofrece la información justo cuando hace falta.

Ambos modelos se conectarán a un teléfono, que asumirá la mayor parte del procesamiento de datos. Funcionarán con Android XR, la plataforma de Google para dispositivos vestibles. Samsung participa en el desarrollo, mientras que Warby Parker y Gentle Monster se ocupan del diseño. Google subraya el estilo, la ligereza y la comodidad durante todo el día para que el dispositivo no se perciba como un artilugio por el artilugio, una filosofía que apuesta por tecnología que se integra en el entorno en lugar de reclamar protagonismo.