Googles AI-glasögon 2026: två versioner med Gemini och AR-skärm

Danny Weber

06:57 10-12-2025

© Google

Google bekräftar AI-drivna smarta glasögon 2026 i två versioner. Gemini-bas, kamera och AR-skärm för navigation och översättning. Lätta, diskreta och snygga.

Google har officiellt bekräftat att företaget lanserar sina första AI-drivna smarta glasögon 2026 – i två versioner. Båda bygger på Google Gemini och är tänkta som en följsam assistent när man är i farten, utan att man hela tiden måste ta upp mobilen. Inriktningen pekar tydligt mot diskret, situationsanpassad hjälp snarare än ännu en skärm att hantera.

Den första modellen håller sig till det grundläggande och praktiska: inbyggda högtalare, mikrofoner och en kamera så att du kan prata med Gemini och få direkt återkoppling. Med kameran kan du ta bilder och be AI:n tolka omgivningen – till exempel identifiera ett föremål, visa åt vilket håll du ska gå eller läsa vad som står på en skylt. En återhållsam start som prioriterar nytta i vardagen.

Den andra versionen tar ett tydligt steg upp i ambitionsnivå. Utöver samma AI-funktioner får den en skärm inne i linsen. Där kan glasögonen lägga upp hjälpande notiser som sväng-för-sväng-navigation och undertexter för översättning i realtid. I praktiken blir det ett litet, blicksnabbt informationslager som dyker upp precis när det behövs.

Båda modellerna kopplas till en smartphone, och merparten av databehandlingen sker i telefonen. Systemet bygger på Android XR, Googles plattform för bärbar teknik. Samsung medverkar i utvecklingen, medan Warby Parker och Gentle Monster står för formspråket. Google betonar stil, låg vikt och komfort hela dagen – ett val som signalerar teknik som ska smälta in i vardagen, inte ropa efter uppmärksamhet.