Google lanserer AI-drevne smartbriller i 2026: Gemini, to modeller og skjerm i linsen
To utgaver av Googles AI-smartbriller i 2026: integrert Gemini, kamera og skjerm i linsen for navigasjon og oversettelser. Kobles til telefon, kjører Android XR
To utgaver av Googles AI-smartbriller i 2026: integrert Gemini, kamera og skjerm i linsen for navigasjon og oversettelser. Kobles til telefon, kjører Android XR
Google bekrefter at selskapet lanserer sine første AI-drevne smartbriller i 2026, og de kommer i to utgaver. Begge får Google Gemini integrert og er tenkt som en følgesvenn på farten, slik at man slipper å sjekke telefonen hele tiden. Signalet er tydelig: bedre, mer tilstedeværende hjelp i hverdagen fremfor nok en skjerm å administrere.
Den første varianten følger en praktisk oppskrift: innebygde høyttalere, mikrofoner og et kamera gjør at du kan snakke med Gemini og få veiledning i sanntid. Med kameraet kan du ta bilder og be KI-en tolke omgivelsene—identifisere en gjenstand, foreslå hvilken retning du bør gå, eller lese teksten på et skilt. Det fremstår som et nøkternt startpunkt som prioriterer nytteverdi i daglig bruk.
Den andre utgaven tar et tydelig steg videre. I tillegg til de samme KI-funksjonene får den en skjerm inne i linsen. Denne kan vise hjelpetekster som trinnvis navigasjon og undertekster med oversettelser i sanntid—i praksis en liten skjerm du kan kaste et raskt blikk på, som leverer informasjon akkurat når den trengs.
Begge modellene kobles til en smarttelefon, og mesteparten av databehandlingen skjer på telefonen. De kjører på Android XR, Googles plattform for bærbare enheter. Samsung er med i utviklingen, mens Warby Parker og Gentle Monster står for designet. Google vektlegger stil, lav vekt og komfort hele dagen, slik at brillene ikke fremstår som en dings for dingsens skyld—teknologi som skal gli inn, ikke kreve oppmerksomhet. En slik prioritering virker klok dersom målet er at produktet faktisk skal brukes.