A Google első Gemini-alapú okosszemüvege 2026-ban, két verzióban

A Google hivatalosan megerősítette, hogy 2026-ban piacra dobja első, mesterséges intelligenciával működő okosszemüvegét, rögtön két változatban. Mindkettőbe beépül a Google Gemini, és úgy tervezték őket, hogy útközben is használható asszisztensként működjenek, anélkül hogy állandóan a telefonra kellene pillantani. Minden jel arra utal, hogy a cég inkább a láthatatlan, környezetbe simuló segítségre tesz, nem pedig egy újabb képernyőre, amit menedzselni kell.

Az első változat egy egyszerű, praktikus receptet követ: beépített hangszórók, mikrofonok és egy kamera, hogy beszélhess a Geminivel, és valós idejű javaslatokat kapj. A kamerával fényképezhetsz, majd rákérdezhetsz a mesterséges intelligenciánál a környezetedre—például tárgyak azonosítására, útbaigazításra vagy feliratok felolvasására. Megfontolt rajt ez, amely a mindennapi hasznosságot helyezi előtérbe.

A második verzió érezhetően fejlettebb. Azonos MI-funkciók mellé a lencsébe épített kijelző kerül. Ez a kis képernyő képes hasznos útmutatásokat megjeleníteni, például kanyarról kanyarra navigációt vagy valós idejű feliratozott fordítást, így a szemüveg egy apró, egy pillantással olvasható kijelzővé válik, amely akkor és azt adja, amire éppen szükség van.

Mindkét modell okostelefonhoz csatlakozik, a legtöbb adatfeldolgozást a telefon végzi. A szemüvegek az Android XR-en futnak, a Google hordható eszközökhöz készített platformján. A fejlesztésben a Samsung is közreműködik, a dizájnért a Warby Parker és a Gentle Monster felel. A Google a stílust, a könnyű kialakítást és az egész napos kényelmet hangsúlyozza, hogy az eszköz ne puszta kütyüként hasson—inkább észrevétlenül simuljon bele a hétköznapokba, ahelyett hogy magára vonná a figyelmet.