Googles KI-Smartglasses 2026: zwei Ausführungen, eine mit Display

Danny Weber

06:51 10-12-2025

© Google

Google bringt 2026 KI-Smartglasses mit Gemini: ein Modell mit Kamera, Mikro und Speakern, das andere zusätzlich mit Display für Navigation und Live-Untertitel.

Google hat offiziell bestätigt, 2026 seine ersten KI-gestützten Smartglasses auf den Markt zu bringen – in zwei Ausführungen. Beide integrieren Google Gemini und sind als unterwegs nutzbarer Assistent gedacht, ohne dass man ständig zum Smartphone greifen muss. Das wirkt wie eine Wette auf unaufdringliche Unterstützung statt auf noch einen Bildschirm, den man managen muss.

Die erste Version folgt einer schnörkellosen, praxisnahen Formel: integrierte Lautsprecher, Mikrofone und eine Kamera, damit man mit Gemini sprechen und Hinweise in Echtzeit erhalten kann. Über die Kamera lassen sich Fotos aufnehmen und anschließend die KI nach der Umgebung fragen – etwa um ein Objekt zu erkennen, eine Richtung zu empfehlen oder den Text auf einem Schild vorzulesen. Ein bewusst vorsichtiger Einstieg, der den Alltag in den Mittelpunkt stellt.

Die zweite Ausführung ist deutlich weiter. Zusätzlich zu den gleichen KI-Funktionen sitzt im Glas ein Display. Darauf können hilfreiche Hinweise erscheinen, etwa Abbiegeanweisungen oder Live-Untertitel für Übersetzungen – im Effekt werden die Brillen zu einem kleinen, auf einen Blick erfassbaren Bildschirm, der Informationen genau dann einblendet, wenn sie gebraucht werden.

Beide Modelle koppeln sich mit einem Smartphone, die meiste Datenverarbeitung übernimmt das Telefon. Als Basis dient Android XR, Googles Plattform für Wearables. An der Entwicklung ist Samsung beteiligt, das Design verantworten Warby Parker und Gentle Monster. Google betont Stil, geringes Gewicht und Tragekomfort über den ganzen Tag – damit das Gerät nicht wie ein Selbstzweck-Gadget wirkt, sondern sich unauffällig einfügt, statt Aufmerksamkeit einzufordern.