Google初のAIスマートグラス、2026年に2モデル登場。Geminiがナビと翻訳を支援

Googleが2026年に初のAI搭載スマートグラスを2モデルで投入する計画を正式発表した。どちらもGoogle Geminiを統合し、移動中でも使えるアシスタントとして設計されている。スマホをいちいち確認しなくていい作りで、新たな“画面”を増やすよりも、背景で静かに助ける存在へ舵を切った印象だ。

1つ目のモデルは実用一直線。スピーカー、マイク、カメラを内蔵し、Geminiとやり取りしてリアルタイムの案内やヒントを受け取れる。カメラで写真を撮り、目の前の状況についてAIにたずねる使い方も想定されており、物体の識別、進むべき方向の提案、標識の読み取りなど、日常の用事に効く機能を押さえている。派手な見せ場より、使い勝手を優先した賢い出発点だ。

2つ目のモデルは一段と先進的だ。同じAI機能に加えてレンズ内にディスプレイを備え、ターンバイターンのナビやリアルタイム翻訳の字幕など、必要な情報を必要な瞬間に“ひと目で”見せてくれる小さな表示面として働く。

どちらのモデルもスマートフォンと接続し、多くのデータ処理はスマホ側で行われる。プラットフォームはウェアラブル向けのAndroid XR。開発にはSamsungが関与し、デザインはWarby ParkerとGentle Monsterが担当する。スタイル、軽さ、そして一日中かけていられる快適さを重視し、単なるガジェットとして目立つのではなく、日常に自然に溶け込むことを目指す姿勢が感じられる。