AI搭載型スマートグラス、一日中装着する時代に?グーグルとメタの最新デバイスでみえた未来

AI搭載型スマートグラス、一日中装着する時代に?グーグルとメタの最新デバイスでみえた未来の画像1
グーグルのAndroid XR 搭載スマートグラスの利用イメージ(公式サイトより)

●この記事のポイント
・グーグル、「Android XR」を利用し、「Gemini」を搭載するメガネ型デバイスの試作機を発表
・メタ、ARメガネの研究プロジェクト「Project Aria」の最新の研究用グラス「Aria Gen 2」の詳細を発表
・メタのデバイスは研究開発用、グーグルのデバイスは一般向け製品のリリースを前提

 大手テック企業2社のAI搭載スマートグラス(メガネ型デバイス)の最新デバイスの情報が出揃った。米グーグルは5月20日、スマートグラスの開発プラットフォーム「Android XR」を利用し、生成AI「Gemini」を搭載するメガネ型デバイスの試作機を発表。6月4日には米メタが、ARメガネの研究プロジェクト「Project Aria」の最新の研究用グラス「Aria Gen 2」の詳細を発表した。それぞれの注目すべき特徴や違いは何であるのか。また、どのような用途や利用メリット、活用法が想定されるのか。専門家の見解を交えて追ってみたい。

●目次

異なる言語を話す人同士の会話も可能に

 グーグルは2012年にスマートグラス「Google Glass」を発表し(2023年に販売中止)、普及には至らなかったが、昨年にはXR(仮想現実・拡張現実)デバイスの開発プラットフォームである「Android XR」を発表し、同領域に注力していく姿勢をみせていた。すでにサムスン電子と開発したヘッドセット型の「Project Moohan」を発表していたが、5月には新たにより軽量のスマートグラス型の試作機を発表。カメラ、マイク、スピーカーを内蔵し、Geminiと連携。スマートフォンのアプリを利用でき、レンズ内のディスプレイに必要な情報が表示される。「スマートグラスはあなたが見たり聞いたりしているものを理解し、状況を把握し、重要な情報を記憶して、一日を通してサポートを提供」(公式サイトより)するという。メッセージ送信、Googleマップと連動したナビゲーション、写真撮影といった機能があり、自動翻訳機能を使えば異なる言語を話す人同士の会話も可能になる。

 一方、これまで「Meta Quest 3」や「Ray-Ban Meta」を販売していたメタは前述の「Project Aria」を推進しており、2020年に「Aria Gen 1」を公開。今年6月にはその後継デバイスにあたる「Aria Gen 2」の詳細を公開した。コンピュータービジョン、機械学習、センサー技術の最新技術を融合したウェアラブルデバイスであり、 Gen 1から快適性とフィット感が向上。高度なカメラベースの視線追跡システムを搭載し、片目あたりの視線、輻輳(ふくそう)点、瞬き検出、瞳孔中心推定、瞳孔径、角膜中心など豊富な情報を提供し、装着者の視覚的な注意と意図をより深く理解。人間とコンピューターのインタラクションの新たな可能性が開かれるという。また、視覚慣性オドメトリ(VIO)を用いて空間座標系内でメガネを追跡でき、シームレスなナビゲーションとマッピングが可能になっている。

2つの大きな違い

 主な特徴や注目すべき特徴について、ITジャーナリストの酒井麻里子氏は次のように解説する。

「メタ『Aria Gen 2』は、あくまでも研究開発用のデバイスで、これ自体が製品化されるわけではありません。グラス型のデバイスに複数のカメラや視線追跡機能、手の動きを検知する3Dハンドトラッキング、心拍センサーなどが搭載され、装着者自身やその周囲の環境を検知してデータを集めることができるようになっています。加えて、デバイス内で処理が完結する(オンデバイス)AIも搭載され、収集したデータを扱えるようになっています。研究者がこのデバイスを使ってデータを集め、AIをトレーニングすることが主な目的です。

オススメ記事

まだ記事はありません。