グーグルの『Project Aura』は次世代ARデバイスの製品化に向けたプロジェクトで、ARデバイスメーカーのXreal、デバイスに搭載するチップを開発するクアルコムとの協業で進められています。具体的な製品の発売時期は未公表ですが、5月のGoogleI/Oでは試作機を使ったデモとして、グーグルのAI『Gemini』を使ったリアルタイム翻訳や道案内の様子が披露されています」
2つの大きな違いは何か。
「メタのAria Gen 2は『研究者のデータ収集用』、グーグルのProject Auraは『一般向け製品のリリースを前提としたプロジェクト』という違いがあります。レストランで新メニューを開発する場合にたとえるなら、Aria Gen 2は『シェフが厨房で試行錯誤している』段階、Project Auraは『メニューの方向性が固まり、常連客向けに試食会を実施している』段階というイメージです。どちらのメニューもまだ、一般客が注文して食べることはできません。
グーグルのProject Auraは、この先のロードマップがある程度明らかになっています。まず、6月11日には、米国で開催されているXRカンファレンス『Augmented World Expo』のなかで、より詳細な情報が発表されました。そして、今年後半には開発者向けツールの提供を開始するとされています。製品の発売時期は公式には発表されていませんが、早ければ2026年には登場するのではと噂されています。
一方のメタは、具体的なロードマップを公表していません。とはいえ、将来的にAria Gen 2で得られた知見をベースにした製品がリリースされる可能性は高いと思われます。その際には、2社のグラスは似たような機能を備えた競合製品になるかもしれません」(酒井氏)
では、どのような用途や利用メリット、活用法が想定されるのか。
「Project Auraのデバイスは、1日中かけたまま使うことを想定して設計されています。つまり、『今までスマホを操作してやっていたことを、スマホと接続したグラスからハンズフリーで行えるようになる』というイメージです。Google I/Oのデモでは、目の前の人が話す言葉をリアルタイムで翻訳してグラスに表示したり、グラス越しにナビを表示したり、グラスを使ってメッセージに返信したりといった操作をする様子が披露されました。スマホをポケットから出して画面を見ながら操作しなくても、グラスとAIの音声操作を使って、さまざまな操作ができるようになると期待されています。
『グラス型のデバイス』には、すでに一般販売されている製品もありますが、同じような形状でも、機能や用途でいくつかに大別できます。
(1)次世代型:Project Auraで予告されているサングラス型のデバイスや、Meta Ariaで集めた技術をベースに将来開発される可能性のあるメタのデバイス。常時装着してスマホのように使用(未発売)。
(2)仮想ディスプレイ型:PCやスマホの画面を映し出すデバイス。大画面の外部ディスプレイとして使用(XREAL Oneなど)
(3)現場支援型:ヘルメットなどに装着して、現場作業の補助に使われるデバイス。搭載されたカメラで装着者が見ている映像を遠隔にいる人に共有したり、ディスプレイに作業指示を表示したりできる。
(4)その他:オーディオ再生に特化したもの(Bose Framesなど)や、心拍センサーなどを備えたスポーツ向けのデバイス(ENGO 2など)など。
なかでも違いが分かりづらいのは、仮想ディスプレイ型(現行のXREAL製品など)と、これから登場する次世代型かもしれません。大きな違いは、仮想ディスプレイ型が『必要なときだけ装着して、特定の用途だけに使用する』ものであるのに対して、次世代型は『1日中装着する前提の汎用型』になる点です。私もXREALの歴代モデルを使っています。画質や使い勝手は年々向上していると感じる一方で、長時間使っていると目が疲れてくるので、長くても数時間が限度だなと感じています。そして、サングラスに近い外観でかなり威圧感があるので、どこでも使えるとはいいがたいです……笑」(酒井氏)
(文=BUSINESS JOURNAL編集部、協力=酒井麻里子/ITジャーナリスト、ライター)