- 週間ランキング
「Google I/O 2017」では多数の発表が行われたが、ARに関しては3つの新機能が披露された。ひとつめは、同社が精力的に開発しているAIをAR体験に導入した「Google Lens」である。
同機能は、スマホカメラに写った画像から被写体を認識したうえで、その被写体に関する情報を表示する機能である。被写体の認識には、言うまでもなくAIが活用されている。
同機能の具体的な利用シーンには、次のようなことが考えられる。例えば、花を見ていて、その花の名前を知りたいとしよう。その花をスマホカメラに写すと、ディスプレイに花の名前が表示されるのだ。他の利用シーンとしては、例えば街で気になるレストランを見かけたとしよう。その店の入り口をスマホカメラに写すと、店の情報はもちろんのことグルメサイトでの口コミも表示される。
同機能の素晴しいところは、今まで検索することによって入手していた情報をAR体験に置き換えるポテンシャルを秘めていることだ。
もっとも同機能に使われるAIが、現時点でどの程度汎用的なのかは不明だ。
ふたつのAR機能は、「Visual Positioning Service」(略称VPS)だ。同機能は、空間認識ARプラットフォーム「Tango」の新機能という位置づけになっている。
「Tango」は、内蔵センサーを使って空間内にあるオブジェクトの位置と大きさを測量する機能を有している。同プラットフォームに対応しているスマホは、現時点では「PHAB2 Pro」「ZenFone AR」の2機種だ。
発表された「Visual Positioning Service」とは、Tangoの空間認識機能を1CM以下の精度まで高めたものである。精度が高まった結果、次のような利用法が可能となる。例えば、東急ハンズでボルトを探しているとしよう。探しているボルトを事前に同機能を使って読み込んでおくと、東急ハンズの工具フロアで探しているボルトがどこにあるのかガイドしてくれるのだ。
同機能に関して、GoogleのVR部門ヴァイス・プレジデントClay Bavorは「GPSは屋外移動時にユーザーをガイドするが、VPSは屋内に置かれたモノがある場所をガイドする」と説明している。
みっつめの機能は、VR教育アプリ「Google Expeditions」のAR機能である。
Googleが開発した同アプリは、本メディアでも以前に報じているのだが、Google Cardboardのような簡易なモバイル型VRヘッドセットを使ってVR教育コンテンツを体験できるものだ。
このアプリに新たにAR機能が追加された。もっとも、このAR機能を使うためにはTangoに対応したスマホが必要となる。
同機能を簡単に言うと、スマホディスプレイにARオブジェクトが表示されるのだ。以下の動画を見ると一目瞭然である。
以上の3つのAR機能のうち、最も注目すべきは「Google Lens」であろう。というのも、同機能はGoogleを「ARプラットフォーマー」の地位に押し上げるポテンシャルがあるからだ。
すでに説明したように同機能はAIを活用する。AIに画像認識させるには、AIに学習させる必要がある。よく目にする日用品に関してはすでに学習済みであろうが、例えば植物の名前や商品の名前は新たに学習する必要があるだろう。そうなると、個々の目的を達成するために学習された多数の「Google Lensアプリ」が開発される可能性がある。
それゆえ、Google Lensは、個々の「Google Lensアプリ」に共通して活用される「プラットフォーム」的な機能となるかも知れないのだ。
以上のことは、推測の域を出ない。そうは言っても、Google Lensの応用範囲が広いのは明白である。今後、同機能からどのようなARアプリが開発されるか注目されるところである。
「Google Lens」の発表を報じたUploadVRの記事
https://uploadvr.com/new-google-lens-shows-some-ar-potential/
「Visual Positioning Service」と「Google Expeditions」のAR機能の発表を報じたRoadtoVRの記事
http://www.roadtovr.com/googles-visual-positioning-service-announced-tango-ar-platform/
Copyright ©2017 VR Inside All Rights Reserved.