アップルはどうしてARに力を入れているの?|MacFan

特集 特集

iPhoneこそが最大のARプラットフォーム

アップルはどうしてARに力を入れているの?

文●栗原亮氷川りそな写真●黒田彰

9月に開催されたスペシャルイベントでアップルが強調していたのが、AR(拡張現実)でした。しかし、なぜARなのか? アップルがそこに注力するのは「より豊かな生活」を提供するためなのです。

新しいiOSの真価とは

毎年この時期は新しく登場したiPhoneに注目が集まりますが、最新のiOSも楽しみの1つです。iOS 11にはたくさんの新機能が搭載されており、特に今回のアップグレードは「アップル史上もっとも野心的なアプローチ」とも言われています。なぜなら、システム全体を支えるフレームワーク部分への取り組みが大胆に行われているからです。

ここ数年のアップルは、大規模なテクノロジーの導入を進めています。たとえば「AI(Artificial Intelligence:人工知能)」。ビジネスシーンで目立つようになったキーワードですが、ベース技術となるML(Machine Learning:機械学習)は高いコンピュータの処理性能を必要とするため、身近なところまでは普及してきませんでした。しかし、iOSデバイスに使われるSoC(System-on-a-Chip)の急激な成長に伴ってこれがいよいよ実用段階に進んでいます。パーソナルアシスタントであるSiriの言語解析や、写真アプリにある「メモリー」や「ピープル」といった分析、自動学習などに使われているだけでなく、新たに「コアML(CoreML)」としてiOS 11に組み込まれたため、これを活用したアプリが今後増え、日常生活の中で活用されることが期待されています。

次世代のコンピュータ技術の代表格として知名度を高めているAIと同等、もしくはそれ以上にいま熱い注目を浴びているものがAR(Augumented Reality:拡張現実)です。こちらもがiOS 11に搭載された「ARKit」によってどんなアプリでも使えるようになります。これは、iOSデバイスが「私たちのライフスタイルを一変させるチカラを持つ」と言っても差し支えないくらい大きな革新です。

体験が進化する

このARにアップルが本格参入するのは、どういった意図があるのでしょうか。この技術に似たものとして有名なのがVR(Virtual Reality:仮想現実)です。コンピュータが人工的な環境を作り出し、あたかもそこにいるかのような感覚を体験できるこの技術はゲームやアトラクションなどで使われる専用機などが登場したことで私たちが利用できる機会も格段に増えました。

最近ではエンターテインメントの分野だけでなく「その場にないものを作り出す」という特性を利用して、医療機関における手術のサポート、飛行機や宇宙船といった特殊な環境での訓練のサポートなどにも活用が広がっていますが、これを体験するにはHMD(ヘッドマウントディスプレイ)と呼ばれる専用のゴーグルが必要になります。

一方で、ARはゼロから仮想空間を作り出すのではなく、私たちが普段見ている日常空間に情報を加える(拡張する)ことを目的とした技術です。ポスターや展示物などにiPhone(もしくはiPad)のカメラをかざしてディスプレイを覗き込むと、特別なコンテンツや商品説明の動画などが流れるサービスを見たことがある人も多いのではないでしょうか。このスタイルはARの典型的なものと言えます。

ARはこのほかにメディアアートやゲーム、エンターテイメントの分野での利用が主なものでしたが、より日常的な使い方へとアプロチーの裾野を広げています。たとえば、地図にカメラをかざすと3Dの標高データが表示される機能はどうでしょうか。平面だけではイメージしにくい「高さ」という情報もARを使えば簡単に視覚化することができるためトレッキングやハイキングなどで大いに役立つでしょう。ほかにも、地下鉄の構内でカメラをかざすと最寄の出口がどこにあるのかをAR機能でナビゲートしてくれれば、既存の地図よりもぐっと使い勝手が増すでしょう。

こういった現実世界との「橋渡し」をすることで付加情報を積極的に利用できるのがARの特徴であるため、ディスプレイの中だけで完結しがちだったアプリは今後、新たな体験を私たちに提供してくれるでしょう。加えて、ARはカメラとディスプレイという既存のハードウェアを組み合わせることで実現できるといったメリットもあり、さまざまな要素がアップルにとって追い風になっているのは間違いないようです。

 

 

ARKitによって開発されたアプリはiPhone 6s以降であれば動作しますが、中でも新しいiPhone 8 Plus/iPhone Xのカメラは究極のAR(拡張現実)体験を実現できるようにカスタムチューンされています。それぞれのカメラは個別に調整されており、ジャイロスコープと加速度センサによって正確なモーショントラッキングが可能。強力なA11 Bionic CPUによってシーン認識が行われる一方で、イメージシグナルプロセッサがリアルタイムで照明光推定を行います。ARKitを使うことで、iOSの開発者たちはTrueDepthカメラとリアカメラを利用した没入感のあるゲームやアプリを作ることができます。

 

 

ここがスタートライン

ARはこれからどんな未来を私たちにもたらすのでしょうか。1つめのキーポイントとなるのは、MLが統合された「より賢いAR」が提供されることでしょう。ディープラーニング(深層学習)というML手法を使えば「そこにあるものは何なのか」をより正確に、素早くiOSデバイスが認識できるようになります。

応用例を考えて見ましょう。たとえば、製品の取扱説明書は従来のマニュアルの形ではなくカメラにかざすことでそれが何の製品なのかを示し、それぞれの部分の名称や使い方を表示することができるようになります。より具体的に「ここを操作する」とナビゲートしてくれるようになれば、誰でもその製品を簡単に使えるようになります。

ほかにもジュースやフードなどをカメラにかざすことで、カロリー計算や栄養価といった情報をリアルタイムで表示してくれるヘルスケアアプリなども実現可能になります。

ARやVRがアップルだけでなくグーグルやマイクロソフトといった大きな企業でいま盛んに研究が行われている一方、もうひとつのキーテクノロジーとして台頭しているのがMR(Mixed Reality:複合現実)です。こちらは「現実」と「仮想」という境界線を融合させて取り払うというアプローチを行っています。

マイクロソフトが現在開発を行っている「ホロレンズ(Holo Lens)」はこのMRをすでに体感できるデバイスです。すでに車のメンテナンス支援ツールや室内の気流シミュレーション、建築物のプレゼンテーションなど数多くの事例が日本国内でもあり、技術面のみならず大きな成長を見せています。

しかし、MRはVR同様にHMDが必要なことや、ハードウェアのコストが高価(現状では最低でも約33万円)といったところを考えると「誰もが使える」という現状にはありません。一方、ARはすでに市場に存在する数千万単位のiOSデバイスで利用できるのがアドバンテージです。

今年iPhoneは10周年の節目を迎えましたが、この10年を振り返ってみるとiPhoneの成長はアプリによって牽引されたと言い換えることができます。アップルがアップストア(App Store)というコンテンツマーケットを用意し、そこにさまざまなデベロッパーが開発した秀逸なアプリがたくさん出揃い、そしてそれらを人々が手元のデバイスで利用することで、私たちの生活はモバイルを軸に大きく変わりました。今では多くの人がiPhoneなしでは日常を送れないほど、アプリは私たちの日常に溶け込んでいます。つまり、アップルにとっては、ARを使ったアプリを従来のスキームと同じように拡大させることが今後のさらなるビジネス拡大につながるのです。よって、そのためにはARアプリをより多くの人々に使ってもらう必要があり、「iPhoneでAR」こそがその理想的な第一歩となるのです。アップルが目指す「より豊かな生活(Enriching Life)」というテーマに相応しい新たな取り組みが、今まさに始まろうとしています。

 

 

VRは空間そのものをすべて作り出すことによって、普段はできないような体験も実現できるのが大きなメリットですが、HMDを使う必要があるため利用シーンには制限があります。一方でARは、iPhoneやiPadのカメラとディスプレイだけで体験できる手軽さが魅力になります。

 

今後のライフスタイルの礎となる技術

6月のWWDCで初披露されたiOS 11。標準アプリの進化に加え、機械学習や仮想現実をフレームワークとしてシステムに組み込むことが発表されました。こういった技術が一時のブームではなく今後のライフスタイルを支えていく重要なものだとAppleが考えているからにほかなりません。