特集 特集

新製品から見えてくるApple“独自”の戦略

【WWDC2017】Special Report

文●松村太郎写真●松村太郎

世界最大のテクノロジー企業は今何を見据え、どこへ向かおうとしているのか?

アップルという会社を今一度知らしめた基調講演

今回のWWDCは、予想以上に、ハードウェアへのフォーカスが当たるイベントだった。しかし、WWDCの主役はソフトウェアであり、アプリ開発環境であり、開発者だ。今回のWWDCを取材して筆者が感じたことは、2点。まず、テクノロジーのトレンドにきちんと応えたこと。同時に、そのトレンドに対して、アップルがどのように考えているのかを示せたことだった。

アップルはしばしばシリコンバレーにおいて、先端的なテクノロジーの「ストッパー役」に映ることがある。スタートアップ企業や他のプラットフォーム企業が次々に見せる新しいアイデアに対して、アップルは取り組みを見せる時期を遅らせたり、年に1度の新ハードウェア、新OSリリースというサイクルによって周りに素早い変化が起きることを拒んでいる。

アップルが仮想現実(VR)についてこれまで取り組んでこなかったことに対して、アドビでVR広告などを手がける担当者から、「アップル次第で市場が開ける」と、アップルが取り組むことに期待を寄せる発言もあった。実際に、セットトップボックス、スマートフォン、タブレット、スマートウォッチと、アップルが取り組んで市場が生まれたテクノロジーの分野は数多い。

アップルは、人々が受け入れられる最良のタイミングで、最良の方法で、テクノロジーを我々の生活に届けようとしている。それ故に、最先端を追いかける企業にとって、アップルの動きが遅く感じると同時に、そのテクノロジーがメインストリームへと駆け上がる「シグナル」として、アップルが動くことへの期待も大きいのだ。

今回のWWDCでアップルが新たに取り組んだ領域は、モバイルでの機械学習や人工知能の処理、モバイルでの拡張現実(AR)、MacでのVR制作環境、写真とビデオの保存フォーマットの変更、AIスマートスピーカ、アップルウォッチのジムマシンとのNFCによる連携などがそれにあたる。同時に、WWDCに集まる開発者たちは、これらの新しい技術を活かしたアプリ作りに取り組む。こうして、アップルは、テクノロジーの時代を作っていくのだ。

WWDCから、3つのテーマで、アップルなりの方法論を読み解いていこう。

iPhoneが向かうのは分散型機械学習プラットフォーム

まず1つは、機械学習に関するアプローチだ。機械学習は、人工知能を構築する中核技術として、各テクノロジー企業が取り組んでいる領域だ。アップルも2011年にiPhone 4SにSiriを搭載してから投資をし、力を入れている領域だ。

しかし、現在の機械学習や人工知能のトレンドを見てみると、アマゾンやグーグルは、人気のあるクラウドコンピューティングサービスを自前で用意し、そのリソースを存分に使って、世界最高レベルの機械学習環境を整えている。その結果が、アマゾンエコー(Amazon Echo)に搭載される音声アシスタント「アレクサ(Alexa)」の発展であり、世界最高レベルの棋士をなぎ倒すグーグルの「アルファゴー(Alpha Go)」なのだ。

アマゾンやグーグルに比べると、アップルのこの領域に対する取り組みは、さほど派手には映らない。しかし、その理由についても、今回のWWDCで明らかになった。Siri主体では、開発者が主役になり得ないからだ。

アップルは今回、「コアML(Core ML)」と呼ばれる機械学習のAPIを発表した。既存のiPhoneやiPad、アップルウォッチ、アップルTV、そしてMacの上で、効率的に機械学習の処理を行うことができるようになる。開発者は、自分で機械学習のプログラムを用意せず、自分のアプリの中で機械学習を活かすことができるようになる。

この発表が意味することは、同じ機械学習ながら、アマゾンやグーグルのように中央にある巨大な処理能力のコンピュータで処理するか、ユーザの手元にあるiPhoneやiPadやアップルウォッチの中で、そのユーザのためだけに処理するか、という違いを見せた、ということだ。

見方を変えれば、機械学習によるパワーやメリットが、アマゾンやグーグルに集約されるか、iPhoneアプリ開発者全体で共有されるか、という違いでもある。アップルが選んだのは後者であり、iPhone向けアプリで機械学習を積極的に活かしてほしい、というメッセージでもあるのだ。

拡張現実の展開もプラットフォームの機能として

2017年のトレンドとして急浮上しているのが拡張現実(AR)だ。

4月にフェイスブックは、「カメラをAR第一のプラットフォームにする」として、ARを活かしたサービスを同社のアプリ内で展開する仕組みを作った。また、グーグルも、「グーグルレンズ」と言われるAR活用手段を提案し、優秀な同社のグーグルアシスタントに搭載した。

アップルは今回のWWDCで、ARについても、iOS 11に「AR Kit」というAPIを備えることで、アプリ開発者が簡単にARを活用したアプリを作成できる環境を整えた。

ここでも、アップルの方法論は、前述の機械学習と同じだ。アップルが何か具体的な提案をするのではなく、開発者が新しいテクノロジーを活かしたアプリを開発できる環境を整える、という点に注力している。

アップルが披露したARのデモは、平面の認識とその上へのオブジェクト配置、光源と影の処理が行える。iPhoneやiPadを用いると、赤外線などの補助的な測距センサを使わず、ただカメラを向けるだけで、連続的にこれらの処理を行っていた。ただ、このデモは、非常に基本的な、お世辞にも目新しいものとは言えなかった。そのことこそ、開発者が活用について自由に取り組んで欲しい、という意思表示でもある。

 

 

  • a876733f94031547f57506e101d86391.jpg

今年のWWDCはカリフォルニア州サンノゼにあるマッケナリー・ コンベンションセンターで6月5日~9日に開催された。




続きを読むためにはログインが必要です。
月額720円ですべてのコンテンツの閲覧が可能になります。
下のボタンより、お申込手続きを行ってください。

  • ログイン
  • 会員登録