着々と進むAIコンピューティング|MacFan

アラカルト “M世代”とのミライ

着々と進むAIコンピューティング

文●松村太郎

2023年のテクノロジー業界において、もっとも注目すべき事柄のひとつが、生成AIの普及でしょう。これまで一部の機械学習技術者や、マイクロソフト(Microsoft)、アドビ(Adobe)、グーグル(Google)といったIT企業の技術者の間で研究されてきた技術が、OpenAIの対話型AIサービス「ChatGPT」の登場で一気に多くの人の目に触れるようになりました。

それ以来、従来は人間が担ってきた仕事がAIに淘汰されていく、といった議論もしきりに行われています。個人的には、AIも一種の“道具”ですので、すぐに人間の仕事を奪うとか、クリエイティブが消失するとか、そういう強い拒否反応を示すべきではないと考えています。

2023年10月末に、M3チップファミリー搭載のMacBookプロが登場しました。私がこのマシンを試用して驚いたのは、「アドビ・プレミアプロ(Adobe Premiere Pro)」のAI文字起こし機能を使ったときのことでした。30分のビデオの文字起こしをなんと1分半でこなすという驚異的なスピードは、作業効率の向上に大きく貢献します。これはM1マックスチップ搭載Macの倍ぐらい速く、クラウドサービスを使って文字起こしをしていたよりも3倍~4倍ほど高速になっていました。Macのアプリ上で、M3チップに搭載されているニューラルエンジン(Neural Engine)を活かして、AI処理を加速していたことがわかったのです。

現在の生成AIの多くは、膨大な量のデータを学習し、これまた膨大な計算能力を誇るクラウドサーバにリクエストを出して、それに応える形で結果が得られるという仕組みが採用されています。そのため、今後生成AIの認知度がさらに拡大し、ユーザ数が2桁、3桁、4桁と増大すればするほど、サーバへの負荷がかかります。その結果、待ち時間がより長くなったり、利用料金の高騰として現れてきたりすると考えられるでしょう。つまり、将来的には、クラウド型の生成AIが現在のように気軽に利用できるという未来は保証できないのです。

そこで、クラウド型とは異なるもうひとつのアプローチである「エッジAI」の可能性が見えてきます。エッジAIとは、データやリクエストをクラウドで処理するのではなく、AIをデバイスに直接搭載し、そのデバイスで処理を行うようにするものです。この方法ならば、AIが普及したことで利用人数が増えても、また通信ができない場所であっても、AIを高速で利用可能になるほか、データをデバイスから送信する必要がないため、セキュリティやプライバシーの面で有利となります。

そうした視点で眺めてみると、アップルは2017年に発表したiPhone Xから、iPhoneの中に「ニューラルエンジン」といわれる機械学習コアを搭載しました。ついにはアップルウォッチ・シリーズ9(Apple Watch Series 9)やアップルウォッチ・ウルトラ2(Ultra 2)に搭載されるS9 SiPでも、4コアのニューラルエンジンが搭載されました。それにより、音声入力やタイマーなどの簡単なリクエストは、アップルウォッチ上で処理され、反応の高速化に大きく寄与しています。

そして、先述のとおり、MacアプリにおけるAI処理の高速さも踏まえて考えると、アップルは独自設計のアップルシリコンで、エッジAIが主流になる未来を想定した準備を整えていると見ることができるのです。主要アップル製品へのニューラルエンジンの整備は、エッジAI時代の準備が着実に進んでいることを物語っているのです。

 

10月末に発表された3つのチップ、M3、M3 Pro、M3 Max。3ナノメートルプロセステクノロジーを使って作られた初めてのパーソナルコンピュータ向けのチップです。

 

 

Taro Matsumura

ジャーナリスト・著者。1980年生まれ。慶應義塾大学政策・メディア研究科卒業後、フリーランス・ジャーナリストとして活動を開始。モバイルを中心に個人のためのメディアとライフ・ワークスタイルの関係性を追究。2020年より情報経営イノベーション専門職大学にて教鞭をとる。