Mac業界の最新動向はもちろん、読者の皆様にいち早くお伝えしたい重要な情報、
日々の取材活動や編集作業を通して感じた雑感などを読みやすいスタイルで提供します。

Mac Fan メールマガジン

掲載日: 更新日:

パーソナルAI「Apple Intelligence」の対応デバイスが“限られる”理由

著者: 今井隆

パーソナルAI「Apple Intelligence」の対応デバイスが“限られる”理由

Photo●Apple Newsroom

NPUとはなにか

NPU(Neural-Network Processing Unit)とは、AI(人工知能)の機能のうち機械学習の推論を専門に処理するプロセッサを指す。Appleシリコンに搭載されるNeural Engineもその一種で、2017年発売のiPhone Xに搭載された「Apple A11 Bionic(0.6TOPS)」で初めて採用され、Face ID(顔認証技術)やカメラ撮影のポートレートモード(人物の識別)などに利用されている。

NPUのコアであるニューラルネットワークは人間の脳の仕組みをモデルとして設計されており、入力レイヤー、中間レイヤー、出力レイヤーで構成されている。中間レイヤーは隠れレイヤーとも呼ばれ、このレイヤーではニューロンを模した演算器が網の目のように接続されることで、複雑なデータを認識したり学習することができる。

NPUはあらかじめ学習した膨大な情報(これを一般的に学習モデルという)をベースに、入力された情報から「判断」などの出力を導く「推論」と呼ばれる処理を行う。同じような処理はCPUやGPUなどでソフトウェアを使って行うこともできるが、NPUはより高速かつ省電力でこの処理を行えることが最大の特徴だ。NPUは大量の演算ユニット(ニューロン)を内蔵し、これを並列かつ同時に動かすことで高速な処理を実現している。また各演算ユニットは非常にシンプルで役割も単純、精度も限定的なことから、限られたトランジスタ数で構成されておりエネルギー消費が極めて少ない特徴を持つ。

CPUは高性能で多機能な演算ユニットを少数備えて順次処理を行うのに対して、GPUはシンプルな演算ユニットを多数備えて超並列演算を得意とする。NPUは極めてコンパクトな演算ユニットを多数マトリックス状に配置して相互に接続し、人間の脳細胞(ニューロン)を模した構造になっていることからその名がある。

NPUとGPUの違い

NPUが登場する以前、機械学習といえば「GPU(Graphics Processing Unit)」が主流だった。GPUはグラフィック上の大量のピクセルに高速な描画を行う必要性から、CPUと比べて数倍〜数十倍の演算コアを持ち、超並列プロセッシングを得意とする。

また膨大な数の演算コアの処理を支えるため、メモリも高速広帯域で接続されており、こちらもCPUとは桁違いの性能を持つ。これらの特徴が機械学習にも最適なことから、最近ではグラフィック表示機能を持たないAI処理用のGPUが数多く登場し、スーパーコンピュータなどにも採用されている。

ちなみにNPUで使用するAI処理の「学習モデル」の作成にも、ほとんど場合GPUが利用されている。学習モデルの作成には膨大なデータベースと大容量のメモリ、そして高速な並列処理能力が求められるためだ。

たとえば最新のNVIDIAのGPU「GeForce RTX 4090」はAI処理のためのTensorコアを備えており、その演算性能は1300TOPSを超えるとされる。最新のAppleシリコン「M4」のNeural Engineは38TOPSと発表されていることからも、RTX 4090のAI処理能力が如何に優れているかがわかる。

ただし、その電力要求は450Wと非常に大きく、モバイルデバイス(iPhone、iPad、MacBookなど)には到底搭載できない規模だ。そこで推論処理に特化したハードウェア「Neural Engine(NPU)」を開発し、機械学習を優れたエネルギー効率で処理できるようにすることで、バッテリ容量の限られたiPhoneなどにもAI機能を搭載できるようになった、という経緯がある。

NVIDIAのGPUは古くからAIアクセラレータとして活用されており、現在では同社のGPUなくしては生成AIの発展は考えられないとまで言われるほどその影響力は大きい。その性能と汎用性は他のプロセッサを寄せ付けない反面、エネルギー消費量が大きくスマートフォンなどのモバイル製品への搭載は難しい。https://www.nvidia.com/ja-jp/geforce/graphics-cards/40-series/

生成AIとNPU

Appleは2024年6月に開催したWWDC24で、生成AI機能を備えた「Apple Intelligence」を発表した。Apple Intelligenceの最大の特徴は、ユーザ個人の状況(パーソナルコンテクスト)を理解して学習する点にある。つまり一般的なAIサービスとは異なり、AI自身がユーザの置かれている状況やオペレーションなどの(プライベートな)情報を蓄積して学習し、それをもとに各ユーザにもっとも有意義な(オプティマイズされた)情報や機能を提供する、というものだ。

この機能を実現するうえで重要なことはセキュリティの確保とプライバシーの保護であり、そのためにはパーソナルコンテクストを端末の外に持ち出すことは好ましくない。つまり、ほとんどのAI処理を端末内で完結させること(エッジAI)が重要になる。その意味でもNeural Engineは、Apple Intelligenceの機能をエッジAIで実現するためには欠かせない存在だと言えるだろう。

Apple Intelligenceが利用できるのは、現時点ではMシリーズのAppleシリコンを搭載したMacおよびiPadと、iPhone 15 Proに限定されている。A14 Bionicと同じNeural Engine(11TOPS)を搭載するM1はサポート対象で、Neural Engineがより強化されたA16 Bionic(17TOPS)ではサポートされないのはなぜか? おそらくその違いは、Appleシリコンに搭載されたメモリにあるだろうと考えられる。

MシリーズはM1を含めてすべてのモデルが8GB以上のメモリ(ユニファイドメモリ)を搭載するのに対して、Aシリーズで8GB以上のメモリを搭載するのはA17 Proだけだ。AI処理を動かすには学習モデルをメモリ上に展開する必要があるが、生成AIはそのモデルのサイズが非常に大きい。デバイス本来の機能を維持しつつ、生成AIをストレスなく動かすためには十分なメモリ容量が必要になる。iPhoneのサポート対象モデルが制限されているのは、これが原因ではないだろうか。

WWDC24で発表されたAppleのパーソナルインテリジェンス「Apple Intelligence」は、ユーザ個人の背景をAIで理解し、ユーザにとって有益なインテリジェンスを提供することを目的としている。その機能は個人情報に深く関わることから、プライバシーの保護とセキュリティの確保は極めて重要だ。

Neural Engineの将来

今回、AppleはデバイスでのAI利用の拡大に向けて大きな一歩を踏み出した。Apple Intelligenceのサービス拡張や性能向上は、今後も急速に進んでいくだろう。それを支えるのはNPUであるNeural Engineを核とした、Appleシリコンの進化だ。

それでもエッジAIの性能を超える処理能力が必要な場合のために、Appleは今回「Private Cloud Compute」と呼ばれる強力なセキュリティとプライバシー保護機能を備えたクラウドサーバを用意した。しかし、Neural Engineがより進化すれば、ほとんどの処理をエッジAIで行うことができるようになり、通信トラフィックやネットワークへの接続状態を心配する必要がなくなるはずだ。

Appleシリコンのスケーラビリティは柔軟に設計されており、今後さらにNeural Engineの性能を増強することは難しくないだろう。また生成AIで必要になる新たな機能や性能に合わせて、Neural Engine自体の機能も次のレベルへと進化するはずだ。AI活用に本気になったAppleの、今後の進化からは目が離せそうにない。

驚くべきことに、M1 Maxには16コア構成のNeural Engineが2基搭載されていたが、片方は使われていなかったようだ。この予備のNeural EngineはM2 MaxやM3 Maxには見られないが、Appleがその気になればNeural Engineを増強することは難しくないことが見て取れる。
Apple M4はNeural Engineを強化した(38TOPS)だけでなく、CPUコアにも新世代のMLアクセラレータを搭載している。高性能コアおよび高効率コアともに次世代に更新されており、これは可変長マトリックス演算「SME(Scalable Matrix Extensions)」のサポートではないかと推測される。

著者プロフィール

今井隆

今井隆

IT機器の設計歴30年を越えるハードウェアエンジニア。1983年にリリースされたLisaの虜になり、ハードウェア解析にのめり込む。

この著者の記事一覧

おすすめの記事