Mac業界の最新動向はもちろん、読者の皆様にいち早くお伝えしたい重要な情報、
日々の取材活動や編集作業を通して感じた雑感などを読みやすいスタイルで提供します。

Mac Fan メールマガジン

掲載日:

「A19 Pro」から見えた! Mac向け次世代Appleシリコンの進化の道筋

著者: 今井隆

「A19 Pro」から見えた! Mac向け次世代Appleシリコンの進化の道筋

Photo●Intel

Neural Acceleratorが変える Macの未来

iPhone 17シリーズ/iPhone Airに採用されたA19シリーズのGPUコアには、Appleシリコン初となる「Neural Accelerator」が搭載されている。すでにM4シリーズにはNeural Engineと、CPU内に「次世代ML accelerator」がAIアクセラレータとして搭載されているが、もしMac向けAppleシリコンのGPUに「Neural Accelerator」が搭載されれば、第3のAIアクセラレータとなる。

次世代ML accelerator
M4シリーズの高性能CPUコアおよび高効率CPUコアに統合された「Next-generation ML accelerator」は、AI処理を加速するための行列演算ユニットだ。M4では新たにCPUに「Armv9-Aアーキテクチャ」を採用したことから、このアクセラレータは「SME2(Scalable Matrix Extension 2)」エンジンのことを指していると考えられる。
Photo●Apple




ライバルはすでにGPUにAIアクセラレータを搭載

GPUへのAIアクセラレータの搭載は、近年のAIサーバ向けプロセッサはもちろん、PC向けプロセッサでも当たり前になりつつある。

NVIDIAは2017年5月にリリースしたデータセンター向けGPU「Tesla V100」に、行列演算アクセラレータである「Tensorコア」を搭載。翌2018年にリリースされた汎用GPU「GeForce RTX 20シリーズ」以降にも継続して採用されている。このTensorコアの登場が、その後NVIDIAがAIデータセンター向けプロセッサの世界的覇者となる足掛かりを作ったといえる。

NVIDIA V100
2017年5月に発表されたNVIDIAのV100は計640基のTensorコアを搭載し、ディープラーニング性能において100TOPSの壁を突破した世界初のGPU。現在では汎用GPUであるGeForce RTXシリーズにも、多くのTensorコアが搭載されている。
Photo●NVIDIA

一方、Appleシリコンのような統合型GPU(プロセッサ内蔵GPU)においても、すでにIntelやAMDが先行している。たとえばIntelのGPUコアであるXe2には「XMX(Xe Matrix eXtensions)」と呼ばれるAIアクセラレータが統合されている。

Intelのモバイルプロセッサ「Core Ultra Series 2(Lunar Lake)」のXe2 GPUもXMXをサポートしており、CPUで5TOPS、NPUで48TOPS、GPUで67TOPS、合計120TOPSのAI性能を発揮するとしている。

またAMDも同様に「Ryzen AIシリーズ」に統合されたRadeon GPUにAI Acceleratorを搭載している。

Lunar LakeのAI性能
Lunar Lakeでは、NPU、GPU、CPUのAI処理能力がそれぞれ高められており、総合AI性能は120TOPSに達するという。中でもGPUはその過半数の67TOPSを稼ぎ出しており、GPUにAIアクセラレータが搭載されることの重要性を示唆している。
Photo●Intel
Xe2 GPUには、従来のグラフィック処理(シェーダ処理)を担うベクターエンジンに加えて、AIアクセラレータであるXMXが追加され、GPUによるAI処理をベクターエンジンからオフロードすることでAI処理性能の底上げとエネルギー効率の向上を両立する。
Photo●Intel

「Mシリーズ」のGPUコアにNeural Acceleratorに載ることの意義

Appleは2025年9月9日(現地時間)開催のSpecial Eventの中で、A19シリーズのGPUにNeural Acceleratorを搭載したことを発表したが、その効果や役割については深く言及しなかった。実際のところ、iPhoneにおけるNeural Acceleratorのわかりやすい効能は、ゲームプレイや動画再生における画質の向上とエネルギー効率の抑制(バッテリ消費の低減)が主体になると思われる。詳しくは以前書いたこちらの記事を参照してほしい。

この発表の中には、見逃せない重要なキーワードが隠されている。それは「iPhone 17 ProのGPUは、iPhone 16 ProのGPUより最大4倍Compute性能が高い」という部分だ。両者のGPUコア数はいずれも6コアなので、Neural AcceleratorはGPUのAI性能を最大4倍引き上げる性能を持っていることになる。

Appleは近年、Windowsプラットフォーム上で動くゲームタイトルをMacやiPad iPhoneに移植することに注力している。そのためのツールが「Game Porting Toolkit」だ。

Windowsプラットフォームで使われるGPUにAIアクセラレータが搭載され始めたということは、移植されるゲームがAI処理を利用することでグラフィック品質がさらに向上し、Appleプラットフォームでの負荷が大きくなる(重くなる)ことを意味している。したがってGPUへのAIアクセラレータの搭載は、iPhoneの将来にとっては必須だったといえる。

Neural Accelerator
「Neural Accelerator」はAppleシリコンでは初採用となるGPUコア内蔵のAIアクセラレータで、GPUにおけるAI処理能力を大きく引き上げる。iPhone 17 Proに搭載された6コアGPUのA19 Proでは、同じ6コアGPUのA18 Proに対して最大4倍のAI処理能力を発揮するという。
Photo●Apple

Appleシリコンは同世代のAシリーズとMシリーズで、同一のコア設計を用いることが多い。たとえばA17 Proで初搭載されたハードウェアレイトレーシングアクセラレータは、翌月発表されたM3、M3 Pro、M3 Maxに採用されている。したがって、A19シリーズのGPUにNeural Acceleratorが搭載されたということは、当然M4シリーズの後継となるAppleシリコンのGPUにもNeural Acceleratorが搭載されると考えていいだろう。




iPhoneとは異なる MacでのNeural Acceleratorの存在意義

もちろんMacにおいてもWindowsのゲームタイトルの移植性が高まることは重要で、Neural Acceleratorの搭載によってその画質やフレームレートが向上することは間違いない。しかしMacにおけるNeural Acceleratorの用途はそれだけではない。

最近はさまざまな分野であらゆる処理に生成AIが使われており、それらをユーザの手元のデバイスで動かす「ローカル生成AI」が急速に発達・普及しつつある。生成AIを手元のMacで動かすメリットについては「ローカル生成AIを楽しむためのMacの選び方【前編】」および「同【後編】」をご覧いただくとして、問題はその性能(生成速度)だ。

Appleシリコンを搭載するMacでは、その特徴であるユニファイドメモリアーキテクチャによって、どのモデルでもコンパクトなサイズのAIモデルを動かすことができる。さらに、Pro、Max、UltraといったAppleシリコンを搭載したモデルを選択することで、大容量メモリと広帯域なメモリアクセスが得られ、より大きなAIモデルを動かすことができる。この点についてApple自身も「数千億のパラメータを持つ大規模言語モデル(LLM)を直接デバイス上で実行できる」と、生成AIでのMacの優位性をアピールしている。

Appleは2024年10月31日に開催されたApple Eventの中で、128GBのメモリを搭載したM4 Max搭載MacBook Proでは「2000億(200B)近いパラメータを持つLLMとやりとりできる」ことをアピールし、ローカル生成AIにも適したプラットフォームであるとしている。
Photo●Apple

だが実際にサイズの大きいLLMモデルを動かしてみるとMacの生成速度は非常に厳しく、NVIDIA GPUを搭載したWindowsマシンと比較してみると、その差に愕然とする。同じLLMモデルで比較してみたところ、プロンプト評価を含めた生成全体に要する時間は、M4 MaxでGeForce RTX 50シリーズのローエンドレベル、M3 Ultraでようやくミッドレンジレベルだ(生成モデルにも依存するのであくまで目安と考えてほしい)。画像生成になるとその差はさらに広がり、Stable Diffusionによる画像生成速度は、最上位のM3 UltraでもGeForce RTX 5090に桁違いの差をつけられている。

AppleシリコンとGeForce RTXのAIスペックバランス
AppleシリコンとNVIDIA GPUそれぞれについて、AI処理が要求するスペックに対する大まかな実力を示した。メモリ帯域はおおむね互角、搭載可能なメモリ容量ではAppleシリコンが大きく勝る反面、GPUのAI処理性能ではTensorコアを備えたNVIDIA GPUが圧倒する。

もちろん、相手は数百ワットクラスの電力を消費するディスクリートGPUであり、iGPUを統合するAppleシリコンと直接比較するのは厳しいかもしれない。しかしローカルAIの生成速度という点においては、NVIDIA GPUに圧倒的な差をつけられているのが現実だ。さらに残念なことに、Macには外部GPU(eGPUなど)によるAI処理性能向上という「最後の切り札」が使えない(サポートされていない)。つまり最上位モデルのMacで性能が足りなかったとしても、それ以上を実現する手段が存在しない(クラウドAIを使うしかない)。

しかしこの状況は、新たに開発されたNeural AcceleratorがMシリーズに搭載されることで大きく変わるかもしれない。AppleがいうようにGPUでのAI処理性能が4倍に向上するのであれば、ローカルAIの生成速度も4倍になると期待できる。さらに単一GPUコアに対するNeural Acceleratorの規模を大きくすれば、さらなるAI性能の向上にも期待できる。

もちろん生成AIの処理速度を向上するには、単にNeural Acceleratorが搭載されただけでは不十分で、その機能をフルに活用するためのフレームワークが必要だ。Windowsゲームタイトルの移植をサポートするGame Porting Toolkitのように、NVIDIAのエコシステムに最適化された膨大な数のAIモデルをAppleシリコンに移植するための支援ツールが提供されることを強く期待したい。

著者プロフィール

今井隆

今井隆

IT機器の設計歴30年を越えるハードウェアエンジニア。1983年にリリースされたLisaの虜になり、ハードウェア解析にのめり込む。

この著者の記事一覧

×
×