Mac業界の最新動向はもちろん、読者の皆様にいち早くお伝えしたい重要な情報、
日々の取材活動や編集作業を通して感じた雑感などを読みやすいスタイルで提供します。

Mac Fan メールマガジン

掲載日:

「Apple Intelligenceのために設計」の条件とは。使えないモデルがあるのはなぜ? AI時代に求められるメモリ容量とNPU性能

著者: 牧野武文

「Apple Intelligenceのために設計」の条件とは。使えないモデルがあるのはなぜ? AI時代に求められるメモリ容量とNPU性能

画像●Apple

最新のiPhoneのモデルには、「Apple Intelligenceのために設計」というコピーがつけられている。iOSのアップデートに比べて、その対象外になるデバイスが多く、落胆している人もいるのではないだろうか。

一体、この基準はどこにあるのか。これが今回の疑問だ。

※この記事は『Mac Fan 2025年7月号』に掲載されたものです。

なぜ、Apple Intelligence対応モデルは限られるのか。Neural Engineの重要性

2025年4月から日本語でも利用可能になった「Apple Intelligence」。すでにお使いの方も多いだろう。筆者は仕事柄、校正とボイスメモのテキスト書き起こし機能は、もはや手放せなくなっている。細かな課題は残るものの、十分実用的なレベルだ。

残念なのは、すべてのAppleデバイスで利用できるわけではなく、「Apple Intelligenceのために設計」されたモデルでなければ動作しないこと。さて、「Apple Intelligenceのために設計」とはどのような基準なのだろうか。

「Apple Intelligenceのために設計」されたデバイスの一覧。iPhoneではA17 Pro以降、MacなどではM1以降になる。画像●Apple

AIを動かすには、並列計算するNPU(Neural Processing Unit)が必要になる。これはニューラルネットワーク演算に特化したプロセッサだ。これがない場合、たとえばCPUでAI演算しようとすると、並列計算が多すぎて膨大な時間がかかり、実用的にならない。MacではMシリーズから、iPhoneではiPhone 8のA11 Bionicチップから「Neural Engine」と呼ぶNPUが搭載されている。




AppleデバイスのNPU性能。Apple Intelligenceの対応/非対応で大きな差が

このようなNPUの演算性能を測る単位として、「TOPS(Tera Operations Per Second)」がある。類似の単位としては、「FLOPS(Floating-point Operations Per Second)」がよく知られている。そして「FLOPS」は、CPUやGPUの性能を測るときに使われる「浮動小数点演算が1秒間に何回できるか」という指標だ。

一方、AI演算では小数点演算はほぼ使われない。ほぼ整数演算だ。そこで、整数を並列演算できるNPUの性能が重要になる。AI時代になって注目されているNVIDIAのGPUは、本来はグラフィックの並列計算をするチップだ。そのため浮動小数点演算に優れているが、NVIDIAはAI時代を見越して整数演算の性能も上げてきている。本来GPUとNPUは別物なのだが、こういった背景があり、AI演算の世界ではどちらも使われるようになっているのだ。

Appleは、このNPUの性能を公開している。その数値を見ると、Apple Intelligence非対応のA16 Bionicでは約17TOPS(1秒間に17兆回)。しかしA17 Proでは約35TOPSと、大幅な性能向上を図っている。A18の性能は公開されていないが、さらにNeural Engineの性能アップを図っているはずだ。

iPhoneに搭載されているチップのNPUの性能。実線から下がApple Intelligence対応だ。
MacBookなどに使用されているMシリーズチップのNPUの性能一覧。すべてApple Intelligence対応だが、M1のNPU性能は高くなく、A14とほぼ同等だ。MシリーズはApple Intelligenceに対応している。

「Apple Intelligenceのために設計」の鍵になるメモリ容量。最低でも8GB以上が必要

MacのMシリーズでは、Apple Intelligenceに対応しているのはM1以降となる。M4のNeural Engineは約38TOPSと高性能だが、M1は約11TOPSと高くない。

さらに、Apple Intelligenceに非対応のA16 Bionicよりも性能が低いのだ。M1が対応できるのであれば、A14 Bionicを使用しているiPhone 12でも対応できるはず。つまり、Neural Engineの性能だけでは「Apple Intelligenceのために設計」されているかどうかは決まらないということになる。

鍵になるのが、iPhoneのメモリ容量(RAM容量)だ。Apple Intelligence対応のiPhoneはメモリが8GBあるが、非対応のiPhone 15などは6GBしかない。また、M1のMacBookエア(2020)も8GBだ。つまり、Apple Intelligenceには最低でも8GBのメモリが必要なようだ。

iPhoneのメモリ容量。実線から下がApple Intelligence対応。つまり、最低でも8GBのメモリが必要なのだ。Apple Intelligence対応のMacBookやiPadは8GB以上のメモリを搭載している。




iPhone16eが“廉価版”というには高かった理由。Apple Intelligence対応のための苦労

AIは、高速な演算だけでなく、大量のメモリも必要とする。AIの本質は人間の脳の神経細胞を模したニューラルネットワークにあり、脳のシナプスに相当するものがパラメータ数だ。このパラメータ数が多いほど、複雑な問題を解ける。

Apple Intelligenceは30億のパラメータを持ち、これをすべてメモリに格納しなければならない。そのため、約2GBのメモリが必要とされている。つまり、システム全体で最低でも8GBのメモリがないと不足してしまう。しかしこれでも力不足であり、サーバ側には約700億のパラメータを持つ大型モデルが用意されている。デバイス側のモデルとサーバのモデルが必要に応じ連係することで、Apple Intelligenceを動かしているわけだ。

注目すべきは、iPhone 16eである。いわゆる廉価版モデルだが、価格が高めに設定されているため、期待していた人たちからは落胆された。しかしメモリは8GBと、前モデルのiPhone SE(第3世代)の4GBから倍増している。一見高額とみられるiPhone 16eだが、Appleは、Apple Intelligence対応のためのコスト抑制に苦労したことだろう。

つまり、AIというのはかなり大がかりなシステムなのだ。

新しいAI時代の到来。スマホ各社が競う、大型AIモデルを小さなデバイスで動かす工夫

SamsungやGoogleは、大容量のメモリを搭載したスマートフォンを発売している。この2社はハイエンドモデルを中心に展開しているため、価格が多少上がっても消費者は納得しやすい。しかし、安さを売りにしている中国メーカーはAI搭載に工夫が必要だ。

特にOPPOは、オンデバイスで70億パラメータ、サーバ側で1800億パラメータを持つ巨大AI「AndesGPT」を搭載している。その中でも最安値のOPPO Reno 11Aは、約4万5000円でメモリ8GBを備え、ストレージを仮想メモリにして自動的に16GBまで拡張する機能を持っている。

また、スマートフォンでは珍しいMoE(Mixture of Experts)アーキテクチャの採用も特徴だ。これはAIモデルを複数の専門家モデルの集合体で構成する手法で、実際のAIの動作には、その中の一部の専門家モデルしか起動しない。そのため、メモリに格納しなければならないパラメータ数は少なくなる。

スマートフォンにおけるAI対応が進む中、各社は工夫を凝らし、大型モデルを小さなデバイスで動かす競争が始まっている。Apple Intelligenceをまずは軌道に乗せることが優先だが、Appleも軽量化手法の研究を進めているはずだ。今後、より大規模なAIシステムを動かせるようになり、機能や精度はさらに向上するだろう。新しいAI時代は、もうすでに始まっているのだ。




おすすめの記事

著者プロフィール

牧野武文

牧野武文

フリーライター/ITジャーナリスト。ITビジネスやテクノロジーについて、消費者や生活者の視点からやさしく解説することに定評がある。IT関連書を中心に「玩具」「ゲーム」「文学」など、さまざまなジャンルの書籍を幅広く執筆。

この著者の記事一覧

×
×