
画像: Nvidia、Intel
ご存知ない方もいるかもしれませんが、NVIDIAはIntelに50億ドルを投資しています。NVIDIAのCEO、ジェンスン・フアン氏によると、このNVIDIAとIntelのエキサイティングな提携により、「NVIDIAのGPUチップレットを統合し、世界最高峰のCPUとGPUを融合させたIntel x86 SoC」が誕生するとのこと。これは、Intelが低迷を脱し、下降軌道を修正するために必要な弾みとなるかもしれません。
しかし、この融合は、例えばIntelのArc統合グラフィックスの改良だけにとどまりません。実際には、AI搭載PCの優位性に向けた一歩です。NVIDIAのGPUは長年、ローカルAIワークロードに最適なハードウェアでしたが、VRAMの制限がありました。Intelの協力を得て、NVIDIAはついにこのボトルネックを解消できるかもしれません。Appleがこれまで発揮してきたのと同じパワーを開発できるのです。
統合メモリについて話している
Intel CPUとNVIDIA GPUを搭載した最新のデスクトップPCを想像してみてください。Intel CPUはマザーボード上のRAMに依存し、NVIDIA GPUは内蔵VRAMに依存しています。通信を行うには、RAMとVRAM間でデータを転送する必要があり、これは非常に遅いのです。
PCゲームの場合、これは大きな問題ではありません。例えば、Nvidia GeForce RTX 5080は16GBのVRAMを搭載しており、ゲームには十分な容量です。しかし、GPUコンピューティングタスクの場合、VRAMは基本的にデータワークスペースとなるため、VRAMの容量は大きいほど良いと言えます。これは、ローカルLLMやその他のローカルAIタスクだけでなく、Nvidia GPU上のCUDAワークロードにも不可欠です。
言い換えれば、デスクトップでローカルLLMを実行したい場合、GPUのメモリに収まる必要があります。128GBものRAMを搭載したデスクトップPCをお持ちでも問題ありません。GPUのVRAMが16GBしかない場合、それが限界であり、次世代AIには到底足りません。

鋳造所
確かに、NVIDIAは世界で最も成熟したGPUコンピューティングシステムと、最速かつ最強のGPUを擁しています。しかし、メモリを大量に消費するタスクでそれらを活用するには、大量のVRAMが必要です。ある時点から、もはやGPUの速度は重要ではなくなり、GPUのメモリに何ギガバイトものデータを格納し、直接かつ高速にアクセスできるかが重要になります。
ユニファイドメモリの登場です。ユニファイドメモリは、CPUとGPUで共有される単一のRAMプールと考えることができます。ユニファイドメモリを使用すると、データをRAMからVRAMへ、あるいはその逆に頻繁に移動する必要がなくなるため、CPUとGPU間の通信が高速化します。また、GPUがアクセスできるRAMの容量も拡張されます。
はっきりさせておきたいのは、IntelとNvidiaは統合メモリを発表していないということです。少なくとも今のところは。しかし、それに近い発表はしています。Intel CPUと同じSoCパッケージにNvidia GPUチップレットを統合し、NVLinkで接続するというものです。また、データセンター製品では、NVLink-C2CによってCPUとGPUがメモリを共有できるようになっています。聞き覚えがありますか?
Macでは、Apple Siliconが統合メモリの代表格です。128GBの統合メモリを搭載したMacBookを購入すれば、そのメモリはMacBookのCPUとGPUの両方で使用できます。
一方、Nvidia GeForce RTX 5090は32GBのVRAMを搭載しています。メモリ容量がボトルネックとなるAIワークロードでは、NvidiaのRTX GPUがAppleのGPUよりもはるかに高速であるにもかかわらず、MacBookはハイエンドのIntel CPUとRTX 5090を搭載した高性能デスクトップPCよりも優れたパフォーマンスを発揮します。
また、AMD の APU アーキテクチャ (CPU と GPU 間で共有されるシステム メモリを提供)、Qualcomm の Snapdragon X (Apple のように統合メモリを備えている)、Intel の Lunar Lake プラットフォーム (CPU と GPU 間で共有されるオンパッケージ メモリを備えている) もあります。

りんご
AMDのRyzen AI Max+は最大128GBのメモリをサポートしますが、多くのAIツールやGPUコンピューティングワークロードは、NVIDIAのソフトウェアプラットフォームであるCUDA向けに設計されています。CUDAがサポートされていない場合、AMDシステムは実行したいツールと互換性がない可能性があります。(また、QualcommやIntelの統合GPUはそれほど高速ではありません。現時点では、真に競合しているのはAMDとAppleだけです。)
Apple、AMD、Qualcomm、Intelは統合メモリを搭載しているものの、NVIDIAのような強力なGPUや、NVIDIAをGPUコンピューティングタスクの標準に押し上げた成熟したCUDAプラットフォームを備えていません。CUDAは事実上の標準ですが、業界はWindows MLなどの技術によってこの状況を変えようとしています。競合他社は、この分野でNVIDIAの優位性を徐々に削りつつあります。
NVIDIAが再びリードを広げるには、Apple、AMD、Qualcommが既にSoCで実現しているように、GPUがシステムのメインメモリプールにアクセスできるようにする方法を見つける必要があります。たとえNVIDIAが最も強力なGPUコンピューティングソリューションを持っていたとしても、AIモデルとデータがそのソリューションのVRAMに収まらないのであれば、実際には意味がありません。
公式ではないが、ヒントはある
Nvidiaの公式発表では、「Intelは、Nvidia RTX GPUチップレットを統合したx86システムオンチップ(SOC)を開発し、市場に提供します。これらの新しいx86 RTX SOCは、世界クラスのCPUとGPUの統合を必要とする幅広いPCに搭載されます」と述べています。また、Intelの公式発表では、両社は「Nvidia NVLinkを用いて、NvidiaとIntelのアーキテクチャをシームレスに接続することに注力します」と述べています。
そうですね、ここではあまり詳細が明らかにされていませんし、NvidiaもIntelもメモリについては言及していません。メモリはGPU自体に搭載されるのでしょうか?Nvidiaはこれを「新しいクラスの統合グラフィックス」と表現しています。現時点では、Apple、AMD、Qualcomm、そしてIntel自身も含め、統合グラフィックスを搭載した主要なSoCはすべて、統合メモリまたはプールメモリを使用しています。(プラットフォームによっては、ハードウェアレベルでメモリが統合されているものもありますが、GPUがシステムのRAMへのアクセスを高速化するためのものもあります。重要なのは、GPUが少量のVRAMだけしか持たないわけではないということです。)

マティアス・インゲ / 鋳造所
NVIDIAとIntelは、このアーキテクチャを採用したハードウェアの出荷時期をまだ発表していませんが、複数のアナリストは2027年と予想しています。しかし、これは一回限りの提携ではなく、今後も継続されるでしょう。最初のSoCパッケージが最後になるわけではなく、アーキテクチャは進化していくでしょう。そして、IntelのCPUとNVIDIAのGPUの統合はさらに進むだろうと私は考えています。
NVIDIAとIntelは統合メモリを公式に発表していないものの(実際、メモリについては何も語っていない)、賢明な方向性と言えるでしょう。CPUとGPUが「シームレスに接続される」仮想巨大SoCに関する議論は、今後の方向性を強く示唆しており、NVLinkもまた大きなヒントとなります。NVIDIAはデータセンター製品において、CPUとGPUが同じメモリプールを利用できるNVLink(NVLink-C2C)を提供しています。(もちろん、これが実際にそうなる保証はありません。特に第一世代ではなおさらです。)
少しだけ、私の推測をさせてください。NVIDIAとIntelはどちらも統合メモリアーキテクチャの提供を望んでいますが、そこに到達するには何世代ものハードウェアが必要になるでしょう。そして、NVIDIAとIntelのエンジニアたちは、今まさにこの件について話し合っているはずです。第一世代の製品は真の統合メモリではないでしょう(もしそうなら、IntelとNVIDIAはプレスリリースで大々的に宣伝しているはずです)。しかし、両社がその方向へ進んでいることはほぼ間違いないでしょう。
詳細は後ほどお伝えしますが、NVIDIAはついにAI搭載PCの競争で競合他社を圧倒する確かな道筋が見えてきました。NVIDIAはすでに最高のGPUシステムを有しており、唯一欠けているのはメモリです。Intelの協力を得て、NVIDIAは目指すべき目標へのロードマップを手に入れました。しかし、NVIDIAとIntelが適切な製品を提供するには時間が必要であり、だからこそメモリについてはまだ話が進んでいないのでしょう。今後の動向にご注目ください。
Chris Hoffman のニュースレター「The Windows Readme」を購読して、実際の人間からの専門的な PC アドバイスをさらに入手してください。
著者: クリス・ホフマン、PCWorld寄稿者
クリス・ホフマンは、Windows PCのヒント、コツ、実験などを毎週1万以上のメール受信ボックスに届けるニュースレター「The Windows Readme」の著者です。また、How-To Geekの元編集長であり、ニューヨーク・タイムズ、PCMag、リーダーズ・ダイジェストなどの出版物に寄稿しているベテラン技術ジャーナリストでもあります。