Latest evidence-based health information
Vision

PCでAIを動かしたい?もっと大きなハードドライブが必要

PCでAIを動かしたい?もっと大きなハードドライブが必要
PCでAIを動かしたい?もっと大きなハードドライブが必要

AI PC プライマリアート

逃げ場はありません。人工知能がWindowsに浸透しつつあり、それに伴いOSのストレージ要件も増大しています。

長らく、Windows 11の最小ストレージ仕様は64GBでした。新しいCopilot+ PCでは、これが256GBに引き上げられました。しかし、これで終わりではありません。これはOS自体に限った話です。AIモデルをアプリに実装する開発者が増えるにつれて、システムとアプリの両方を処理するために、さらに多くのストレージが必要になります。

これらが何を意味し、なぜ起こっているのかを詳しく見ていきましょう。システムAI機能(Windows Recallなど)、ローカルホスト型生成AIモデル(DeepSeekなど)、拡散モデル(Stable Diffusionなど)を活用したい場合、NPUだけに注力するだけでは不十分です。ストレージにも注意を払う必要があります。

現在のAIストレージスペース要件

Microsoftは、AIモデル向けのWindowsシステム要件について明確なガイダンスを提供しています。同社のAI搭載PC「Copilot+」には、最低限必要なハードウェア仕様が含まれており、Copilot+ブランドを使用するには、Copilot+ PCは少なくとも256GBのストレージを搭載している必要があります。

それほど多くないように思えるかもしれませんが、Windows 11の以前の最小容量である64GBから大幅に増加しています。Copilot+ PCの最小ストレージ要件は、標準のWindows 11 PCの4倍です。

なぜこんなに容量が上がったのか?一見すると奇妙に思える。マイクロソフトはWindowsに、Microsoftペイントやフォトといった少数のアプリにAIモデルをバンドルして出荷しているが、それらはまだ大量のストレージを消費するわけではない。私のMicrosoft Surface Laptop 7(Copilot+搭載PCの一つ)では、Windows 11は約38GBのストレージを占有するが、5年前に購入したデスクトップPCでは同じOSが約41GBも使用している。

AI モデルが進化するにつれて、これらすべてが変化する可能性があります。

AIモデルはすぐにより多くのストレージを必要とする

AIモデルの「サイズ」について話すとき、それはそのモデルに含まれる「パラメータ」の数を指しています。パラメータとは、AIモデルの出力生成方法を決定する変数の一つであり、特定のAIモデルには数十億ものパラメータが含まれることがあります。

モデルの重みとも呼ばれるこれらのパラメーターは、適切に動作するためにストレージ スペースを占有します。AI モデルに数十億のパラメーターがある場合、ストレージ要件が急速に膨れ上がる可能性があります。

以下に現在の例をいくつか示します。

  • Google Gemma 2 — 1.71GB(20億パラメータ)
  • Meta Llama 3.1 — 4.92GB (80億パラメータ)
  • Qwen 2.5 Coder — 8.52GB (140億パラメータ)
  • Meta Llama 3.3 Instruct — 37.14GB (700億パラメータ)
  • DeepSeek V3 — 221.25GB(6,710億パラメータ)

ご覧のとおり、LLMの消費ストレージ容量はパラメータのサイズに応じて増加します。これは他の種類の生成AIモデルにも当てはまります。例えば、Stable Diffusion v1.4は約4GBですが、Stable Diffusion XLは13GB以上を消費します。OpenAIの音声テキスト変換モデルであるWhisperは、軽量版とフルファット版のどちらを選択するかによって、1GBから6GBのストレージ容量を消費します。

LM Studio AIモデルのサイズ比較(DeepSeek V3を選択)
DeepSeek-V3-GGUF が選択された LM Studio の DeepSeek AI モデル。

マット・スミス / ファウンドリー

しかし、AIモデルのパラメータの規模に応じて向上する要素がもう一つあります。それは知能です。MetaのAIモデルの最大バージョンであるLlama 3.1 405Bは、MMLUベンチマークで88.6点を獲得しました。これは、ベンチマークの質問の88.6%に正答したことを意味します。一方、より低レベルのLlama 3.1 70Bモデルは86点、さらに低レベルのLlama 3.1 8Bモデルは73点でした。

誤解のないよう明確に述べれば、パラメータを増やすことなくAIモデルの知能を向上させる方法は存在します。これは、2024年12月に突如現れ、OpenAIの最高性能に匹敵する性能を持つ中国のAIモデル、DeepSeek-V3の重要なイノベーションでした。

それでも、最高のAIモデルは巨大です。DeepSeek-V3はOpenAIのモデルよりも小さいと推定されています(OpenAIは最新モデルのパラメータ数を公表していないため、「推定」と表現しています)。それでも220GBを超えています。ほとんどのアプリでは、AI機能を実行するためにDeepSeek-V3をローカルにインストールする必要はありませんが、Qwen 2.5 14B(8.52GB)やLlama 3.3 70B(37.14GB)のような中規模のモデルを使用することは検討すべきでしょう。

AIモデルにはそれぞれ得意分野が異なるため、ハードドライブへの負担はさらに大きくなります。自然言語処理に優れたモデルもあれば、論理的推論や段階的な計画に最適化されているモデルもあります。つまり、ローカルにインストールしたAIモデルを1つだけで済ませることはできません。おそらく、いくつか、あるいは数十個必要になるでしょう。 

AIモデルに加えて他のデータも必要

さて、少し話を戻しましょう。AIモデルは将来的にストレージ容量を大量に消費するかもしれませんが、それはちょっと置いておいて。今、2025年の初めの時点では、それほど大きなAIモデルはWindows 11システムで大きな役割を果たしていません。では、なぜMicrosoftはCopilot+搭載PCに最低256GBのストレージ容量を要求するのでしょうか?少し強引すぎるように思えませんか?

結局のところ、それはデータです。具体的には、AIモデルが機能するために必要なデータ、つまりモデル自体の一部ではないデータのことです。

Windows Recallはまさに理想的な実例です。Recallは、Windowsデスクトップの使用中に定期的にスクリーンショットを撮影し、PCにローカルに保存します。これらのスクリーンショットは、PCアクティビティのリアルタイム記録です。RecallはAIを用いてこれらのスクリーンショットを分析し、過去のPCアクティビティを検索可能な「セマンティックインデックス」を作成します。ユーザーはこのインデックスを自分で検索して参照することができます。

Windows 11 の Recall スナップショットのストレージ サイズのスクリーンショット

マット・スミス / ファウンドリー

例えば、私はDeepSeekに関する記事をいくつか書きました。Windows Recallで「deepseek」を検索すると、モデルを調べていたときに開いていたウェブページ全体にわたる結果が表示されます。RecallはAIを使って私の過去の行動をすべて理解し、検索内容に関連する過去の瞬間を表示します。

膨大なデータはどこかに保存する必要があります!そして、かなりの容量を消費します。(Microsoftでは、50GB以上の空き容量がないとWindows Recallを有効にすることすらできません。)もちろん、その容量はすぐに使われるわけではありません。データが蓄積されるまでにはしばらく時間がかかります。それでも、蓄積されていくのです。

私の場合、Windows 11のRecallのメモリ消費量は1.7GBと表示されています。これは、Recallを1日数時間、数ヶ月間使用した場合の計算です。この調子だと、2025年末までに20GBになっても驚きません。

では、どのくらいのサイズのストレージドライブが必要ですか?

AI機能やモデルをローカルで実行することに興味があるなら、少なくとも1TBのストレージを搭載したWindows PCの購入をお勧めします。ただし、これはAIのニーズを考慮した場合のみです。1TBをゲームや動画など他の用途に使う場合は、2TBに増やしてください。将来を見据えたい場合は、SSDを自分でインストールするなどして、4TBまで容量を増やすのも良いでしょう。

確かに、かなりのストレージ容量ですね。しかし、現在利用可能なローカルAIモデルのほとんどなら、これで十分でしょう。ローカルにホストされたAIモデルを使い、ローカルに保存されたデータを利用するアプリが増えるにつれ、必要なRAMとストレージ容量の多さに驚くことになるでしょう。

さらに詳しく: PC上でローカルに実行できる無料のAIツール

著者: マシュー・S・スミス、PCWorld寄稿者

マシュー・S・スミスは、15年間にわたり家電製品のレビューに携わってきたフリーランスのテクノロジージャーナリストです。PCWorldに加え、Wired、Ars Technica、Digital Trends、Reviewed、IGN、Lifewireにも寄稿しています。また、IEEE SpectrumではAIとメタバースに関する記事を執筆し、PCゲームの歴史に特化したYouTubeチャンネル「Computer Gaming Yesterday」を運営しています。

Otpoo

Health writer and researcher with expertise in evidence-based medicine and healthcare information.