AIというと、ChatGPTやGoogle Geminiのようなクラウドで実行されるモデルを思い浮かべる人が多いでしょう。しかし、Microsoftが最近実装した、PC上でローカルAIを実行する驚くほどシンプルな方法があります。
Microsoftは先週のBuildカンファレンスでMicrosoft Foundry Localを発表しました。これは基本的に、ローカルマシン上でLLMを実行するコマンドラインツールです。当初は開発者向けに開発されましたが、すべてを自動化してくれるため、ローカルAIを試す最も簡単な方法の一つです。さらに、PCの最適化も実現しています。
Windowsの素晴らしい機能の一つに、「winget」があります。これはアプリケーション版のDoorDashのようなものです。WebサイトやMicrosoft Storeにアクセスしてダウンロードリンクを探し、Windowsにダウンロード先を指定する代わりに、コマンドラインを開いて「winget」で必要なファイルを指定すればいいのです。WindowsとMicrosoftが、あとはすべて自動的にやってくれます。サードパーティのWebサイトにログインする必要もありません。
Foundry AI Localも同様に動作します。この記事から2つのコマンドをコピー&ペーストするだけで、すぐに使い始めることができます。Microsoftの協力を得て、その方法をご紹介します。Microsoftは専用のGPUやNPUが必要だとは明言していませんが、必須です。基本的に、Windows 10または11、少なくとも8GBのRAM、3GBのストレージ(16GBのRAMと15GBのディスク容量を推奨)が必要です。Copilot+ PCはオプションですが、Qualcomm Snapdragon X Eliteプロセッサ、Nvidia RTX 2000シリーズ、AMD Radeon 6000シリーズ以上のGPUを搭載していれば、より快適に動作します。

マーク・ハックマン / ファウンドリー
Foundry Local を使用するには、まず…
1.) コマンドラインターミナルを開きます。Windowsキーを押して「ターミナル」と入力し始めます。候補アプリのリストにWindowsターミナルアプリが表示されますが、Windows PowerShellと表示される場合もあります。どちらでも問題ありません。
2.) プロンプトで次のように入力します。
winget install Microsoft.FoundryLocal
必要なファイルのダウンロードには1~2分ほどかかりますが、Microsoftがすべて処理します。
3.) MicrosoftはPhi-3.5-miniモデルの実行を推奨しています。これは良い選択です。サイズが小さく、ダウンロードも速く、応答も速いでしょう。ダウンロードして実行するには、以下を入力してください。
foundry model run phi-3.5-mini
必要なのはこれだけです。すると、ターミナルアプリに「火星の空は青いですか?」などのプロンプトを入力するように指示するメッセージが表示されます。
4.) Phi-3.5-miniモデルだけにこだわる必要はありません。
foundry model list
利用可能なモデルのリストが表示されます。「phi-3.5-mini」を利用可能なモデルのいずれかに置き換えるだけで準備完了です。(左側の列に表示されているモデル名を使用してください。心配しないでください。どうやら私の希望は認識されているようです。)

繰り返しになりますが、Foundry Local AI の優れた点は、PC にローカルであることです。ただし、Phi-mini モデルは情報処理のために Microsoft と通信していると主張しました。(念のため、PC を機内モードにしました。)また、Foundry AI Local は PC に最適なモデルをダウンロードするため、高速かつ効率的です。利用可能な NPU または GPU があれば、適切なバージョンが選択されます。
Foundry AI Localは開発者向けに設計されているため、他のモデルをPCで実行できるものに変換したり、仮想的に「エージェント」にタスクを実行させたりすることも可能です。私が視聴したサンプル動画では、Windows Snipping Toolに組み込まれているテキスト抽出ウィジェットを使ってテキストを抽出するといった使い方が提案されていました。代わりにそちらを使うのも良いかもしれません。
ハードウェアメーカーとチップメーカーは、ローカルAIアプリ開発に投資する必要があると、私は以前から主張してきました。IntelのAI Playgroundはまさにそれを実現するものであり、シンプルで使いやすいです。しかし、Intelはこれを自社のプロセッサラインナップの一部に限定しており、結局のところ、Intelプロセッサにのみ最適化されています。

マーク・ハックマン / ファウンドリー
Microsoft Foundry AI Localは誰でも利用できますが、今のところはLLMチャットボットのみです。これは便利ですし、Microsoftも開発に着手したばかりです。今後、アートが追加される可能性はあるでしょうか?自分のドキュメントをアップロードしてモデルをトレーニングする機能も?どうなるかは分かりません。
Foundry AI Localがクラウドで動作するChatGPT、Gemini、Copilotよりも優れていると言いたいわけではありません。実際、そうではありません。Foundry AI Localはローカルテキストベースのアプリケーションであり、既存のクラウドベースのサービスで可能なこと以上のことは何もできません。しかし、非常に高速で簡単に実行でき、MicrosoftはひっそりとWindowsに組み込んでいます。将来的にはそれが実を結ぶかもしれません。
著者: マーク・ハッハマン、PCWorld シニア編集者
マークは過去10年間、PCWorldに寄稿しており、テクノロジー分野で30年の経験があります。PCWorldだけでも3,500本以上の記事を執筆しており、PCマイクロプロセッサ、周辺機器、Microsoft Windowsなど、幅広いトピックを扱っています。PC Magazine、Byte、eWEEK、Popular Science、Electronic Buyers' Newsなどの出版物にも寄稿しており、Electronic Buyers' Newsでは速報ニュースでジェシー・H・ニール賞を受賞しました。最近、オフィスのスペースが足りなくなったため、数十台のThunderboltドックとUSB-Cハブを寄贈しました。