過去6ヶ月間PC業界を追ってきた人にとって全く驚きだったのは、CES 2024の会場の至る所で「AI PC」が見られたことです。IntelのCore UltraやAMDのRyzen 8000といった新型チップに専用の「ニューラル・プロセッサ・ユニット」(NPU)を搭載したPCです。これらのPCは、ChatGPTやMicrosoft Copilotのようなクラウドサーバーではなく、ローカルでAIタスクを高速化します。しかし、これは日常的にコンピューターを使うあなたにとって、実際には何を意味するのでしょうか?
ショーフロアを歩き回り、様々な規模のPCメーカーを訪ねながら、私が答えを見つけたいと思っていたのはまさにこの問いでした。ローカルNPU処理ソフトウェアの初期実装は、Adobe Photoshop、DaVinci Resolve、Audacityといったツールのパフォーマンス向上など、クリエイターのワークロードに重点を置いていました。しかし、ローカルAIは一般のクリエイター(Joe Schmoe)にとってどのようなメリットをもたらすのでしょうか?
ショーを徹底的に調べた結果、NPU の改善は初期段階では特に魅力的なものではないと言えますが、Nvidia GPUをお持ちの場合は、強力で実用的な AI をすでに手に入れることができます。
しかし、まずは NPU ベースの AI です。
ローカルAIが小さな一歩を踏み出す

HP Omen Transcend。
IDG / マシュー・スミス
率直に言うと、NPU 駆動型 AI はまだ魅力的ではありませんが、いくつかのクールなトリックを実行できます。
HPの新しいOmen Transcend 14は、GPUでサイバーパンク2077をプレイしながら、NPUで動画ストリーミングタスクをオフロードできるという実例を見せました。確かに素晴らしい機能ですが、やはりクリエイター向けです。AcerのSwiftノートPCは、より実用的な視点を取り入れています。Temporal Noise Reductionと、AcerがPurifiedViewおよびPurifiedVoice 2.0と呼ぶAIフィルタリングされた音声と動画、そして3つのマイクアレイを搭載しており、今年後半にはさらに多くのAI機能が追加される予定です。
MSIのローカルAIへの取り組みは、ZoomやTeamsの通話のクリーンアップにも取り組んでいます。Core UltraノートPCのデモでは、Windows Studio EffectsがNPUを利用してビデオ通話の背景を自動的にぼかす様子が紹介されました。その隣では、NVIDIAの優れたAI搭載BroadcastソフトウェアをインストールしたノートPCでも同じ動作が見られました。Core UltraノートPCは、背景のぼかし処理に独立したGPUを起動する必要がなく、代わりに低消費電力のNPUに処理を委ねているため、NVIDIAノートPCよりも大幅に消費電力を抑えられました。これは素晴らしいことです。また、RTX Broadcastとは異なり、GeForceグラフィックカードを搭載する必要もありません。
実用面でも、MSIの新しいAIエンジンは、ノートパソコンで何をしているかをインテリジェントに検知し、タスクに応じてバッテリープロファイル、ファンカーブ、ディスプレイ設定を動的に変更します。ゲームをプレイするとすべてが高速化し、Word文書の閲覧を始めるとすべてが低速化します。これは素晴らしい機能ですが、既存のノートパソコンでも既にある程度は同様の機能を備えています。
MSIはまた、人気のローカル生成AIアートフレームワーク「Stable Diffusion」上で動作する、気の利いたAI Artistアプリも披露しました。このアプリでは、テキストプロンプトから画像を作成したり、挿入した画像から適切なテキストプロンプトを作成したり、選択した画像から新しい画像を作成したりできます。もちろん、Windows Copilotなどの生成アートサービスではすでに同様の機能を提供していますが、AI Artistはローカルでタスクを実行し、単にボックスに文字を入力してどのような画像が作成されるかを確認するよりも多機能です。
LenovoのNPU駆動型AIのビジョンは、最も魅力的に思えました。「AI Now」と名付けられたこのテキスト入力ベースの機能群は、実に便利そうです。もちろん、画像生成もできますが、その画像を自動的に壁紙に設定するよう指示することもできます。
さらに便利なのは、「My PC config」などのプロンプトを入力すると、PCのハードウェア情報が瞬時に表示されるため、Windowsの複雑なサブメニューを開く必要がなくなることです。「Eye Care Mode」を選択すると、システムの低照度フィルターが有効になります。「バッテリー寿命を最適化する」を選択すると、MSIのAIエンジンと同様に、使用状況に応じて電力プロファイルが調整されます。
これらは確かに便利ですが、ややニッチな機能ではあります。中でも私が最も感銘を受けたのは、Lenovoのナレッジベース機能です。AI Nowをトレーニングすれば、ローカルの「ナレッジベース」フォルダに保存されている文書やファイルを精査し、クラウドには一切アクセスすることなく、フォルダ内のファイルのみに基づいてレポート、概要、サマリーを迅速に生成できます。例えば、作業ファイルをすべてそこに保存しておけば、例えば、過去1か月間の特定プロジェクトの進捗状況の要約を求めると、文書やスプレッドシートなどに保存されている情報を使って、すぐに要約が生成されます。これは実に便利で、Microsoftが企業向けに高額な料金を請求しているクラウドAIベースのOffice Copilot機能を模倣していると言えるでしょう。
しかし、AI Nowは現在実験段階で、今年後半にリリースされる際にはまず中国で提供される予定です。さらに、私が見たデモはまだNPUで動作していませんでした。Lenovoはタスクに従来のCPUパワーを使っていました。ああ、残念。
これが、この番組から私が得た核心的な教訓です。NPUはコンピューターに搭載され始めたばかりで、それを活用するソフトウェアは、奇抜なものから「時期尚早」なものまで様々です。いわゆる「AI PC」が実用的なレベルで普及するには、まだ時間がかかるでしょう。
ただし、Nvidia グラフィック カードがすでにインストールされている場合は除きます。
AI PCはすでにGeForceで登場

チアゴ・トレヴィザン/IDG
ラップトップ メーカーが、GeForce 所有者であれば AI PC は実際にすでに存在していると強調した後、Nvidia のスイートを訪問しました。
それは驚くべきことではありません。NVIDIAは長年AI開発の最前線に立ち、この分野を牽引してきました。DLSS、RTX Video Super Resolution、Nvidia Broadcastといった機能は、どれもユーザーが愛用し、日々活用している、実用的で現実的なAIアプリケーションです。NVIDIAがグラフィックカードにプレミアム価格を設定できるのには理由があります。
同社は、クールなクラウドベースの AI ツールをいくつか披露していました。ゲームの NPC 用の ACE キャラクター エンジンでは、あらゆることについて、さまざまな言語で本格的な生成チャットを行えるようになりました。また、同社の象徴的な Jinn キャラクターは、ラーメンがまずいと言ったときに嫌な顔をしていました。しかし、この記事のポイントはローカル AI ツールなので、それに焦点を当てたいと思います。
クリエイター向けのNVIDIA StudioノートPCのラインナップが展示され、GeForceの専用レイトレーシングコアとAI Tensorコアが、リアルタイム画像レンダリングや写真からのアイテム除去といったクリエイティブタスクをいかに高速化できるかを実証しました。しかし、繰り返しになりますが、クリエイターにとっては素晴らしい機能ですが、一般消費者にとって実用的なメリットはほとんどありません。
他の 2 つの AI デモは次のとおりです。
1つは、GeForceのAIテンソルコアを使用して低解像度のビデオをアップスケールして美しくする既存のRTXビデオスーパー解像度機能を補完するもので、AIを使用して標準ダイナミックレンジビデオをハイダイナミックレンジ(HDR)に変換することに重点を置いています。RTXビデオHDRと呼ばれるこの機能は、私が目撃したデモでは本当に革新的に見えました。ゲーム・オブ・スローンズのシーンでビデオ圧縮によって過度に潰れていた暗部が、この機能によってクリアに明るくなり、画質が驚くほど向上しました。別の静止画の地下のシーンでも同様で、地下鉄の裏側は理解できないほど暗かったのですが、RTXビデオHDRを使用すると、トンネル、ゴミ箱など、これまで暗闇に埋もれていた隠れた部分を見つけることができます。見栄えが良く、今月後半にGeForceドライバーに搭載される予定です。

Chat with RTX は、ローカル ファイルに指示された後、Nvidia の新しい ACE 機能の正確な説明を提供することができました。
エヌビディア
それからChat with RTXには、本当に感銘を受けました。ほとんどのAIチャットボットは、ユーザーのリクエストをクラウドに送り、企業のサーバーで処理してからユーザーに返送します。しかし、Chat with RTXは違います。この近日公開予定のアプリケーションは、MistalまたはLlama LLMで動作します。重要なのは、ローカルのテキスト、PDF、ドキュメント、XMLファイルでもトレーニングできるため、特定の情報やニーズについてアプリケーションに質問できるということです。しかも、すべてローカルで実行されます。「サラは今度ラスベガスに来たらどこに夕食に行くべきだと言っていた?」といった質問をすれば、ファイルからすぐに答えがポップアップ表示されます。
さらに、ローカルで実行されるため、デモの回答はChatGPTのようなクラウドベースのLLMで生成される回答よりもはるかに速く表示されました。また、Chat with RTXで特定のYouTube動画を指定して、その動画の内容について質問したり、概要を受け取ったりすることもできます。Chat with RTXはYouTubeが提供する特定の動画のトランスクリプトをスキャンし、数秒で回答を表示します。これは素晴らしいです。
Chat with RTX もデモ形式でリリースされる予定で、Nvidia は開発者がそれを利用した新しいプログラムを作成できるようにそのバックボーンを公開しています。
私が見たNPUアプリケーションのAIデモと比べて、NVIDIAのブースで展示されていた機能はより実用的で、はるかに強力だと感じました。NVIDIAの担当者によると、AI搭載PCが既に存在し、真に有用な体験を実現できることを示すことが同社の目標とのことでした。もちろん、GeForce GPUを搭載していればの話ですが。
結論

インテル
これが、CES 2024で私がAI PCについて得た結論です。AIは、「ブロックチェーン」や「メタバース」といったかつての流行語(華々しく消え去った)を超える存在になるのでしょうか?私はそう思います。NVIDIAのような企業はすでにAIを驚くべき効果で活用しています。しかし、NPUはまだ発展途上で、話せるようになるまでには至っていません。コンテンツクリエイターでもない限り、NPUを活用できる魅力的な実用的な機能はまだありません。
誤解しないでください。ローカル NPU 全体の将来は明るく見える可能性があり、コンピューティング業界全体がそれを目の前に実現させようとしています。しかし、今すぐに真の AI PC が必要で、日常的なコンピューター ユーザーにとって具体的かつ実用的なメリットがあるなら、最新式の NPU を搭載したチップよりも、実績のある Nvidia RTX GPU に投資する方が得策です。