Latest evidence-based health information
Ipad

NvidiaとCitrixが仮想デスクトップ配信を強化

NvidiaとCitrixが仮想デスクトップ配信を強化
NvidiaとCitrixが仮想デスクトップ配信を強化

Nvidia の仮想化技術の改良は、グラフィック プロセッサをデータセンターのより重要なリソースにすることを目的としており、仮想デスクトップの展開やクラウド経由のデータ配信を高速化できる可能性があります。

グラフィックス関連企業である同社は火曜日、GPUを仮想化し、サーバーのCPUやメモリと共有可能なリソースにするVGXテクノロジーの改良を発表しました。VGXのハードウェアとソフトウェアの改良により、1枚のグラフィックスボードで複数の仮想デスクトップを提供できるようになります。これまでVGXは、1枚のグラフィックスボードにつき1つの仮想マシンしか提供できませんでした。

NvidiaのVGXに対するXenAppのサポートに関するスライドエヌビディア
XenServer や XenApp を含む Citrix の Xen 製品は、Nvidia の VGX テクノロジーのハードウェアとソフトウェアの改善の恩恵を受けるはずです。

仮想化は分散コンピューティング環境におけるサーバーリソースの効率的な利用を可能にし、GPUは仮想デスクトップの高速配信を通じて電気代削減に貢献する可能性があります。GPUはCPUよりも高速であると考えられており、世界最速クラスのコンピューターでは複雑な計算に使用されているほか、Webブラウザでは高速なグラフィックレンダリングに使用されています。グラフィックプロセッサを仮想化することで、サーバーはクラウド経由でゲームを配信し、高性能なリソースをリモートユーザーに提供できるようになります。

NVIDIAのグリッドマーケティングディレクター、サンフォード・ラッセル氏は、NVIDIAは仮想化企業Citrixと協力し、ハイパーバイザー、ドライバ、ハードウェアレベルでの改良に取り組んだと述べた。VGXの改良は、XenServerやXenAppを含むCitrixのXen製品でのみ動作する。NVIDIAは最終的に、VGXの改良をVMwareとMicrosoftの仮想化技術にも適用したいと考えているが、ラッセル氏は具体的な時期については明らかにしなかった。

NVIDIAとAdvanced Micro Devices(AMD)のグラフィックプロセッサは既に仮想化に使用されており、サーバーメーカーのDell、Hewlett-Packard、IBMはハイパースケール環境向けに設計されたサーバーを提供しています。しかし、仮想デスクトップのユーザーセッションは限られたリソースによって処理能力が不足していました。

VGX のアップデートにより、完全な Windows 7 を実行する仮想デスクトップが展開され、ユーザーは各セッションで複数のアプリケーションを実行できるようになるとラッセル氏は述べた。

「私たちが提供しているのは、真のPC体験です」とラッセル氏は語った。

NVIDIA Grid K1グラフィックボードは、4基のグラフィックプロセッサと16GBのDDR3メモリを搭載し、最大32台の仮想マシンを同時にサポートできます。Grid K2ボードは、2基のグラフィックプロセッサと8GBのGDDR5メモリを搭載し、最大8台の仮想マシンをサポートできます。仮想マシンはオンボードのDirectX 11サポートを利用してマルチメディアパフォーマンスを向上させることができます。

グラフィックプロセッサはNVIDIAの最新Keplerアーキテクチャをベースにしており、仮想マシンのデプロイメントを処理するための独立したスケジューラとメモリ管理ユニットを備えています。VGXにより、GPUはCPUサイクルをスキップし、仮想マシンを直接デプロイおよび管理できるようになります。

仮想化は GPU 経由でクラウド サービスをレンダリングする上で重要ですが、VGX の改善は時代を先取りしている可能性があると、Tirias Research の主席アナリスト、ジム・マクレガー氏は述べています。

「これは人々のニーズに対して過剰であり、誰もがこの資源を活用できるわけではない」とマクレガー氏は語った。

NVIDIAは、増加する仮想化およびクラウド展開にGPUを結び付けるため、Gridというブランド名で新しいサーバー製品とグラフィックボードを提供しています。NVIDIAは、シンクライアント、PC、タブレット上の仮想デスクトップにクラウドベースで配信するためのマルチメディアやその他のアプリケーションをサーバー側で処理するGrid Visual Computing Appliance(VCA)を提供しています。また、GPUを豊富に搭載したGridサーバーを提供するために、サーバーメーカーのIBMおよびDellと提携しています。NVIDIAはまた、シスコが今月からVGX Gridサーバー「UCS C240 M3」の出荷を開始すると発表しました。

しかし、ゲームのオンライン化や、OpenCLやCUDAなどの並列プログラミングツールを使用して作成されるアプリケーションの増加に伴い、GPUはすでにサーバーで実用化されつつあるとマクレガー氏は述べた。

サーバーは様々な種類のワークロードを処理しますが、分散コンピューティング環境でGPUが機能するには依然としてCPUが必要です。GPUへの命令はCPUを介して送られます。

「クラウドでプロセッサ アーキテクチャとして [GPU] を使用することは、[CPU] やカスタム プロセッサを使用することと何ら変わりありません」とマクレガー氏は語った。

NVIDIAとAMDは、GPUをよりアクセスしやすいリソースにするチップの設計とオープンスタンダードの確立に取り組んでいます。AMDが主導するHSA(Heterogeneous System Architecture)財団は、HUMAと呼ばれる統一メモリアーキテクチャを導入しました。これにより、様々なメモリタイプをあらゆるプロセッサで利用できるようになります。NVIDIAが来年発売予定の次期グラフィックプロセッサ「Maxwell」も、CPUとGPUのメモリを統合します。

VGX のようなテクノロジーにより、サーバー環境での GPU の関連性が高まるとマクレガー氏は述べた。

「しっかりとしたロードマップがある」とマクレガー氏は語った。

Otpoo

Health writer and researcher with expertise in evidence-based medicine and healthcare information.