Oculus Riftヘッドセットを介した仮想現実(VR)は既に斬新だ。しかし、わずか数行のコードでInternet Explorer経由でVRを実現するなんて、一体どういうことだろう?MicrosoftはBuildカンファレンスでこれを実演し、満員の開発者から拍手喝采を浴びた。
マイクロソフトは、年次開発者会議2日目となる本日、Windowsアプリの作成、公開、デバッグ、移植を支援するVisual Studioソフトウェア開発ツールキットの機能強化に注力しています。マイクロソフト幹部によると、Windows、Windows Phone、Xboxプラットフォーム間で共通コードを共有する「ユニバーサルアプリ」への移行は、この強化に計り知れないほど役立つとのことです。

Microsoft Build カンファレンスのステージに立つ Microsoft の Scott Guthrie 氏。
しかし、クラウドにはもう一つの目的があります。それはクラウドコンピューティングです。MicrosoftのAzureサービスでは、開発者が仮想マシンやSQLデータベースを立ち上げ、クラウド上でウェブサイトをホストすることが既に可能です。しかし、本日のデモでは、幹部陣が将来のゲームで実現する可能性のある機能も披露しました。それは、ローカルマシンのハードウェアリソースに頼るのではなく、クラウドベースの物理エンジンを使って物体を爆破する機能です。
マイクロソフトは、発表間近のOculus Riftのデモも、同社が「Cloud Assist」と呼ぶものも、本格的な製品として世に出るかどうかについては何も示唆しなかった。しかし、どちらもマイクロソフトが舞台裏で実行しているものの威力を示している。
マイクロソフトは、米国および海外各地に、独自の冷却・電源を備えたモジュラーコンテナに収容された数万台のサーバーをホストしています。これらのサーバーは、企業のウェブサイトやサービスのホスティングから、Xboxのマッチメイキングサービス、Outlook.comなどのクラウドサービスまで、あらゆる用途に使用されています。
木曜日、マイクロソフトのコーポレートバイスプレジデント、スティーブ・グッゲンハイマー氏は、スマートフォンとPC上で動作するプログラミング言語WebGLを使ってレンダリングされた仮想シーンを披露した。彼が次に見せたトリックは、さらに印象的だった。Babylon.jsというサービスを使ってシーンに13行のコードを追加することで(パートナーの技術フェロー、ジョン・シューチャック氏によると「Go Bigボタン」を使ったという)、シーンをOculus Riftヘッドセットを通して仮想的に巡回させることが可能になったのだ。

このシーンは、Oculus Rift 用にレンダリングされる直前に WebGL でレンダリングされました。
「この仕組みを実現できた鍵の一つは、このループを200Hzで処理できることです」とグッゲンハイム氏は述べた。「他のブラウザには、このような機能はありません。しかし、PCエコシステムのスピードも重要です」とグッゲンハイム氏は述べた。USB周辺機器や開発ツールといったこれらの要素によって、開発者は驚くほど少ない労力でこうした体験を実現できるのだ。
雲の中の雷
クラウドゲーミングという概念は、マイクロソフトで生まれたと言えるでしょう。クラウドゲーミング企業OnLiveの創業者であるスティーブ・パールマン氏は、マイクロソフトのWebTVセットトップボックスの開発を統括していました。OnLiveは昨年、経営権が移り、パールマン氏も同社を去りました。
OnLiveは、高負荷の3Dゲームを実行するために専用サーバーを使用し、インターネット経由でクライアントPCにアクションをストリーミング配信します。MicrosoftのCloud Assistは、Microsoftのサーバー上で物理演算をレンダリングし、シーンを実際に制御することなくリアリティを高めているようです。

Microsoft の Cloud Assist テクノロジーの活用例。
グッゲンハイム氏とシューチャック氏が披露したデモは、模擬建物にロケットを発射し、爆発させるというシミュレーションでした。二人は、ローカルマシンでレンダリングされたシーンを披露しましたが、フレームレートは1桁台と低速でした。さらにクラウドアシストを追加することで、パフォーマンスが劇的に向上しました。
「クラウドの力によってあらゆることが可能になるのを私たちは目の当たりにしています」とシューチャック氏は語った。