Latest evidence-based health information
Iphone

PCディスプレイのSF的な未来を覗く

PCディスプレイのSF的な未来を覗く
PCディスプレイのSF的な未来を覗く

ムーアの法則のおかげで、オクタコアのスマートフォン用プロセッサや数百万個のトランジスタを搭載したPCが供給され続けるかもしれませんが、チップ技術ほど熱心にアクセルを踏み続けているテクノロジー分野はそう多くありません。特に、巨大なCPUの出力を垣間見るための入り口であるデスクトップディスプレイは、PCの他の部分のテクノロジーが猛スピードで進化する一方で、ニュートラルな状態にあります。

確かにRetinaレベルのディスプレイは素晴らしいですが、まあ、どうでしょう。今は1999年ではなく21世紀です。幸いなことに、いくつかの先進的なベンチャー企業が、従来のPCフラットスクリーンを捨て、革新的なデザインを採用し始めています。これらの製品は、いつか私たちのコンピューターの見方を一新するかもしれません。皆さん、これらこそが未来のPCディスプレイです。少なくとも、そうなることを目指しています。

オキュラスリフト

未来のPCディスプレイについて語る上で、バーチャルリアリティ(VR)は欠かせません。そして、最近最も注目を集めているVRキットが、 Kickstarterで資金調達に成功したOculus Riftです。このヘッドセットは、ゲーム愛好家たちの注目を集めています。ジャイロメーター、加速度計、磁力計を含むセンサーパッケージを搭載したOculus Riftは、これらのコンポーネントから生成されるデータを用いてユーザーの頭の動きをモニタリングし、遅延をほぼゼロに抑えて3Dゲームの世界へと変換することで、真に没入感のあるVR体験を提供します。

本当に素晴らしい製品で、ソフトウェア開発キットも近日中に開発者向けに提供される予定です。上の動画では、Oculus Riftを実際に試しているAlex Wawro氏の様子もご覧いただけます。

キヤノン複合現実

キヤノン
キヤノンのMixed Realityヘッドセット。

キヤノンが最近発表した Mixed Reality デバイスは、仮想環境に移動できる大きな黒いヘッドセットという点で Oculus Rift に似ていますが、ゲーマーではなく工業デザイナーをターゲットにしています。

ヘッドセットは強力なワークステーションに接続され、前方に2台のカメラを搭載しています。これらのハードウェアはすべて連携して動作し、現実と想像を融合させた拡張現実(AR)体験を提供します。このシステムは、下の画像に示すように、シンプルな現実世界の小道具をデザイナーの創作の精巧な表現へと変換します。没入感を高めると、AR空間上で現実空間を再現した空間内で、正確なスケール感とともにアイテムをリアルタイムで操作できます。

キヤノン
シンプルなカメラ小道具 (左) が、キヤノンの Mixed Reality で本格的なカメラ (右) に変身します。

クールでしょう?さて、欠点を挙げましょう。キヤノンのMixed Realityは現在、初期費用が12万5000ドル、さらに年間2万5000ドルのメンテナンス費用がかかります。一方、300ドルのOculus Rift開発キットは既製品のパーツで作られています。しかし、今日の高価な新製品は、明日には消費者が買える価格のコモディティになるということを忘れないでください。

自動立体視3D

純粋なバーチャルリアリティ以外にも、ディスプレイを進化させようとする試みのほとんどは、何らかの3D画像の作成を伴います。しかし、現代の3D技術のほとんどが頼りにしている、あのダサいメガネをかけたい人はいません。そこで登場するのが、裸眼3D技術です。裸眼3D技術の総称です。

ザ・ヴァージ
The Verge の Joshua Topolsky が Microsoft Research の自動立体 3D ディスプレイを見つめている。

この技術を実装する方法は数多くありますが、最も興味深い自動立体ディスプレイは、動きの視差と呼ばれる技術を使用しており、頭の位置に応じて 3D オブジェクトの見え方が変わり、真の (ただしシミュレートされた) 3D 体験を生み出します。

Microsoft Researchはまさにそのようなシステムの開発に取り組んでおり、The Vergeの動画の1:55あたりでその動作を見ることができます。(注意:この技術は人の目に直接信号を送るため、撮影がうまくいきません。)MicrosoftのディスプレイはKinectカメラでユーザーの視線をトラッキングし、その情報を基に、液晶画面の背後から2つの別個の画像を同時に投影します。1つは左目、もう1つは右目に投影されます。この2つの画像によって、ユーザーの脳は画面上に3D画像を見るように錯覚し、その奥行きと位置はユーザーの位置(これもKinectカメラでトラッキングされます)に応じて調整されます。

何かすごく不気味で、かつ素晴らしいものをお探しですか?Microsoftの技術が成熟すれば、同じ画面を見つめる二人が、全く異なる二つの画像を見つめていることになるかもしれません。残念ながら、今はまだ初期段階です。

スペーストップ

Microsoft の研究から生まれたもう 1 つのプロジェクトである SpaceTop は、従来の 2D デスクトップ コンピューティングと、3 次元でオブジェクトを操作できる革新的なインターフェイスを組み合わせています。

これを実現するために、SpaceTopはユーザーとシステムのキーボードおよびタッチパッドの間に透明なスクリーンを配置しています。スクリーン背面に内蔵されたカメラは、モーションコントロールのためにユーザーの手の動きを追跡し、ユーザー側のカメラはユーザーの頭の位置を追跡して、適切なスケールと視点で3D画像を画面に表示します。これ以上の説明は避け、上のビデオをご覧ください。このディスプレイは実際に見てみなければ理解できません。

レオナール3do

少し難しすぎると思うなら、開発者たちが「世界初のデスクトップVRキット」と呼ぶLeonar3doをチェックしてみてください。このソフトウェアは、必須の3Dメガネと「The Go Bird」と呼ばれるユニークな3Dマウスと組み合わせることで、オブジェクトを3Dで表示・操作できます。

上の動画では、3Dモデリング、ゲーム、教育など幅広い市場をターゲットとするLeonard3doの使い方をデモしています。CESでこの技術を実際に試用し、大変感銘を受けました。現地で取材した編集者は、「この仮想作業エンジンを実際に使ってみて、現実空間で仮想3Dオブジェクトを作成、デモンストレーション、視覚化できる素晴らしい方法だと感じました」と述べています。

大きなことを考える

en.memory-alpha.org
大型ディスプレイ。マイクロソフト、ぜひ実現してください。

よく引用される未来像の一つに、巨大なディスプレイが圧倒的に多く存在するというものがあります。それは、今あなたの机の上にあるモニターをはるかに凌駕する、壁一面を覆うほどの巨大なディスプレイです。しかし、これほど巨大なディスプレイは、インターフェースに関して独特の難問を突きつけます。特にタッチスクリーン対応の場合はなおさらです。巨大なモニターは複数のユーザーにどのように反応するのでしょうか?ディスプレイの上部に手が届かない場合はどうでしょうか?アングリーバードのパチンコは操作できるのでしょうか?などなど。

Microsoft Researchは、これらの問題が広範囲に及ぶ前に、既に懸命に取り組んでいます。以下のビデオで概要が説明されている「Towards Large-Display Experiences(大画面エクスペリエンスに向けて)」プロジェクトは、微細な作業にはスタイラスを使い、基本的な操作にはタッチスクリーンのジェスチャーを使用し、今や広く普及しているスマートフォンと連携したユーザー認識機能を組み合わせるという、解決策の一つを考案しました。これは、潜在的に大きな問題(意図的な言葉遊びですが)に対する興味深い回答です。

膨大なピクセル数を処理するのは全く別の問題ですが、ご心配なく。Microsoft Research もこれに取り組んでいます。「Foveated Rendering」と呼ばれるプロジェクトは、人間の目は画面周辺部では細部まで見えにくいという特性を利用して、処理能力の低減を目指しています。つまり、ディスプレイが視線の動きを追従し、見ている部分を鮮明に表示し、画面の遠端では解像度を落とすのです。

テスト中、ユーザーは本格的な画像とフォービエイテッド レンダリングを使用した画像の違いを区別できませんでした。しかし、詳細度の低い画像を作成するのに必要な計算能力は 6 分の 1だけで 済みました。

さらに大きなことを考える

壁一面のディスプレイ?ふーん。LightSpaceの開発チームにとっては取るに足らない話だ。LightSpaceもまた、私たちが知っているモニターを廃止し、オフィスにあるあらゆるものをPCディスプレイに変えるというMicrosoft Researchのプロジェクトだ。

マイクロソフトリサーチ

LightSpaceは、一連のカメラとプロジェクターを用いて、「あらゆる表面、さらには表面と表面の間の空間さえも完全にインタラクティブな、高度にインタラクティブな空間を作り出す」というコンセプトに基づいています。簡単に言うと、カメラは部屋の中でのユーザーの動きを追跡し、装置によって投影された画像(壁、椅子、机など、あらゆる表面に投影可能)とのインタラクションを観察します。基本的なレベルでは、カメラトラッキングにより、使い慣れたマルチタッチジェスチャーで画像を操作できますが、画像をあるオブジェクトから別のオブジェクトにドラッグしたり、画像を「拾い上げて」他の人に渡したりするなど、より高度なコマンドもサポートしています。

素晴らしい機能です。興味深い部分だけを知りたいという方でも、上の動画は ぜひご覧ください。ただし、LightSpaceは使用する部屋に合わせて調整する必要があるため、少々複雑な点もあります。現状では、LightSpaceは日常的な使用には適していませんが、Kinectのような安価なセンサーがより高性能になり、部屋の3Dマッピングをリアルタイムで行えるようになれば、LightSpaceのようなシステムが普及するかもしれません。

3Dトーキング・ヘッズ

他の企業がディスプレイの全面的改革に取り組んでいる一方で、USC のクリエイティブ テクノロジー研究所は、3D ビデオ テレカンファレンス システムを使用して、退屈なビデオ会議を少しでも楽にしようと取り組んでいます。

ビデオ会議に同席した経験(または不快な経験)がある人なら、電話会議に参加している人たちが会議時間のほとんどをウェブカメラではなくノートパソコンの画面を見つめて過ごし、最も外向的なアルファ男性でさえ孤立した内向的な人のように見えることをよくご存知でしょう。

米国巡回裁判所

もうそんなことはありません!(もっと正確に言うと、いつかなくなるかもしれません!)USCICTの技術は、1秒間に15回以上回転する磨き上げられたアルミニウム製の鏡に、発言者のリアルタイムの高速ビデオを投影することで、ビデオ会議参加者を3Dの話し手のように見せることができます。「実質的に、この鏡は180度の視野角にわたって、1.25度の視野角で144の異なるシーンを映し出します」と研究グループのウェブサイトには説明されています。

ビデオ会議参加者側では、3Dビデオ会議システムが、ホログラフィックな浮遊する頭部を見つめる受信側の人々の映像を表示します。システムは遠隔地のビデオ会議参加者の頭部の位置と視線をトラッキングし、会議中に仮想の3D頭部がアイコンタクトを取り、発言者から発言者へと視線を移します。(Google+ハングアウトのオートフォーカス機能は素晴らしいと思ったでしょう!)

リアルタイムチャットは気にしない?USCICTチームは同様の技術を用いて、歩き回って360度観察できる3D画像を作成しました。さらに嬉しいことに、この3D画像は裸眼立体視です!

短期的には

AMD
ピクセルがたくさんありますね!

最後に、未来的なディスプレイの目標をご紹介します。他のエントリーほど野心的ではありませんが、もう少し現実的かもしれません。優れたマルチモニター構成はデータの見方を変えることはないかもしれませんが、ピクセル密度は向上する一方で、ディスプレイの価格は(ゆっくりとではありますが)下がっています。これこそが価値です。6パネル、5760×2400ピクセルのディスプレイを「過剰の極み」と蔑む人は、明らかに一度も使ったことがないのでしょう。

Otpoo

Health writer and researcher with expertise in evidence-based medicine and healthcare information.