Cortanaはあなたを見ることができる。もしかしたら。月曜日にシアトルで開催されたマイクロソフトのBuildイベントでデモとして披露された、謎めいた円錐形のデバイスは、同社のデジタルアシスタントの能力が大きく飛躍することを示唆していた。それは、人を見て識別する能力だ。
AmazonのAlexa、AppleのSiri、そしてGoogle Assistantによる熾烈な競争の中で、これは競合他社がまだ見ていない機能です。このプロトタイプがどのようなものか、そして実際に発売されるのかどうかは不明です。
マイクロソフトの公式デモは、影に隠れながらも未来の会議室の姿を披露しました。Cortana、Surface Hub、Skypeの翻訳・文字起こし機能に加え、PowerBIとMicrosoft Teamsを統合し、統合された作業環境を構築しました。
Microsoft Teams のマーケティング マネージャーである Raanah Amjadi 氏が主導したプレゼンテーションで、Microsoft は、架空の製品に関する問題について話し合うために「スマート ビルディング チーム」との会議を設定するように求められた Cortana によって、会議室のスケジュール設定がいかに簡単に行われるかを披露しました。
プロトタイプデバイスは、以前のデモで披露されたHarman/Kardon Invokeに似ていました。しかし、アムジャディ氏によると、このデバイスは視覚と聴覚の両方に対応しています。「音声と映像の両方を拾い、AIサービスやMicrosoft 365と連携させることで、識別、音声文字変換、さらにはリアルタイム翻訳といった重要なタスクを支援します」とアムジャディ氏は述べました。

Microsoft の認知サービスは会話を記録して書き起こし、必要に応じてメモを取りました。
デモでは、参加者が入室するたびにデバイスが一人ひとりを識別し、ファーストネームで挨拶しました。リーダーのアムジャディが入室すると、デバイスは彼女に会議を開始するかどうか尋ねました。アムジャディが会議を開始すると、近くのSurface Hubが会話の文字起こしを開始し、重要なタスクのメモを別途作成しました。(どうやら、トリガーワードの一つは「フォローアップ」だったようです。これは、Cortanaの既存のメール追跡機能や、他者との約束やコミットメントを特定する機能に基づいているようです。)
上の写真では、プロトタイプデバイスの視点から参加者全員がパノラマウィンドウに映し出されているようです。マイクロソフトのAIサービスは、中国にいる同僚のために会議の翻訳も提供しました。

Microsoft は、一度に複数の翻訳を提供しました。
ソフトウェアとサービスが従業員をつなぐ
MicrosoftのTeamsアプリは、参加者間の一種のバックチャネルコミュニケーションとして機能し、GitHubやTrelloなどの共有サービスへのリンクを提供するだけでなく、チームメンバーが設定したいフォローアップもサポートしました。ある例では、Cortanaがボランティアとして参加し、参加者間で都合の良いミーティング時間を探してくれました。同様に、Teamsは参加者がどの「第2四半期の売上予測」を求めているかを的確に把握し、Microsoft Delveの機能を活用して関連ドキュメントを表示しました。

どうやら Microsoft は Teams を、参加者が会議のバックグラウンドで実行する補助的なサービスとみなしているようです。
Microsoftは、Outlookやチャットアプリを開かずに、チーム内の他のメンバーに「@」メッセージをショートメッセージとして送信できるWordの機能を披露しました。これらのメッセージには、Microsoft To-Doアプリへのメッセージなど、アプリへのメッセージも含まれていました。後者の場合、Cortanaが再び介入し、従業員が以前に使用した情報を提案しました。

Teams を使用すると、ユーザーは Word などのアプリ内で他の Teams メンバーにメッセージを送信することができ、Cortana が介入してサポートすることができます。
マイクロソフトはまた、ユーザーがPCから直接スマートフォンを管理できるプロトタイプアプリ「Your Phone」の簡単なデモも披露しました。(この機能は既にWindowsに組み込まれていますが、アクションメニューの通知の中に隠れています。Microsoftによると、「Your Phone」は近日中にInsider向けにリリースされる予定です。)最後に、チームはPowerBIを用いて様々な方法でデータを視覚化し、HoloLensを用いてデータを探索することで、問題を「解決」しました。
2台目のCortanaデバイスですか?
本稿執筆時点では、マイクロソフトの関係者はアムジャディ氏が壇上で述べた以上のコメントを発表していない。しかし、マイクロソフトがCortanaをInvokeの先へ、自動車やその他のコネクテッドデバイスの世界に進出させることに大きな期待を抱いていたのも事実だ。少なくとも、それがマイクロソフトが2016年末に提唱した当初のビジョンだった。

Harman / Kardon Invoke は、Cortana を搭載した最初で唯一の消費者向けデバイスです。
しかしその後、CortanaはジョンソンコントロールズのInvokeやGLASスマートサーモスタットに搭載されるようになり、ほぼ全てがこれに収まりました。一方、AmazonはAlexaアシスタントをあらゆるデバイスで利用することを推奨しており、これにはMicrosoftとの提携で合意したWindows PCも含まれます。
しかし、今のところ音声認識デバイスはAlexa、Cortana、そしてAppleのSiriです。AmazonとAppleはマシンビジョン機能については未発表ですが、AmazonはAlexa搭載のスクリーン付きデバイスをデモしました。月曜日のMicrosoft Build基調講演で、MicrosoftはProject Kinect for Azureを発表しました。これはKinectセンサーの第4世代で、他のハードウェアメーカーがこれを使用して独自の「見る」ハードウェアを開発できるものです。
もちろん、そのハードウェアはMicrosoftのサービスを利用することになるだろう。自分の姿を見ることができるスマートデバイスは、消費者にとって魅力的だろうか、それとも単に不気味だろうか?家庭では、Microsoftに下着姿を見られたり、家の中で監視されたりするのではないかと消費者は不安になるかもしれない。
しかし、マイクロソフトは消費者市場から目を背け、企業とその固定予算の規模を重視するようになりました。視覚障害者用Cortanaアシスタントを搭載したビジネス向けデバイスシリーズは、少し不気味ではあるものの、理にかなっています。