Latest evidence-based health information
Apps

新しいGoogleアシスタント:強化されたチャットボットを実際に使ってみた

新しいGoogleアシスタント:強化されたチャットボットを実際に使ってみた
新しいGoogleアシスタント:強化されたチャットボットを実際に使ってみた

Googleアシスタントは2016年のGoogle I/Oでデビューしましたが、今年のイベントこそが真のお披露目となりました。ここ数ヶ月、GoogleはAIチャットボットに着実に機能を追加してきましたが、ついにアシスタントのより完全なビジョンが見えてきました。それは、単に私たちの日常生活について質問するだけにとどまりません。 

まず、質問を音声ではなく入力できるようになりました。これは私が一番欲しい機能で、アシスタントを使う時間が簡単に倍増するでしょう。

これで、オフィスやベッドにいる時でも、場違いな「OK Google」で沈黙を破る必要がなくなります。I/Oで試してみましたが、入力は話すのと同じくらい速く、場合によってはそれ以上に速いです。「今日の天気」や「フライト情報」といった短い単語を入力するだけで、まるで自然言語エンジンを使ったかのように関連情報が表示されます。しかも、毎回「OK Google」と言わなくても大丈夫です。

Googleアシスタント アダム・パトリック・マレー

アシスタントのサードパーティ製アクションも試してみました。Google Homeと同じように、スマートフォンでも使えるようになりました。しかし、これは単にDominosの注文を追跡したり、Todoistのタスクを整理したりするだけではありません。スマートフォンの画面を使えば、開発者はアシスタントをタップするだけで、より豊富なアクションを開発でき、よく使うアプリを開く必要がなくなるかもしれません。

例えば、Pixelで「テンダーカクテル」アクションを試してみたところ、アシスタントの知識の幅が格段に広がりました。「OK Google、テンダーに話しかけて」と話しかけると、アシスタント画面の上にアプリレイヤーが表示され、アプリを開かなくても直接操作できるようになりました。テキーラを使ったドリンクのレシピを尋ねると、スクロールできる選択肢がいくつか表示されました。気に入った写真を見つけたら、それをタップすると材料が表示されるだけでなく、アシスタントに作り方を読み上げてもらうオプションも表示されました。

スマートフォン上での操作は、Google Home上での操作よりもはるかに便利になると思います。画面によって、購入プロセスに全く新しい要素が加わります。例えば、Googleが基調講演で実演したようにモバイル決済機能もその一つです(ライブデモはまだ準備できていません)。実際、近いうちにアシスタントがスマートフォン上で購入手続き全体を案内してくれるようになります。まるで生身の人間と話しているかのように質問し、購入するものを正確に表示し、請求額の概要も表示してくれるでしょう。

さらに、夏の後半に予定されているGoogle Lensとの連携により、アシスタントは写真も分析できるようになります。アシスタントはGoogleのAIと機械学習への新たな取り組みの中核を担っており、近い将来、検索の最初で最後の手段となるかもしれません。

Otpoo

Health writer and researcher with expertise in evidence-based medicine and healthcare information.