Google I/O 2017にキャッチフレーズがあるとしたら、「機械学習の台頭」といったところでしょうか。基調講演全体を通して最も大きなテーマとなったのは、モバイルファーストの世界からAIファーストの世界へと完全に移行し、Googleやデバイスを使って周囲のあらゆるものを見る方法を変革するという積極的な取り組みでした。
かつてはアルゴリズムが重要でしたが、今は人工知能が重要になっています。Googleは、単にブラウザで何かを探すためのツールになるだけでなく、画面を見ているかどうかに関わらず、疑問がある時はいつでも手の届くところにあることを望んでいます。Google HomeのGoogleアシスタントで既にその傾向は見られますが、今やGoogleは検索をスマートフォンやアプリから切り離し、どこからでもアクセスできるようにし始めています。
しかし、それは私たちの期待を変えることも意味します。今のところ、何かを検索するにはGoogleに明示的に指示する必要がありますが、新たなAIの推進により、カメラ、カレンダー、お気に入りのアプリなどを活用して、必要な場所に必要なタイミングで情報を提供してくれるようになります。たとえ私たちが何を探しているのか正確に分かっていなくてもです。場合によっては、質問する必要すらないかもしれません。
百聞は一見に如かず
GoogleがI/Oで発表した唯一の真の新製品はGoogle Lensでした。これは独立したアプリではなく、スマートフォンとカメラや写真の連携を強化する基盤プラットフォームです。Google GogglesとSamsungのBixbyが融合したようなもので、そこに少しだけ拡張現実(AR)の要素が加わっているような感じです。
グーグル Google レンズは何を見ているのかを認識し、それについてすべて教えてくれます。
Googleが言う通りの性能を発揮すれば、検索の使い方を劇的に変える可能性があります。Google翻訳を開いて検索欄に短いテキストを入力する代わりに、スマートフォンのカメラをテキストに向けるだけで、翻訳が魔法のように機能するようになります。これは、Google翻訳アプリがWord Lensを使ってテキストを瞬時に解読する方法に似ていると考えられます。つまり、これは新機能の導入というよりも、私たちが日常的に使えるように、非常にシンプルなものにすることを目指していると言えるでしょう。
そして、最終的には、私たちが目にするあらゆるものにも応用できるようになるかもしれません。花の写真を撮ると、Google レンズがその花の種類を教えてくれます。そして、そこからアシスタントを使って、その花についてさらに詳しく調べることができます。これは、面倒な画像検索の手順(と時間)をすべて、たった一つのシンプルな操作に凝縮するのです。私たちは今でもGoogle検索をしていますが、それについてほとんど意識していません。
家は検索がある場所です
Google Homeデスクトップスピーカーは、検索(そしてGoogle全般)への依存度を下げることなく、スマートフォンへの依存度を抑えるための完璧な手段となっています。しかし今、Homeは私たちのデジタルライフの真のハブとなるでしょう。目玉となる新機能はハンズフリー通話です。Amazonが先週Echo Showで同じ機能を発表していなければ、もっと注目を集めていたでしょう。しかし、ご安心ください。GoogleはHomeに、私たちの生活をより整理する役割を与えようとしているのです。
グーグル Google Home は、質問する前に知りたい情報があれば教えてくれるようになりました。
新機能「プロアクティブ アシスタント」は、スケジュールやリマインダーをチェックして、何か忘れていることがあるかどうかを知らせてくれます。例えば、交通渋滞で子供のサッカーの練習を迎えに行かなければならない場合、Google Homeがカレンダーや交通情報を検索して、少し早めに出発した方がいいと教えてくれます。
それほど邪魔にはなりません。デバイス上部の回転するライトが通知を知らせてくれます。そこから「OK Google、調子はどう?」と話しかければ、何が見つかったか教えてくれます。将来的には、速報ニュースやスポーツニュースなどの他のGoogle Now On Tapサービス、さらにはサードパーティ製アプリにも拡張されるかもしれません。
確かに、GoogleがGoogle Homeの機能について慎重に検討しなければ、すべてが少し行き過ぎてしまう可能性もあるため、何が役に立つのか、何が過剰なのかのバランスを取る必要があります。しかし、真のアシスタントとして、私たちのニーズを予測し、タイムリーで関連性の高いコンテンツを提供することで、検索に新たな次元を追加する大きなチャンスがあるのです。
個人的なタッチ
Googleが移行を進めているモバイルファーストの世界は、従来の検索だけによって推進されているのではありません。アプリによっても推進されています。私たちのスマートフォンには、月に数回しか開く必要のないアプリが何十、いや何百とあります。そしてGoogleは、実際にアプリを開いたりダウンロードしたりすることなく、それらの情報すべてにアクセスする主要な手段として、アシスタントに注目しています。
グーグル Transactions を使用すると、Google アシスタントを通じて商品を検索、注文、支払いできるようになります。
まず、GoogleはGoogle Homeの機能をスマートフォンに導入します。画面が搭載されることで、アシスタントを使ってアプリに話しかけるだけでなく、これまでにない斬新な方法でアプリとやり取りできるようになります。料理の注文やレシピの検索といったタスクは、Googleアシスタントを使えばすぐに完了します。Google Lensと同様に、これらのタスクにかかる時間を大幅に短縮できます。
アシスタントに特定のアプリへのアクセスを指示すると、アシスタントはデータベースを使って、あなたが尋ねた情報を取得します。そして間もなく、この機能は取引にも拡張され、尋ねるだけで商品を購入したり、食べ物を注文したりできるようになります。開発者はアシスタントを活用して、商品の検索から注文のカスタマイズ、そしてチェックアウトまで、取引全体をガイドするエンドツーエンドの注文プロセスを作成できます。そして、これが宣伝どおりに機能すれば、ウェブサイトにログインしたりアプリを開いたりすることなく、現在の数分の1の時間で注文できるようになります。
どこでもGoogle
Googleの新たなAIへの取り組みは、スマートフォンやアプリ、あるいはAndroidに限ったことではありません。Googleがまだ存在しないあらゆる場所にGoogleを届け、その隙間をGoogleアシスタントで補うというものです。これはモバイルそのものからの脱却ではなく、むしろ従来の検索から脱却していく中で、Googleをより多用途で拡張性の高いものにするための手段です。
グーグル すぐに何かを探すのにバーは必要なくなります。
しかし、Googleを驚異的な高みへと押し上げた2つの要素、つまりスピードと精度は、依然としてGoogleの原動力となっています。Googleレンズ、Google Home、Googleアシスタントの3つの強みは、検索の利用範囲を広げると同時に、迅速かつ的確な回答を提供することで、検索に費やす時間を短縮します。
そしてもうすぐ、何かを調べるのにChromeを開いたりバーをタップしたりする必要がなくなります。必要な時にいつでもGoogleがそこにあります。