画像: Google
Googleの年次開発者イベントI/Oが本日開幕しました。しかし、Googleは開発者にGoogleで何ができるようになるかを伝えることにはあまり関心がないようです。むしろ、同社のGemini AIが現在、そして将来実現するであろう素晴らしい機能を一般ユーザーに伝えることに重点を置いているようです。プレゼンターたちは、私たちが「Gemini時代」に突入したことを強く訴えていました。
これは一般ユーザーにとって何を意味するのでしょうか?多かれ少なかれ、よりスマートな検索、つまりより多くのウェブサイトからより深く、より詳細な情報を引き出し、それをスマートに整理する機能です。そのすべては「AIオーバービュー」から始まります。これは、現在標準的なテキスト検索結果の前(場合によっては右側)に表示されるリッチリザルトの、新しく洗練されたバージョンです。AIオーバービューはまもなく検索ラボの隔離された領域から卒業し、米国の一般ユーザー向けに提供されます。Googleはこれを「年末までに10億人以上」に拡大したいと考えています。
インデックス化およびクロールされたウェブサイトから自動生成されるこれらの結果には、おなじみの「よく聞かれる質問」、ショッピング検索結果(もちろんGoogleは広告収入を得ています)、そして自然言語で表現されたより複雑な質問に対する結果が含まれます。Google検索ブログに掲載され、ステージ上でも実演された例としては、「ボストンで最高のヨガまたはピラティススタジオを見つけて、入会特典の詳細とビーコンヒル(ボストン)からの徒歩時間を表示してください」などがあります。AIが生成する結果には、地元のスタジオがカード形式で表示され、スマートフォンユーザーの位置を示す地図が表示されます。これはかなり標準的な機能です。
Googleは、このツールによって人々が「より複雑な質問に対する回答を求めて、より多様なウェブサイトを訪問している」と主張していることを指摘しておく価値がある。しかし、それが実際にこれらのウェブサイトへのトラフィックにどのように反映されるのかは明らかにされていない。AIを活用した一般的な検索結果は、そのソースコンテキストを掘り下げるのが困難であったり、意図的に隠蔽されていたりするため、Google検索の基盤となっているウェブサイトの持続可能性にとって懸念材料となる。

グーグル
さらに印象的だったのは、Google Lensでライブ写真を撮影し、音声で状況を説明すると、関連する検索結果が表示されるというデモでした。プレゼンターはアナログレコードプレーヤーの動画を撮影し、「これ」がなぜ固定されないのかを尋ねると、そのターンテーブルのトーンアームを修理するための手順をステップバイステップで説明しました。これはGoogleがプレゼンテーション全体を通して期待していた「魔法」のような感覚と言えるでしょう。ただし、この機能は米国では「近日」にSearch Labsでのみ試用可能です。
著者: Michael Crider、PCWorld スタッフライター
マイケルはテクノロジージャーナリズムのベテランとして10年のキャリアを持ち、AppleからZTEまであらゆるテクノロジーをカバーしています。PCWorldではキーボードマニアとして活躍し、常に新しいキーボードをレビューに使用し、仕事以外では新しいメカニカルキーボードを組み立てたり、デスクトップの「バトルステーション」を拡張したりしています。これまでにAndroid Police、Digital Trends、Wired、Lifehacker、How-To Geekなどで記事を執筆し、CESやMobile World Congressなどのイベントをライブで取材してきました。ペンシルベニア州在住のマイケルは、次のカヤック旅行を心待ちにしています。