もっと詳しく
Google は、あらゆる場面でユーザーの役に立つ製品を目指して開発を進めており、AI 技術の進歩により、さらに多くのことが達成できるようになると信じています。Google 検索の初期の頃から、AI は言語の理解を助け、検索結果をより有用なものにしてきました。Google は長年にわたって AI の発展へ投資し、現在は、言語、画像、動画、さらには現実世界まで、さまざまな形の情報を理解できるようになっています。
本日は、AI の進歩を応用した情報探索をより自然で直感的にする方法をいくつかご紹介します。

検索方法を組み合わせる

この度、画像とテキストを組み合わせて検索できるマルチ検索機能が、モバイル端末において、日本語を含む Google
レンズが利用可能なすべての国と言語でご利用いただけるようになりました。

また、マルチ検索をさらに進化させ、近くの場所に絞って検索できる機能を米国(英語)のみで最近追加しました。例えば食べ物の写真に、近くのお店と入力するだけで、あなたの近所のお店の候補を検索することができます。この先数か月かけて順次、日本を含むその他の国々でも公開予定です。

さらに、今後スマートフォンの Google
検索結果ページに表示される全ての画像にマルチ検索をお使いいただけるようになる予定です。たとえば「モダンなインテリアのアイデア」を検索していて、目にとまったコーヒーテーブルの別の形(円形ではなく長方形など)を探したいとします。マルチ検索を使って「長方形」というテキストを追加すれば、関連する画像を検索することができます。

目に見えたら、検索してみよう

Google レンズは世界中で 1 か月に 100
億回以上使われており、多くの人がカメラや画像から目に見えるものを検索しています。

Google は、Google レンズによって、ユーザーの皆さんと世界の情報を
1 枚ずつの写真を通して、つなぎたいと考えています。現在すでに
Google レンズを使って、カメラで捉えた画像やカメラロールの写真を検索できますが、今後はスマートフォンの画面に表示される画像や動画も検索できるようになります。Android
のスマートフォンの Google
レンズで「画面を検索」できる機能を今後数ヶ月かけて Google
レンズをお使いいただける国で順次公開する予定です。

たとえば、旅行中の友人から動画メッセージを受け取ったとします。背景に写った建物について知りたい場合は、Android
スマートフォンの電源ボタンまたはホームボタンを長押しし、Google
アシスタントを立ち上げて画面を検索すると、建物が識別され、そこをクリックすることで詳細を確認できます。ほかにも、例えば動画で気になる家具をみつけたとき、製品の購入先や類似品を検索することができます。メッセージアプリや動画アプリといったよく使うお気に入りのアプリやウェブサイトで、アプリを切り替えることなく写真や動画に写ったものを検索できるようになります。

今回は、より自然で視覚的な検索の体験を生み出すために、AI
がどのように役立っているかをご紹介しましたが、まだ始まりでしかありません。AI
技術の進歩とともに、可能性は無限に広がっています。