注目機能3)位置情報に対応した「マルチ検索」
写真とテキストを組み合わせて検索できる「マルチ検索」と呼ばれる機能が最近リリースされましたが、この機能が位置情報にも対応することになりました。

たとえば、マルチ検索では目の前の花の名前を知りたい時に「検索ワード」と「花の画像」で花の詳細を知ることが可能になります。
さらに今回、「Multisearch near me」と呼ばれる機能を使うことで、マルチ検索の際に位置情報を考慮し、写真とテキストにもとづいてその画像の商品や料理を取り扱う近くの店舗を検索してくれます。そのため「食べたい料理の画像×『near me(近くの)』」で検索すれば、その料理を食べることができるお店をすぐに見つけることができます。(現時点では英語での入力にのみ対応しているようです)
マルチ検索が与える写真素材の重要性
マルチ検索はとくに旅行など、観光客にとって便利であると考えられます。ネットで見つけた名前のわからないカルチャーやモノ、料理があった場合、その画像を使ってマルチ検索すれば、近くのレストランが表示されたり、場所やモノを特定することができます。今までよりも「写真」などイメージから引き出される情報がより重要となるかもしれません。
注目機能4)Googleアシスタントとの自然な会話と脱「OK, Google」
AI機能がさらに進化した「Google アシスタント」の新機能。おもに強化されたのは会話に含まれるニュアンスを理解し、「より自然な会話」ができること。具体的に言えば、「OK Google」といったウェイクワードを言う必要がなく、アシスタントとの会話が成立するよう、正確に認識するようシステムが設計されています。

スマートディスプレイ「Google Nest Hub Max」に搭載された「Look and Talk」という新機能は、音声アシスタントとの会話がより自然なものになることを目指しています。最大1.5メートルの距離からその人の顔や声、視線などを把握するため、ウェイクワードを言わなくてもユーザーがデバイスのほうを見ていることを認識し、会話を開始できます。まるで人と話しているような感覚に近づいたと言えるでしょう。
「Nest Hub Max」の新機能「Look and Talk」は、「Face Match」と「Voice Match」を用いて認識するため、他人に操作される心配がありません。まずはアメリカでの提供を開始し、順次そのほかへと展開されるようです。(音声の領域のデザインや課題事項については以前の記事でも触れていますのでご参照ください)
注目機能5)AIによる文書の要約機能
GoogleドキュメントやGoogle Meetに、要約機能が組み込まれるようです。長い文書の内容をAIが自然言語処理を使い重要なポイントと判断したものを集約・要約してまとめてくれるというもの。

これはドキュメントにとどまらず、Google Meetでも活用できるようになり、ミーティングの会話のハイライトを確認できるようになります。
昨年すでに実装されたYoutubeの自動チャプター機能は、関心の高い部分や重要な部分を検知しチャプターを作成するというものでした。進化し続けるAIやアルゴリズムを活用し、ユーザーの制作にかかる時間を大幅に短縮しています。