目には見えても説明できないものについて質問がありますか? Googleに聞いてみてください。
Google は、画像を使って検索するための、非常に便利で恐ろしいほど先進的な新しい方法を発表しました。
Google レンズではすでに画像に基づいて検索できます。たとえば、ゾウの写真を撮ると、おそらく Google レンズの検索結果で「ゾウ」が返されるでしょう。しかし今では、自分が撮った写真やライブラリに保存した写真をタップして、それについて質問できるようになりました。ゾウを例に挙げます。写真をタップするだけで「質問を追加」することができ、テキスト ボックスがポップアップして、「このゾウは何の種類ですか?」「このゾウは世界に何頭残っているのでしょうか?」
これには非常に多くの AI 処理層が関与するため、実際には理解するのが困難です。それは写真の中にあるものを理解し、あなたの質問を理解し、あなたの質問が写真にどのように関連しているかを理解します。そしてもちろん、(表面上は)あなたが探している答えが得られます。何?!?
マッシュ可能な光の速度
それをすべて可能にするのが、より高度な新しい AI システムです。マルチタスク統合モデル(または MUM) は 5 月に発表され、検索の機能を強化し始めています。 Googleはこれまで、ゆっくりと展開していくより複雑な方法でクエリを処理し、以前よりも関連性が高く有益になると Google が考える結果を提供できる新しいテクノロジーのアプリケーションです。
Lens への変更は、これまでで最も目を見張るもののうちの 1 つであり、Google が提供するクエリの例は、MUM がいかに賢明であるかを示しています。 Google レンズにシャツの柄について、また同じ柄が靴下にもあるかどうかを尋ねることができます。つまり、正確な商品リストが得られます。
あるいは、誰かが壊れた自転車の部品の写真を撮った例を次に示します。 Google レンズに壊れた部品の写真を見せて「どうやって直すか」と尋ねると、正確な壊れた部品が何かと、その修理方法の両方が得られます。
この種の質問はいずれも、視覚的な要素がなければ答えるのが難しいでしょう。このパターンについては、たとえば花柄の靴下を口頭で検索すると、不特定の結果が得られる可能性があります。そして、自転車の例では、おそらく、壊れた自転車の特定の部品が「ディレイラー」と呼ばれていることを理解する必要があるでしょう (誰が知っていたでしょうか?)。それを直す方法について心配し始める前に。
機械はますます賢くなっています。おそらく恐ろしい見通し世界にとっては、難しい質問に対する答えを見つけるには素晴らしいニュースです。