グーグルには、あなたの周囲にあるものについての情報を伝えることができる新しい AI エージェントが搭載されています。たくさんのこと。
「Project Astra」と呼ばれるこれは、Gemini ベースのマルチモーダル AI ツールで、携帯電話のカメラを現実のものに向けると、見ているものの音声による説明を取得できます。
火曜日にGoogleのI/Oカンファレンスで披露されたデモでは、このツールがスピーカーに向けられ、その一部がツイーターとして正確に識別された。さらに印象的なのは、携帯電話のカメラがコンピューターのディスプレイ上のコードの断片に映り、Astra がコードの動作のかなり詳細な概要を提供したことです。
マッシュ可能な光の速度
最後に、Project Astra をテストしている人は携帯電話を窓に向けて、「私がいるのはどの地域だと思いますか?」と尋ねました。数秒後、ジェミニは「ここはロンドンのキングスクロス地区のようです」と、その地域に関するいくつかの詳細とともに答えました。最後に、置き忘れたメガネを見つけるようにツールに要求すると、ツールはそれに応じて、メガネがどこに置かれたかを正確に教えてくれました。
おそらくビデオの最も興味深い部分では、これらのメガネが実際にはある種のスマート メガネであることがわかります。このメガネは、着用者が見ているものについてジェミニに促すために再び使用できます。この場合、ホワイトボードに描かれた図に提案を与えます。 。
GoogleのDeepMind CEO、Demis Hassabis氏によると、Astraのような機能は、携帯電話でも眼鏡でも利用できるようになる可能性があるという。ただし、同社は発売日については明らかにしていないが、ハサビス氏はこれらの機能の一部が「今年後半」にGoogle製品に導入されると述べた。