Googleのジェスチャーセンシングレーダー技術、Project Soliにはまだ期待が残っている。
Google が 2015 年に初めて披露したこのプロジェクトは、レーダーとセンサーを組み合わせて、日常の物体用のジェスチャー コントローラーを作成します。したがって、たとえばディスプレイをタップしてスマートウォッチを制御する代わりに、指をすばやくこすり合わせたりタップしたりすることができます。
Google の極秘の Advanced Technology and Projects (ATAP) ラボの製品である Google は、長年にわたっていくつかのプロトタイプを公開してきましたが、2016 年の Google I/O での最後のアップデート以来、Soli について公には多くを語っていません。
しかし今、私たちはプロジェクトがまだ生きていることを知りました。過去 2 年間比較的沈黙を保ってきたにもかかわらず、Google は現在許可されている電力レベルよりも高い電力レベルでセンサーをテストするために、FCC の承認を得るための舞台裏で取り組んできました。この許可は現在付与されており、FCCは先週最初の提出書類でソリに承認を与えた。によって発見されましたロイター。
Soli でジェスチャーを使用してスピーカーの音量などを制御できる方法の例。 クレジット:メッセンジャー
これがプロジェクト ソリの将来に正確に何を意味するかはまだ明らかではありませんが、レーダー技術が最終的にプロトタイプ以上のものになることを期待している人にとっては、間違いなく前向きな展開です。
マッシュ可能な光の速度
Soli は、日常の物体に簡単に組み込むことができるレーダーと小型センサーに依存しているため、このテクノロジーを使用すると、3D カメラや大規模なテクノロジーに依存するものよりもモーション コントローラーの作成がはるかに簡単になる可能性があります。
説明した方法は次のとおりです2015年に遡って:
Project Soli のジェスチャ追跡は、レーダーに依存するという点で特にユニークなアプローチを採用しています。高周波電波を通じて動いている物体を検出するレーダーは、Project Soli の設計責任者である Carste Schwesig 氏が言うところの、モーション トラッキングへの「根本的に異なるアプローチ」を可能にします。
Soli のセンサーは 1 秒あたり最大 10,000 フレームでモーションをキャプチャできるため、はるかに低いフレーム レートでモーションを追跡するカメラベースのシステムよりもはるかに正確だとシュヴェシグ氏は言います。また、カメラとは異なり、レーダーは特定の種類の物体を通過できるため、カメラよりも多くのフォーム ファクターに適応できます。
それ以来、Google はこの技術を少数の開発者に利用可能にし、指を合わせてタップするだけで Bluetooth スピーカーやスマートウォッチを制御する機能など、ジェスチャ センサーの実世界の使用例をいくつかデモしました。現在、FCCが参加しており、FCCもソリ氏の約束を認めているようだ。
「権利放棄の許可は、タッチレスハンドジェスチャー技術を使用した革新的なデバイス制御機能を提供することで公共の利益に貢献する」とFCCは述べているその承認において。
詳細については Google に問い合わせており、返答があれば更新します。