アンドロイドユーザーは間もなく、革新的にアクセス可能な形式のデバイス制御にアクセスできるようになります。ハンズフリーナビゲーション、の力を使ってGoogle AIそして顔の追跡。
本日の開発者基調講演イベントで発表される同社の長いアップデートと発表のリストの一部であるこの新機能は、Project Gameface として知られる Google のデスクトップ製品のモバイル版です。新しい仮想カーソルは、Android のアクセシビリティ サービスと顔の表情のデータベースを使用します。MediaPipe の顔ランドマーク検出 APIユーザーと開発者の両方にとって、ハンズフリー技術のより広範なカスタマイズと操作が可能になります。
「デバイスのカメラを通じて、顔の表情や頭の動きをシームレスに追跡し、直感的でパーソナライズされた制御に変換します。開発者は、ユーザーが顔の表情、ジェスチャーのサイズ、カーソルの速度などをカスタマイズしてエクスペリエンスを構成できるアプリケーションを構築できるようになりました。」 Googleは発表の中でこう説明した。
Google が国際的なアクセシビリティ ソリューション グループと提携含む仕事や社交的なタスクなど、ゲーム以外のより広範なコンテキストで Gameface の拡張をテストします。
マッシュ可能な光の速度
まず Gameface をプロジェクトする2023年に発売オープンソースのハンズフリー ゲーミング マウスとして、ユーザーは頭と顔の動きだけでコンピュータ カーソルを操作できます。このテクノロジーは、バイラルビデオゲームストリーマーと協力して設計されました。ランス・カー、四肢麻痺のある人は、高価な頭部追跡システムのより利用しやすい選択肢として。また、ジェスチャー サイズのオプションも導入され、さまざまなモビリティのユーザーがよりカスタマイズできるようになりました。
「私たちはこのような企業を見てうれしく思っています。遊びの能力Project Gameface ビルディング ブロックを利用するなどMediaPipe ブレンドシェイプ「私たちは現在、開発者が Android アプリケーションを構築してすべての Android デバイスをよりアクセスしやすくするのを支援するために、Project Gameface のコードをさらにオープンソース化しています。」と Google は書いています。
Google はまた、スクリーンリーダー テクノロジーの新しい AI 機能も発表しました。トークバック、より詳細な説明が表示され、次の情報が入力されます。ラベルのない画像ウェブ上で視覚障害のあるユーザーを支援します。
プロジェクトGamefaceは開発者が利用できるようになりましたGitHub 上で。