40 年間の顔認識研究から得た 9 つの恐ろしい事実

SF では、顔認識テクノロジーはディストピア社会の特徴です。それがどのように作成され、今日どのように使用されているかという真実も、同様に奇妙です。

新しい研究では、研究者らは、過去 43 年間に収集された顔認識システムのトレーニングに使用された 100 以上のデータセットの歴史的調査を実施しました。最も広範な啓示は、より多くのデータ(つまり写真)の必要性が高まるにつれて、研究者がデータとして使用する写真に写っている人々の同意をわざわざ求めることをやめたということです。

Mozilla の研究者 Deborah Raji と AI Now の Genevieve Fried は、コーネル大学の無料配布サービスに関する研究を発表しました。arXiv.org。 MITテクノロジーレビューその分析を発表した金曜日の同紙は、この研究を「顔認識データに関する史上最大の研究」であり、「深層学習の台頭がいかにプライバシーの喪失を促進したかを示している」と評した。

顔認識データセットの進化をグラフ化したこの研究では、このテクノロジーの開発の歴史と事実が明らかになっている瞬間があります。彼らは、顔認識の性質が、監視状態を拡大するという明確な目的で作成された現実世界のシナリオに適用すると、私たちのプライバシーを損なう影響を伴う欠陥のある技術であることを示しています。

43 年間にわたる顔認識研究から得た、怖くて驚くべき 9 つのポイントをご紹介します。

1. 顔認識が学術環境と現実世界のアプリケーションでどの程度うまく機能するかの間には、大きな隔たりがあります。

研究者らが研究に取り組む理由の1つは、テストではほぼ100パーセントの精度で動作する顔認識システムが、現実世界に適用されると大きな欠陥が生じる理由を理解することだ。たとえば、ニューヨーク市の MTA と言います。顔認識パイロットを中止したエラー率が 100% になった後。顔認識は、黒人と茶色の顔では精度が低いことが証明されており、最近では黒人男性3人を逮捕技術者によって誰が誤って特定されたのか。

2. 国防総省は、このテクノロジーの最初のブームに責任があります。

顔認識開発の取り組みは学術現場で始まりましたが、1996 年に国防総省と国立標準技術研究所 (NIST) がこれまで最大のデータセットの作成に 650 万ドルを割り当てたことから始まりました。政府がこの分野に興味を持ったのは、指紋採取とは異なり、人々の積極的な参加を必要としない監視の可能性があるためです。

3. 顔認識データの作成に使用された初期の写真はポートレート セッションからのものであり、大きな欠陥が生じていました。

ほとんど古風な感じがしますが、2000 年代半ばまで、研究者がデータベースを蓄積する方法は、人物をポートレート設定で座らせることでした。今日の基本的な顔認識技術の一部はこれらのデータセットに基づいているため、ポートレート技術の欠陥は共鳴します。つまり、多様性のない参加者セットと、現実世界の状況を正確に反映していない段階的な設定です。

4. ポートレートセッションだけでは十分ではなかったとき、研究者たちは Google をスクレイピングし始め、同意を求めることをやめました。

そうです、研究者がデータセットを肖像画を超えて拡張したいと考えたとき、これは文字通り起こったことです。 Labeled Faces in the Wild と呼ばれる 2007 年のデータセットは、Google、Flickr、YouTube、その他の写真のオンライン リポジトリを収集しました。その中には子供の写真も含まれていました。これにより写真の多様性が高まりましたが、被写体のプライバシー権も放棄されました。

マッシュ可能な光の速度

「より現実的で多様なデータセットと引き換えに、被験者の同意の取得、人口統計分布の記録、データセットの品質の維持、インターネットソースのデータセット全体にわたる画像解像度などの属性の標準化が管理できなくなり、制御も失われました」と論文は述べている。読みます。

5. 顔認識の次のブームは Facebook から来ました。

研究者らは、2014年にFacebookがDeepFaceデータベースの作成を明らかにしたときが顔認識の転換点だったとしている。Facebookは、数百万枚の写真のコレクションから、顔認識タスクにおいて以前のシステムよりもはるかに優れたニューラルネットワークをどのように作成できるかを示し、ディープラーニングを現代の顔認識の基礎。

6. 驚いたことに、Facebook の大規模な顔認識事業はユーザーのプライバシーを侵害しました。

Facebookはそれ以来、FTCから罰金を科せられるそして和解金を支払ったユーザーの積極的な同意を得ることなく、Facebook の顔認識を可能にするためにユーザーがアップロードした写真を使用したとして、イリノイ州に訴えました。 DeepFace は、写真内のタグ付けしたい人物を提案できる機能である「タグ提案」を通じて実現されました。タグを承認または拒否することで、Facebook のシステムがよりスマートになりました。タグの提案はオプトアウトされており、このテクノロジーへの参加がデフォルトであることを意味します。

7. 顔認識は 1,770 万人の顔についてトレーニングされていますが、これは公開データセット内のみです。

実際には、写真が原因で顔認識技術の開発に知らず知らずのうちに参加してしまった人々の数も身元もわかっていません。

8. 顔認識の自動化は、攻撃的なラベル付けシステムと不平等な表現をもたらしました。

顔認識システムは、顔や人物を識別する以上に進化しました。また、人々やその属性に攻撃的なラベルを付けることもあります。

「これらのラベルには、サイズに関する問題があり潜在的に侮辱的なラベル(「ぽっちゃり」、「二重あご」)、またはアジア人向けの「白い肌」、「とがった鼻」、「細い目」、「大きな鼻」などの不適切な人種的特徴が含まれています。そして多くの黒人被験者の『大きな唇』」と論文には書かれている。 「さらに、『目の下のクマ』『5時の影』などの奇妙な概念や、『魅力的』など一貫して定義することが客観的に不可能なラベルが含まれている。」

「西洋人」とみなされる顔がトレーニング セットのデフォルトになりました。そして、多様性を高めるために明示的に作成された他のデータセット自体にも問題がありました。そのようなシステムの目的の 1 つは、「公平で差別を意識した顔認識アルゴリズムを訓練する」ことでしたが、研究者らは、それは人間の民族的起源を「たった 3 つのカテゴリーに分類しているだけだ」と指摘しています。 」

これらの欠点は単に攻撃的なだけではありません。研究示しましたAI における差別が現実世界における差別を強化する可能性があるということです。

9. 今日の顔認識技術の用途は、政府の監視から広告のターゲティングまで多岐にわたります。

顔認識は、そのルーツに忠実であると同時に、1970 年代の開発者が想像していた以上に拡張してきました。

「歴史的背景から、政府が犯罪捜査と監視を可能にする目的で最初からこの技術を推進し、支援していたことがわかります」と著者らは書いている。たとえば、Amazon はすでに、問題のある Rekognition テクノロジーを次の企業に販売しています。計り知れない数警察署の。

一方、一部のトレーニング セットは、買い物客の感情を分析し、潜在的な顧客をより適切に追跡および理解するためのシステムの開発に役立つと約束しています。

監視国家と全知の資本主義広告機械、どちらがよりディストピア的だろうか?あなたが決めてください。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.