同社の従業員における多様な表現の改善が遅れているにもかかわらず、Snapのエンジニアたちは同社の製品から人種的偏見を根絶するために取り組んでいる。
スナップ株式会社は、第 2 回年次ダイバーシティ報告書木曜日、結果はまちまち。同社は過小評価されている人種および民族グループの採用で若干の増加を見せており、幹部レベルでは0.5パーセントポイント増加して13.6パーセントとなった。
黒人従業員、特に黒人女性の雇用(後者のグループの雇用は新規雇用者の2パーセントから5パーセントに増加)と、女性をテクノロジーのリーダー的役割に昇格させることにおいては、顕著な改善が見られた。その一方で、ヒスパニック系従業員の定着率はわずかに低下し、指導的役割におけるアジア人の割合も 14.3 パーセントに低下しました(これは、全社のアジア人の割合が 34.3 パーセントであるのに比べて、不釣り合いに低いです)。
全体として、Snap の黒人およびヒスパニック/ラテン系従業員の表現は、残りのテクノロジー業界、それぞれ約4〜6パーセントです。スナップ従業員の半数弱、47パーセントが白人だ。
スナップは何年にもわたって社内で多様性データを収集してきましたが、そのデータを公開しました史上初の公開ダイバーシティレポート同社のCEO、エヴァン・シュピーゲル氏は2020年7月にこう述べた。データの公開を躊躇していると伝えられているなぜなら、テクノロジー企業では有色人種が過小評価されているという考えに数値的な信憑性を与える可能性があり、利益よりも害の方が大きいと懸念したからである。最終的にスナップはデータを発表し、そのデータはほとんどのテクノロジー企業の平均と一致していることを示した。
最初のレポートと同様、今年のレポートは人口統計だけが焦点ではありませんでした。今年、スナップは、有色人種の経験を従業員全体と共有し、従業員リソースグループにリーダーシップへの幅広いアクセスを与え、同社でのインターンシップにつながるトレーニングプログラムで多様な人材を育成するために行ってきた取り組みを強調しました。ダイバーシティ、エクイティ、インクルージョン (DEI) を会社全体のパフォーマンス指標にするなどです。
また、視聴者を調査および研究することで、Discover コンテンツがユーザーの人口統計を正確に反映していることを確認しています。 Discover ショーにおける有色人種および LGBTQ+ の個人の割合が 50% 以上に増加しました。コンテンツ チームのこの取り組みは特に注目に値します。その理由の 1 つは、Snap は昨年、従業員の意見を共有したことで非難を浴びたためです。Mashable が報告した、コンテンツチームにおける過去の人種的に偏見のある行為。続いてスナップ調査を行った、そしてこの疑惑に関与したマネージャーらは、左から会社。
「私たちの目標は、私たちが意図的に厳選したDiscoverコンテンツプラットフォームが、Snapchatユーザーの多様性とその興味を反映したコンテンツを確実に特集することです」と報告書は述べています。
Mashable のトップ ストーリー
エンジニアリング資本
テクノロジー企業として、Snap は人材だけでなく製品にもこうした取り組みを集中させてきました。その結果、コーディング言語、機械学習、さらにはカメラの機構から無意識の偏見や人種的無関心を取り除く取り組みが生まれました。
「私たちは無意識の偏見を取り除くために機械学習アルゴリズムを書き直し、フロントエンドでの製品開発方法にインクルーシブデザインの原則を導入しています」と報告書は述べています。 「私たちは、年齢、地位、肌の色、体の大きさ、能力、言語など、あらゆる人がアクセスでき、多様な視点によって形作られる、Snapchat 用のより包括的なカメラの構築に取り組んでいます。」
これらすべてのプロジェクトはまだ初期段階にありますが、Snap は、たとえ詳細が多少軽くても、その初期の取り組みを共有したいと考えました。
Snapの広報担当者は、カメラインクルーシブプロジェクトの原点をMashableと共有した。スナップのカメラチームのエンジニアで黒人であるベルトラン・サン・プルーは、スナップのカメラを使った自身の個人的な経験を振り返り、それが必ずしも自分を正確に表現しているわけではないことに気づいた。これにより、彼は次のことを掘り下げるようになりました。カメラの歴史、カメラが光を調整する方法がデフォルトとして白い肌に基づいて構築されていることがわかりました。現在でも、すべての肌の色調を捉えるには絞りが十分に広くないことがよくあります。
サン・プルーは、カメラの人種的に偏った歴史的遺産と闘うための取り組みを社内で主導した。現在、Snap は映画やテレビの写真やビデオ撮影の専門家と協力して、同社のカメラ (スマートフォンでは物理的な電話ハードウェアを使用しますが、Snap ソフトウェアで実行されます) がすべての人の肌の色調と顔の特徴を正確に捉えられるようにしています。これには、前面フラッシュが弱い光を捉える方法の改善が含まれます (被写体を正確に照らし、色と詳細を捉えるために重要です)。また、写真の表現が正確であることを確認するために、写真撮影後の写真処理にも取り組んでいます。
2 番目の取り組みは、機械学習 (ML) を中心に展開します。 ML は、写真編集から AR エフェクトに至るまで、Snap カメラ エクスペリエンスの多くを強化します。ただし、ML のような人工知能システムがあるため、製作者の無意識の偏見を反映している、実際には不平等に機能する可能性があります。
その理由の 1 つは、顔写真などのデータセットは人種的に多様ではないことが多く、白い顔が顔を識別するためのデフォルトになるためです。このため、Snap の顔追跡などのシステムは有色人種に対して効果が低くなります。この非効率性は、アルゴリズムに書き込まれた優先順位からも発生します。スナップ氏は、「アルゴリズムが分散に対して最適化されていない場合、つまり白人以外のものを見つけるのにそれほど優れているようにプログラムされていない場合、暗い顔を見つけることができなくなります。」と説明しています。スナップ氏はレポートの中で、より良いトレーニングデータを見つけることが課題であったことを認めている。
「ML は Snapchatter のエクスペリエンスをパーソナライズするのに役立つ強力なツールですが、本質的には集合的に学習して最適化するように設計されています」とレポートでは述べています。 「したがって、全体的な製品エクスペリエンスは世界的な対策に従って改善される可能性がありますが、コミュニティ内の特定の人々にとっては不足している可能性があります。」
Snapはアルゴリズムを監査する際に「分散の最適化」を試みている。同社は、顔追跡アルゴリズムがうまく機能しない時間を調査し、これらのシナリオを特定し、いつ発生するかを予測し、最終的には修正するためのシステムを構築しています。
3 番目のエンジニアリングの取り組みは、Snap を動作させる実際のコードから人種に配慮しない言語を根絶することです。たとえば、コーディングによっては、物事を分類するために「マスター」や「スレーブ」などの用語が使用されます。コーディング言語における人種的偏見を認識し、コーディングコミュニティでの計算、そして今度はSnapにも登場しました。昨年、シニアエンジニアのTammarrian Rogers氏がSnap初のエンジニアリング・インクルージョン担当ディレクターとなり、プロジェクトの先頭に立った。
Snap が、圧倒的な多様性の統計を発表すると同時に、これらの初期段階のエンジニアリングの取り組みを共有することを選択したのは確かに好都合です。ただし、だからといって DEI の重要性が損なわれるわけではなく、テクノロジー業界全体における DEI の基準を引き上げる潜在力が損なわれるわけではありません。