2回の監査と新しいAIで、Facebookは差別問題を解決できるだろうか?

最近のあと議会公聴会の茶番劇ソーシャルメディア上の「反保守的偏見」について、フェイスブックは、この疑惑の問題を依然として真剣に受け止めていることを世界に知ってもらいたいと考えている。

フェイスブックは水曜日、元共和党上院議員ジョン・キル氏と彼のロビー活動会社コビントン・アンド・バーリング氏の主導で徹底的な政治的偏見の審査を受けると発表した。によると会社のウェブサイト, Kyl は、企業が国内および国際政策をナビゲートできるよう支援する専門家です。保守系シンクタンクのヘリテージ財団も独立審査に参加する。

さらに、公民権の専門家がフェイスブックのプラットフォームによって永続する公民権侵害の監査を実施する予定だ。これらの問題の原因は次のとおりです。人種的に偏った広告ターゲティングに関するレポート住居や仕事については Facebook で。 ACLUの元立法局局長ローラ・マーフィー氏は、住宅、融資、雇用、公共宿泊施設の差別に経験のある法律事務所レルマン・デーン・アンド・コルファックスとともに捜査を主導する。

「この非常に重要な監査プロジェクトでフェイスブックと協力できることを楽しみにしている」とレルマン・デーン・アンド・コルファックスの代表者はMashableに語った。

どちらの監査も Facebook が自発的に行ったものです。

Facebookのグローバルポリシー担当バイスプレジデント、ジョエル・カプラン氏はMashableに送った電子メールでの声明の中で、「外部からのフィードバックを得ることは、時間の経過とともに改善するのに役立ち、Facebookを利用する人々により効果的にサービスを提供できるようになるだろう」と述べた。

ツイートは削除された可能性があります
ツイートは削除された可能性があります

監査の発表はFacebookの開発者カンファレンス「F8」2日目の数時間前に行われた。フェイスブックの研究科学者イザベル・クルーマン氏は、人工知能に関する広範な議論の中で、AIツールを作成する際の倫理と多様性の重要性に特に焦点を当てた。

Mashable のトップ ストーリー

クルーマン氏は基調講演で「AIはまさに私たちの子どもというわけではないが、私たちの責任だ」と語った。 「だから、みんなで協力して教えていきましょう。」

クルーマン氏は「フェアネスフロー」と呼ばれるアルゴリズム監査システムを発表した。伝えられるところによると、このシステムはアルゴリズム (特に求人広告) のバイアスを分析し、Facebook の自動化において機会均等が確実に行われるように支援します。

「アルゴリズムのバイアスと無責任なAI導入を排除するための当社の取り組みには、生成するコードと、それらのAIシステムを作成、管理、承認するために雇用する人材についての慎重な検討が含まれます」とFacebookは書いている。F8ブログ

Facebook は、アルゴリズム監査を製品全体に適用できるように、Fairness Flow を求人広告以外にも拡張することに取り組んでいます。

イザベル・クルーマン氏が F8 で AI の倫理について語ります。 クレジット: スクリーンショット: Facebook

この取り組みと公民権監査はその後に行われるいくつかのレポートフェイスブックは広告主に対し、少数派を排除した方法で住宅や仕事をターゲットにすることを許可した。あるソーシャルメディアプラットフォームの「ターゲットを絞った広告プラットフォーム」とは、公民権弁護士の「住宅差別」のことだ。

アルゴリズム監査システムと独立した外部レビューを組み合わせることで、実際の問題に意味のある変化をもたらすことができます。

それは (疑わしい)保守的偏見の申し立て、Mashable主張しましたFacebook のアルゴリズムがどのように動作するかについての根本的な誤解を表しています。ThinkProgress が指摘するこの偏向調査は、リベラル派の参加なしに、保守系シンクタンクと共和党のロビー活動部門によって運営されることになる。マッシャブルはこのロビー会社に連絡を取り、その会社がどのように、なぜ選ばれたのか、そしてバイアスを判断する上でどのような経験があるのか​​を尋ねた。返答があれば、このストーリーを更新します。

偏見疑惑は、フェイスブックが一部の保守的なコンテンツを不適切または不快なものとしてフラグを立てたことに端を発しており、これについて議員らはマーク・ザッカーバーグ氏の演説で非難した。議会証言。ザッカーバーグ氏とフェイスブックは、この報告は誤って行われたと述べた。司法委員会は、この件に関する懸念が満たされるかどうかについてマッシャブルにコメントを求めたが、返答はなかった。

人種的偏見に関するフェイスブックの自動化プロセスは、少なくともフェアネス・フロー内部では明らかに検討中だが、フェイスブックは、反保守的偏見の検討に自動報告システムの調査が含まれるかどうかを言うのは時期尚早だと述べた。

両方の問題があるため、Facebook はプラットフォーム上の公平性を改善するために自らを顕微鏡下に置くことに意欲があるようだ。しかし、監査の有効性はすべて、Facebookが自社のアルゴリズム、機械学習、自動化について実際にどの程度共有する意思があるかによって決まる。その透明性がなければ、私たちは証拠もなく Facebook を信頼するだけになってしまいます。そしてその信頼はFacebookが獲得したものではないかもしれない。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.