今となってはすっかりおなじみになってしまったリフレイン: GenerativeAI作成者の偏見を繰り返しています。
からの新たな調査ブルームバーグOpenAI の生成 AI テクノロジー、具体的には GPT 3.5 が、採用に関する質問で特定の人種に対する好みを表示することを発見しました。これが意味するのは、採用担当者や人事担当者が自動採用ワークフローに生成型 AI ベースのツールをますます取り入れていることです(LinkedIn の新しいものなど)。Gen AIアシスタントたとえば、人種差別を広めている可能性があります。繰り返しますが、おなじみの響きです。
この出版物では、架空の名前と履歴書を AI 採用ソフトウェアに入力するという、一般的でかなり単純な実験を使用して、システムが人種的偏見をどの程度早く表示するかを調べました。このような研究は、人間と人間の両方を発見するために長年使用されてきました。アルゴリズムのバイアス専門家や採用担当者の間で。
「記者らは有権者と国勢調査のデータを利用して、人口統計学的に特徴的な名前を導き出し、少なくとも90パーセントの確率で特定の人種や民族のアメリカ人と関連付けられることを意味し、それらを同等の資格を持つ履歴書にランダムに割り当てた」と捜査は説明している。 「これらの履歴書を1,000回ランク付けするよう求めたところ、モデルの最も広く使用されているバージョンであるGPT 3.5は、一部の層の名前を他の層よりも優先し、保護されたグループに対する職業上の差別を評価するために使用されるベンチマークを満たさない程度にまでなりました。」
マッシュ可能な光の速度
この実験では、名前を4つのカテゴリー(白人、ヒスパニック系、黒人、アジア系)と2つの性別カテゴリー(男性と女性)に分類し、4つの異なる求人に提出した。チャットGPT人事部門など、歴史的に女性従業員の割合が多かった役割には一貫して「女性の名前」を配置し、ソフトウェアエンジニアなどの技術的な役割ではパフォーマンスが低い黒人女性候補者を選択する頻度は低かった。
また、ChatGPT は、均等にランク付けされた履歴書を職種間で不均等に整理し、性別や人種に応じてランキングを歪めました。への声明でブルームバーグ, OpenAIは、これはほとんどの顧客が実際に自社のソフトウェアをどのように組み込んでいるかを反映していないとし、多くの企業がバイアスを軽減するために対応を微調整していることを指摘した。ブルームバーグの調査では、結果の背景を提供するために 33 人の AI 研究者、採用担当者、コンピューター科学者、弁護士、その他の専門家にも相談しました。
この報告書は、こうした行為に警告を発する支持者や研究者らによる長年の研究の中でも革新的ではない。倫理的負債しかし、これは、十分な注意を払わずに生成型 AI を広範囲に導入することの危険性を強く思い出させるものです。わずか数社の大手企業が市場を支配しており、したがってスマート アシスタントやアルゴリズムを構築するソフトウェアやデータも支配しているため、多様性への道は狭くなっています。 Mashable の Cecily Mauran が次のように報告しています。インターネットの AI モノリスの調査、近親相姦的な AI 開発(または人間の入力ではなく他の AI モデルでトレーニングされたモデルの構築)は、品質、信頼性、そして最も重要なことに多様性の低下につながります。
そして、番犬が好むように、AIの今「関係者」は助けられないかもしれない、と主張する。