知覚者でありながらAIそれは完全に奇抜な概念であり、(まだ)現実ではありません。しかし、人種差別的で性差別的な AI なのでしょうか?残念ながら、それは非常に現実です。
でとの最近のインタビュー有線で、エンジニアで神秘的なキリスト教の司祭であるブレイク・ルモワン氏は、Google の LaMDA という大きな言語モデルが知覚力を持ち、魂を備えたものになったと信じている理由について語った。その主張があった一方で、人工知能コミュニティの多くの人によって反論されているその結果、Lemoine は Google から有給の管理休暇を取得することになりましたが、Lemoine はどのようにして LaMDA に取り組み始めたかについても説明しました。
AI との彼の旅は、より現実世界の問題、つまり性的指向、性別、アイデンティティ、民族性、宗教に関連する有害な偏見のモデルを調査することから始まりました。
「公平なシステムなどというものは存在しないと思います」とルモワンさんは語った。有線。「問題は、私たちが排除したい有害な偏見を[LaMDA]が持っているかどうかでした。簡単に言うと、はい、たくさん見つかりました。」
Lemoine 氏はまた、彼の知る限り、Google チームはこれらの偏った「バグ」を修復するのに良い仕事をしたと説明しました。 LaMDAが人種差別的あるいは性差別的な傾向を示していたかとの質問に対し、ルモワンさんは「その言葉は使わない」と慎重に答えた。むしろ、「本当の問題は、LaMDAが使用している固定観念が、[LaMDAが]話している人々によって支持されるかどうかだ」と彼は主張する。
LaMDAの「バグ」をあからさまな人種差別主義者または性差別主義者と分類することにルモイン氏が躊躇していることは、AIシステムがしばしば永続させる有害な固定観念について多くの人が声を上げるAIコミュニティ内で進行中の争いを浮き彫りにしている。しかし、これらの問題について声を上げる人の大部分が黒人女性であること、そしてその女性たちがその後グーグルなどの企業から解雇されることを考えると、多くの人は、AIの現在のバイアス問題に注意を喚起し続けるのは、自分の責任ではなく、ルモワンのようなテクノロジー業界の男性の責任であると感じている。 AI の感覚に関する主張は、研究者と一般の人々の注目を混乱させます。
「知覚ロボットについては話したくない。スペクトルの両端には、他の人間に害を及ぼす人間が存在しており、そこに会話の焦点を当てたいと思う」と元Google倫理AIチーム共同リーダーのティムニット氏は語った。ゲブルへ有線。
マッシュ可能な光の速度
人工知能は有害な固定観念の長い歴史に直面しており、Google はこれらの問題に初めて取り組んでいるわけでも、認識していないわけでもありません。
2015 年、ジャッキー アルシネは Google フォトのタグ付けについてツイートしました「ゴリラ」というタイトルのアルバムに黒人男性の写真80枚。Google フォトは、ニューラル ネットワークを使用してその方法を学習しました。ニューラル ネットワークは、人間やゴリラなどの被写体を分類するために膨大なデータ セットを分析しましたが、明らかに間違っていました。
AI フォトシステムのトレーニングに使用されるデータが正確かつ多様であることを確認するのは、Google のエンジニアの責任でした。そして、それが失敗した場合、問題を修正するのは彼らの責任でした。によると、ニューヨークタイムズ, Googleの対応は、ニューラルネットワークを再訓練するのではなく、写真カテゴリから「ゴリラ」を削除することでした。
Microsoft、IBM、Amazon などの企業も、同じ偏った AI の問題に直面しています。これらの各企業では、AI が電力を供給していました。顔認識によって報告されているように、肌の色が濃い女性の性別を識別する場合、肌の色が明るい女性の性別を識別する場合に比べて、この技術では誤り率が大幅に高くなります。回。
2020年、ゲブル論文を発表しました他の6人の研究者(そのうち4人はGoogleでも働いていた)とともに、LaMDAのような大規模な言語モデルと、学習したデータセットに基づいて単語をオウム返しにする傾向を批判した。これらのデータセットに偏った言語や人種差別的または性差別的な固定観念が含まれている場合、LaMDA のような AI は言語を生成するときにそれらの偏りを繰り返すことになります。 Gebru 氏はまた、ますます大規模なデータセットを使用して言語モデルをトレーニングすることで、AI が言語をよりよく模倣することを学習できるようになり、Lemoine が陥ったような進歩と知覚を視聴者に納得させることも批判しました。
この論文をめぐる論争の後、Gebru氏はGoogleが2020年12月に彼女を解雇したと述べた(同社は彼女が辞任したと主張している)。数か月後、Googleは倫理AIチームの創設者で論文の共著者、Gebruの擁護者でもあるマーガレット・ミッチェル博士も解雇した。
「責任あるAI」への取り組みを謳っているにもかかわらず、Googleは依然としてAIの倫理的問題に直面しており、知覚を持ったAIの主張を受け入れる時間がない
ドラマが終わってから、評判に打撃を受けたことを認めた, Googleは責任あるAI研究スタッフを200人に倍増すると約束した。そして、によると再コード化、CEOのサンダー・ピチャイ氏は、より倫理的なAIプロジェクトに資金を提供するための支援を約束した。それでもなお、Google の倫理 AI チームに今も所属している少数の人々は、Google はもはやグループの考えに耳を傾けてくれないかもしれないと感じている。
Gebru 氏と Mitchell 氏が 2021 年に退職した後、さらに 2 人の著名な倫理 AI チーム メンバーが 1 年後に退職しました。アレックス・ハンナとディラン・ベイカーがGoogleを辞めたGebru の研究機関である DAIR (分散型人工知能研究) で働くこと。もともと小規模なチームがさらに小さくなり、おそらく、そもそも倫理 AI チームの一員ではない Lemoine 氏が介入して LaMDA のバイアスを研究するよう依頼された理由を示しているのかもしれません。
AI システムの発展においてますます多くの社会機能が AI システムに注目するようになっているため、AI の基盤がその機能にどのような影響を与えるかを調査し続けることがこれまで以上に重要になっています。すでに人種差別や性差別が頻繁に見られる社会では、私たちには自分の権利を維持する余裕はありません。警察システム、輸送方法、翻訳サービスなど、基盤に人種差別と性差別が組み込まれたテクノロジーに依存する企業が増えています。そして、ゲブルー氏が指摘するように、テクノロジー業界に携わる(主に)白人男性が、これらの既存の偏見ではなく、AIの知覚などの問題に焦点を当てることを選ぶとき、特にそれが彼らの本来の目的である場合、LemoineのLaMDAへの関与のように、偏見は増殖し続けるだろう。ロボット知覚の大騒ぎの下に隠れています。
「AIに関する現在の話とAIが実際にできることの間には、かなり大きな隔たりが存在する」と倫理学者のジャーダ・ピスティリ氏は言う。ハグフェイス、 に有線。「この物語は恐怖、驚き、興奮を同時に引き起こしますが、主に製品を販売し誇大広告を利用するための嘘に基づいています。」