Googleフォトは、高度な顔認識ソフトウェアを使用して、個人だけでなく、食べ物、猫、スカイラインなどのオブジェクトや写真の種類の特定のカテゴリも識別します。
ただし、画像認識プログラムは完璧とは程遠いです。彼らは時々何かを手に入れます滑稽なほど間違っている、そして時には攻撃的にそうであることを、あるTwitterユーザーが最近知ったように。
[slug="https://fitep.trade/tech/natsuki/2015/06/23/facebook-facial-recognition-2" も参照してください]
ブルックリン在住のジャッキー・アルシネさんは、Google フォト アプリを閲覧していると、自分と友人の写真(どちらも黒人)が「ゴリラ」というラベルでタグ付けされていることに気づきました。彼は人種差別的なラベルのスクリーンキャップをツイッターで共有した。斑点のあるYahoo Techによる。
Google フォト、みんなクソだ。私の友達はゴリラではありません。pic.twitter.com/SMkMCsNVX4— 黒ディリとバナナ (@jackyalcine)2015 年 6 月 29 日
Googleのチーフソーシャルアーキテクトであるヨナタン・ツンガー氏はすぐに反応した。
@jackyalcineクソ野郎。 G+CAはこちらです。いいえ、これは誰かのターゲット市場を決定する方法ではありません。これは 100% ダメです。— Yonatan Zunger (@yonatanzunger)2015 年 6 月 29 日
その後のツイートストームの中で、ズンガー氏は、Googleがこの問題に対処するためにチームを結集させ、15時間以内にラベルが彼のアプリから削除されたとアルシネ氏がMashableに確認したと述べた。ズンガー氏は、Googleは長期的な修正も検討していると述べた。 Googleの広報担当者も次のような公式声明を発表した。
「このようなことが起こったことに私たちは愕然としており、本当に遺憾に思っています。このような結果が生じないよう、早急に対策を講じております。自動画像ラベル付けに関しては明らかにまだやるべきことがたくさんあり、私たちは今後この種の間違いが起こらないようにする方法を検討しています。」
残念ながら、ソフトウェアが肌の色が浅黒い人を不用意に中傷するのはこれが初めてではない。 5月、Flickrの自動タグ付け機能で黒人がタグ付けされた「猿」として、ただし、白人女性にも同じタグが付けられました。そして何年も前、HP 製のラップトップに搭載されたいくつかの Web カメラ黒人の顔を追跡しなかったたとえ白人ユーザーに対してそうしていたとしても。
少なくとも Google フォトの場合は、他のユーザーが攻撃的なタグについて同様の苦情を申し出ていないようであるため、この事件は孤立しているようだ。しかし、これは、コンピュータが人間の視覚をシミュレートするという点では非常にうまく機能し始めているものの、人間の感性をシミュレートするには程遠いということを思い出させてくれます。