Microsoft AIチャットボット「Tay」を発売先週ミレニアル世代がどのように話すかを学ぶための実験として、投稿したように、すぐに会社にとって恥ずかしいことになりました人種差別的で攻撃的なツイートその後オフラインにされました。
金曜日、マイクロソフトリサーチ社コーポレートバイスプレジデントのピーター・リー氏はこう語った。出版されたテイ氏の不正行為に対する謝罪と説明を行い、同社は「テイ氏の意図せぬ攻撃的で有害なツイートを深くお詫びする」と述べた。
Microsoft はすでに中国で同様のプロジェクト、XiaoIce と呼ばれるチャットボットを実行しており、4,000 万人以上が使用しています。しかし、その成功は米国ではうまく伝わらなかった
Lee 氏によると、Tay はこのようなことが起こらないことを確認するために多くのテストを受けましたが、オンラインでの最初の 24 時間以内に「一部の人々による組織的な攻撃が Tay の脆弱性を悪用」しました。
マッシュ可能な光の速度
Lee氏は、同社は攻撃の原因となった「特定の脆弱性」に対処していると述べたが、詳細には触れなかった。
Tay の攻撃的なツイートの多くは、Twitter で他のユーザーが言ったことの単なるエコーでした (以下の例を参照)。
しかし、場合によっては、テイが攻撃的なツイートを自ら投稿したように見えることもあった(最悪のツイートは現在削除されている)。
「テイは現在オフラインであり、私たちの原則や価値観に反する悪意をよりよく予測できると確信できる場合にのみ、テイを戻すことを検討します」とリー氏は書いた。
この話に何か付け加えることはありますか?コメントで共有してください。