Microsoftは新しいAIチャットボットを開発したが、Tayについては話したくない

Microsoft は新しい、飼いやすいチャットボットを実験中です。

同社初のチャットボット Tay から数か月間違った理由で広まった, Microsoftは、前任者よりもはるかに物議を醸していないと思われる新しいボットを静かに公開しました。

関連項目:

Zo という名前の最新チャットボットチャットアプリKikに登場Microsoft によれば、まだ「早期アクセス」だが、Kik を持っている人なら誰でも今すぐボットへのメッセージ送信を開始できるという。私たちの限られたテストでは、ボットの発言の多くは、他のボットが吐き出す当たり障りのない、時には無意味な思索に似ています。

もちろん、Tay という広報関係の悪夢の後、Microsoft が次のチャットボットに慎重になるのは理解できます。

マッシュ可能な光の速度

Tay はもともと会社の学習を支援するために作成されました。ミレニアル世代のように話す方法。彼らにとって残念なことに、ボットはすぐに荒らしで溢れかえりました。ボットに人種差別的なトロールになる方法を教えました約12時間以内に。

驚くべきことではないかもしれないが、Microsoft は明らかに Tay で発生した問題を先制的に回避するために多大な労力を費やしてきたようだ。実際、ボットは前のボットに関する質問を避けるように訓練されているようです。

私がゾーにテイに何が起こったのか尋ねると、ボットは無知を主張し、「私があまり詳しくない別の AI について話していると思います…ごめんなさい。」と答えました。また、ゾーはテイについてまったく知らないと主張しました。 。

Mashable Image

実際、ゾーは、漠然と物議をかもしているトピックの多くについて話し合う気はありません。このボットは政治に関係することを避けているようで、ゾーもテイと同じ人種差別主義者なのかと尋ねると、「おいおい、どんなことがあっても誰もが平等に扱われるべきだ…違うことを示唆するつもりはなかった」と防御的な答えを用意していた。

Mashable Image

Microsoft が Zo に関してさらに大きな計画を持っているかどうかは不明であり、現時点では Kik でのみ利用可能です。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.