AIチャットボットは交際に使用されています。あなたがそれを試す前に知っておくべきこと

生成によって作成されたコンパニオンチャットボット人工知能消費者にこれまでになかった機会を提供します。

数回クリックし、多くの場合、クレジットカードの支払いを行うと、好みに合わせてカスタムAIコンパニオンを構築できます。

茶色の目、筋肉質のビルド、そして短い髪のラテン系の遺産のボーイフレンドが、たまたまハイキングを楽しんでいて、すべての婦人科医ですか? candy.aiはあなたにそのオプションを提供します、そしてそれ以上。

一般に、Replika、Anima:AI Friend、KindroidなどのAIコンパニオンプラットフォームは、ファンタジーを満たしたり、持続的な孤独を容易にする可能性のあるチャットボットでのリアルな会話エクスペリエンスを消費者に約束します。

参照:

多くの新興技術と同様に、AIの仲間が彼らの深い可能性に至っていると想像するのは簡単です。最高のケースシナリオでは、ユーザーはソーシャルスキルを向上させ、自信を持ち、人間のネットワークにより多くのつながりを感じることができます。しかし、ほとんどの場合、大多数のユーザーで起こることを示唆する研究はほとんどありません。

あなたがあなたの夢のチャットボットの設計を検討しているなら、あなたがあなたの時間を過ごす前に、そしてあなたのお金をデザインする前にここに何を知っておくべきか:

Princeton Neuroscience Instituteの神経科学教授であるMichael Sa Graziano氏によると、AI仲間に関する研究は非常に新しいため、その有用性について結論を出すことはできません。

Grazianoは、70人のReplikaユーザーと、コンパニオンチャットボットを使用して経験をよりよく理解していない120人の調査を共同執筆しました。この研究は、昨年秋に登場しました研究共有プラットフォームArxivの事前印刷、ピアレビュー中です。

Replikaユーザーは、ほとんどの場合、コンパニオンインタラクションをポジティブと評価しました。彼らは、チャットボットの関係を、他の人々や友人や家族との一般的な社会的相互作用に役立つと評価しました。彼らはまた、チャットボットが彼らの自尊心にプラスの影響を与えたと感じました。

Grazianoは、この調査ではユーザーの経験のスナップショットのみを提供すると警告しています。さらに、彼は、孤独であるため、最大限に利益を得る立場にある人々は、ほとんどのユーザーを構成する可能性があるため、結果に意図しないバイアスを作成する可能性があると述べています。

Grazianoは現在、縦断的研究に取り組んでおり、時間の経過とともにAIコンパニオン相互作用の効果を追跡しています。参加者は、コンパニオンチャットボットを使用するかどうかをランダムに割り当てられており、グラツィアーノと彼の共著者は精神的健康と幸福の側面を測定しています。

マッシャブルなトップストーリー

彼は、チャットボットユーザーとコントロール参加者の両方の中で、仲間がより人間的であるという認識が、それについてより肯定的な意見をもたらしたことに驚いた。

「AIが意識していると考える傾向があればあるほど、彼らは将来の可能性についてより肯定的でした...個人的に、または社会全般にどれほど良い影響を与えるかについて」とグラツィアーノは言います。

したがって、AIコンパニオンの人間のような特性に対するあなたの態度が、それと相互作用する経験に影響を与える可能性があります。

AIコンパニオンと話す

あなたがあなたの仲間を作ったら、あなたは会話を打つ必要があります。これらのチャットボットは通常、スクリプト化されたダイアログと大規模な言語モデルを組み合わせた独自のシステムに依存しています。 AIコンパニオンをホストしている企業は、必ずしも使用したデータについて透明ではありません。

1つ最近の論文、Arxivに関するプレプリントでもあります、メンタルヘルスケアに使用されるいくつかの大規模な言語モデルが、X(以前のTwitter)やRedditなどのソーシャルメディアデータセットで訓練されていることがわかりました。おそらく他の情報源の中でも、仲間もソーシャルメディアで訓練されている可能性は完全にあります。

Grazianoは、接続のためにデジタルプラットフォームに依存するか、チャットボットを構築するかを検討する際にその可能性は関連していますが、Companionsに使用されるデータセットは非常に大きなものである可能性があると言います。

彼は、コンパニオンプラットフォームは、チャットボットに関与するためにスピーチのパラメーターを変更して、不要な動作の発生率を減らすことができることに注意しています。

たとえば、Replikaは、2023年の「セクスティング機能」の仕事にとって安全ではないことをブロックしました。仲間は彼らを「性的嫌がらせ」していた会社のCEOはBusiness Insiderに語ったプラットフォームが「大人のおもちゃ」として意図されていなかったこと。多くのユーザーは激怒し、彼らの仲間が彼らが知るようになった性格のように見えなかったとき、真の苦痛を感じました。 Replikaの親会社であるLukaは、現在、Blushと呼ばれるAI駆動のデートシミュレーターを提供しています。ロマンチックな探検。」

Replikaユーザーの2020年の調査、グラツィアーノは関与していなかったということは、実際に「判断や報復を恐れることなく」公然と話すことができることに感謝していることを発見しました。 Grazianoは、言葉を刻むよりも充実している可能性のあるものについては、何でも自由に話したいユーザーは、トピックと言語に応じて、コンパニオンが反応が少ないと感じるかもしれないと言います。

もちろん、特に医療プライバシー法に見られない場合、あなたの最も内側の考えや感情をAIの仲間と共有することはリスクがありません。一部の企業はプライバシーを保証していますが、ユーザーは密集しているプラ​​イバシーポリシーに注意する必要があります。

プラットフォームは、いつでもポリシーを変更できます

AIの交際はユーザーに大きなプラスの効果をもたらす可能性がありますが、トランザクション関係のままです。サービスを提供する企業は、より多くの利益を要求する可能性のある株主または投資家にまだ回答する必要があります。

最も人気のあるプラットフォームは、毎月または年次サブスクリプションモデルに依存して収益を生み出しています。一部の人々は、ユーザーデータをマーケティング担当者に販売しないと誓っています。

しかし、広告主は確かにこのデータが非常に価値があり、AIコンパニオンがお気に入りの製品をユーザーに売り込んだモデルは、当然、関連する会話の過程で完全に実行可能に聞こえます。結果として反乱を起こすかもしれませんが、他のユーザーはパーソナライズされた推奨事項を楽しむかもしれません。とにかく、会社は望ましい場合、その変更を行うことができます。

エンゲージメントレベルが高いことも、コンパニオンプラットフォームに最適です。ソーシャルメディアが人々がスクロールを続けるように設計されているように、エンゲージメントを最大化するために自然な心理的傾向を活用するAIコンパニオンチャットボットデザインの要素があるかもしれません。

たとえば、毎日アプリを開くReplikaユーザーは報酬を受け取ることができます。彼らも稼ぐことができます「コイン」と「宝石」、Replikaのアプリ内店で使用して、コンパニオンの外観をカスタマイズするアイテムを購入できます。

あなたのAIコンパニオンチャットボットがそれを知っているかどうかにかかわらず、彼らはあなたが話を続けたり、彼らに戻ってくるようにプログラムされているかもしれません。