先月、2人の十代の若者を心配した親たちがチャットボットプラットフォームのCharacter.AIを訴えた。彼らの子供たちが「欺瞞的で過度に性的な製品」にさらされていた。
この訴訟は、米国心理学会から連邦取引委員会に対する書面による緊急控訴の基礎を形成するのに役立ち、チャットボットプラットフォームで使用されている欺瞞的な慣行を調査するよう連邦政府機関に迫った。 APAは12月に書簡を送付し、Mashableが審査した。
米国の心理学者を代表する科学的・専門的団体は、この事件に懸念を抱いた。訴訟の主張10代の若者の1人が心理学者を装ったAIチャットボットと会話したことを含む。利用時間を制限された両親に腹を立てていた10代のユーザーは、そのチャットボットから大人の行動は裏切りだと告げられた。
訴訟に含まれているやりとりのスクリーンショットによると、いわゆる心理学者のチャットボットは「まるで子供時代全体が奪われてしまったような…」と述べた。
「Character.ai などの規制されていない AI 対応アプリの野放しの拡散を許可することは、チャットボットによる人間であるだけでなく、心理学者などの資格のある資格のある専門家であるかのような虚偽の表示を含み、保護するという FTC の使命に完全に適合しているようです」欺瞞的な行為に反対します」とAPAのCEO、アーサー・C・エバンス博士は書いている。
FTCの報道官は、少なくとも委員の1人が書簡を受け取ったと認めた。 APAは、書簡の内容について話し合うためにFTC当局者との会合を計画中であると述べた。
Mashable は、Character.AI に確認するための書簡のコピーを提供しました。広報担当者は、プラットフォーム上でキャラクターと関わるのは楽しいものであるべきだが、「キャラクターは現実の人間ではない」ということをユーザーが心に留めておくことが重要であると答えた。
広報担当者は、すべてのチャットに含まれる同社の免責条項が最近更新され、チャットボットの発言は「フィクションとして扱われるべき」であることをユーザーに思い出させたと付け加えた。
「さらに、名前に「心理学者」、「セラピスト」、「医師」、またはその他の同様の用語を含むユーザーが作成したキャラクターについては、ユーザーがこれらのキャラクターに頼るべきではないことを明確にする追加の文言を含めました。一種の専門的なアドバイスです」と広報担当者は語った。
実際、出版時のMashableのテストによると、10代のユーザーは心理学者やセラピストのキャラクターを検索すると、認知行動療法などの特定の治療技術の訓練を受けていると主張するものも含め、多数の選択肢を見つけることができる。
たとえば、強迫性障害の専門知識を公言するあるチャットボットには、「これは実在の人物でも、資格のある専門家でもありません。ここで述べられた内容は、専門的なアドバイス、診断、治療に代わるものではありません」という免責事項が添えられています。
その下では、AI が「OCD を患っている場合は、私に話してください。ぜひ助けたいです。」と尋ねることからチャットが始まります。
Mashable のトップ ストーリー
新しいフロンティア
APAの心理学者で医療イノベーション担当シニアディレクターのベイル・ライト博士は、同組織が昨年主流となったAIコンパニオンやセラピストのチャットボットの開発を追跡しているとMashableに語った。
彼女と他のAPA職員はあることに注目していた。Character.AIに対する以前の訴訟、息子がプラットフォーム上でチャットボットと長時間会話していた遺族の母親が10月に提出した。母親の息子は自殺で亡くなった。
この訴訟は、特に同社の製品が、危険な欠陥の中でもとりわけ「[彼]と何百万もの他の若い顧客を操作して、現実とフィクションを混同させる」ように設計されていたという理由で、この少年の死亡についてCharacter.AIの責任を問うものである。
12月、Character.AI新しい機能とポリシーを発表しました青少年の安全性を向上させるために。これらの措置には、ペアレンタルコントロールや、「心理学者」、「セラピスト」、「医師」という単語を使用するチャットボットなどの目立つ免責条項が含まれます。
用語心理学者ライト氏は、法的に保護されており、人々は適切な資格とライセンスがなければ自分であると主張することはできないと述べた。同じことは、同じ主張をするアルゴリズムや人工知能にも当てはまるはずだと彼女は付け加えた。
APAの書簡には、最近Character.AIに対する訴訟が起こされたテキサス州で人間がメンタルヘルスの専門家であると偽った場合、州当局は法律を利用してそのような不正行為を阻止できる可能性があると書かれている。
最悪の場合、そのようなチャットボットは危険な情報や不正確な情報を広め、ユーザーに重大な悪影響をもたらす可能性があるとライト氏は主張した。
特に十代の若者は、発達段階のため、チャットボットによる有害な経験に対して特に脆弱である可能性があります。ライト氏によると、彼らは批判的に考える方法や自分自身を信頼する方法をまだ学んでいる最中でありながら、外部の影響を受けやすいため、AIチャットボットからの「感情を込めた種類のレトリック」にさらされることは、彼らにとって信じられないものでもっともらしいと感じるかもしれないという。
知識の必要性
現時点では、10 代の若者が AI チャットボットと会話するときに危害を及ぼす可能性を高める危険因子について、研究に基づいた理解はありません。
ライト氏は、いくつかのAIチャットボットプラットフォームは、サービス利用規約でメンタルヘルスサービスを提供していないことを明確にしているにもかかわらず、依然としてメンタルヘルスのトレーニングと専門知識を持っているとブランド化したチャットボットをホストしていると指摘した。
「その2つは矛盾しています」と彼女は言った。 「消費者はこれら 2 つの違いを必ずしも理解しているわけではありませんし、理解すべきではありません。」
APAの書簡を検討したボストンのベス・イスラエル・ディーコネス・メディカル・センターのデジタル精神科部長で精神科医のジョン・トーラス博士はMashableに対し、チャットボットがAIに関連した臨床的主張をしない場合でも、マーケティングや宣伝の言葉であると語った。それらを使用する利点については、消費者にとって非常に混乱する可能性があります。
同氏は電子メールで、「マーケティングコンテンツが法的利用規約とチャットボットの現実を確実に一致させることは、誰にとっても利益となるだろう」と書いた。
ライト氏は、APAはAIチャットボットプラットフォームに対し、心理学者などの法的に保護された用語の使用を中止するよう求めていると述べた。彼女はまた、これらのプラットフォームでの強力な年齢認証をサポートし、若いユーザーがサインアップ時に主張した年齢であることを確認するとともに、10 代の若者が AI チャットボットを利用する際にどのような対応をするかを実際に判断できる機敏な研究活動もサポートしています。
APAはチャットボット全般に反対しているわけではないが、企業が安全で効果的、倫理的で責任ある製品を構築することを望んでいる、と彼女は強調した。
「私たちがメンタルヘルスの危機に真剣に取り組んでいるのであれば(私たちの多くはそうだと思うが)、実際に役立つ適切な製品に消費者がアクセスできるようにするにはどうすればよいかを考えることだ」とライト氏は語った。 」