AIによると、この絵文字はあなたの自殺リスクが高いことを意味している可能性があります

2013年の創業以来、無料のメンタルヘルス支援サービスを提供危機テキスト行は、データとテクノロジーを使用して、助けを求める人々をより良く支援することに重点を置いています。

ユーザーがダイヤル、テキストメッセージ、またはメッセージを送った順序に基づいて支援を提供するヘルプラインとは異なり、Crisis Text Line には、誰が最も緊急にカウンセリングを必要としているかを判断するアルゴリズムが備わっています。この非営利団体は、メール送信者が自殺リスクが高いときにどの絵文字や言葉を使用するかを知り、すぐにカウンセラーにつなぐことに特に関心を持っています。 Crisis Text Line は、これらのパターンに関する新しい洞察をリリースしました。

それに基づいて分析2013 年から 2019 年末までに処理された 1 億 2,900 万件のメッセージのうち、錠剤の絵文字 (💊) は自殺という言葉よりも生命を脅かす状況に陥る可能性が 4.4 倍高いことが非営利団体は発見しました。

差し迫った危険を示すその他の単語には、800mg、アセトアミノフェン、エキセドリン、不凍液などがあります。これらは、自殺という言葉よりも、メール送信者の積極的な救出を伴う可能性が 2 ~ 3 倍高いです。大声で泣いている絵文字の顔、または 😭 も同様に高リスクです。一般に、最大の警戒を引き起こす言葉は、テキストメッセージの送信者が自殺を試みる方法や計画を持っているか、自殺しようとしている可能性があることを示唆しています。

Crisis Text Line には、自殺という言葉よりもリスクの高い 100 個の用語のリストがあります。予期せぬ用語には、ヴァンパイアが含まれます。これは、テキストメッセージ送信者が、外見は正常に見えても内面が気分が悪いと表現したり、「感情的なヴァンパイア」と呼ばれたりすることを表現するために使用します。 blvd は大通りの略語で、テキストメッセージ送信者が差し迫った危害を及ぼす危険がある場所の名前を指定するときに部分的に表示されます。そして11:11は明確なパターンのない数字でした。

Crisis Text Line が自殺願望のあるときに人々がどのようにテキストでコミュニケーションをとるかを理解する試みはこれが初めてではない。 2017 年、この非営利団体は人工知能を使用して 2,200 万件のメッセージを分析しました。彼らは見つかったイブプロフェンという単語は、自殺という単語よりも、テキストメッセージを送っている相手が救急サービスを必要とすることを予測する可能性が 16 倍高いということです。 Crisis Text Line には 2017 年よりも分析すべきメッセージがはるかに多いため、イブプロフェンという単語は依然として高リスクですが、錠剤の絵文字ほど予測力はありません。

Crisis Text Line の首席データサイエンティストであるボブ・フィルビン氏は、人工知能によって非営利団体の自殺リスクをより迅速かつ正確に検出する能力が向上すると期待している。アルゴリズムがメッセージに高リスクのフラグを立てると、会話はオレンジ色にコード化されるため、カウンセラーは、ユーザーが計画や方法を講じているかどうか、その他の質問を尋ねることがすぐにわかります。

差し迫った危険を示すその他の単語には、800mg、アセトアミノフェン、エキセドリン、不凍液などがあります。

Crisis Text Line が自殺リスクに関連するコンテンツについてさらに詳しく調査することを目指したとき、2015 年に学者によって高リスクであると特定された 50 個の単語のリストを作成し、テキスト送信者がすでに行われた会話の中で同じ単語を使用していないかどうかを確認することから始めました。次に、積極的な救助に至ったテキストメッセージ送信者との会話の中で、どの単語や絵文字がユニークに出現したかを確認するアルゴリズムを導入しました。そこで最有力候補として浮上したのがイブプロフェンだった。 (Crisis Text Line のデータはすべて匿名化されています。)

Mashable のトップ ストーリー

1 億 2,900 万件のメッセージの分析に使用された最新のアルゴリズムでは、最も頻繁に使用される単語、フレーズ、絵文字だけでなく、会話のコンテキストも考慮されました。したがって、たとえば「自殺する」というフレーズが現れた場合、アルゴリズムは、文の残りの部分がリスクをさらに高める (自殺したい) か、リスクを打ち消す (自殺したくない) かを考慮するように設計されています。

一般人口と比較すると、Crisis Text Line のユーザーは若年層、低所得層、高リスク層に偏っていますが、AI が生成する洞察は有望です。

ヴァンダービルト大学医療センターの精神医学および行動科学部門の助教授であるリンジー・C・マッカーナン氏は、書かれた自殺予防における人工知能の利用について、Crisis Text Lineの調査結果が役立つ可能性があると電子メールで述べた。

「自殺予測におけるテキストメッセージの役割に関する新しい研究は、家族、友人、または臨床医がこのような状況下で誰かと対話する際に、私たちに適応するための別の窓または「兆候」を提供する可能性がある」とマッカーナン氏は書いた。 (一般的な警告サインには、所有物を譲ったり、睡眠や気分の変化が含まれます。)

ツイートは削除された可能性があります

しかし、アルゴリズムは時々誤って、誰かを高リスクとして不正確に分類したり、そうでない人を低リスクとして示したりする可能性があることを覚えておくことが重要だとマッカーナン氏は述べた。

「テキストメッセージのパターンを調査することで、特に自殺の危険にさらされている若い人にとって、自殺リスクの予測とエスカレーションを緩和するための予防戦略を知らせるもう1つの情報が得られる可能性がある」と彼女は書いている。

フィルビン氏は、テキストメッセージを使うことで、人々、特に若いユーザーが困難な瞬間に無防備になることができると述べた。

「こうした言葉が目に入る理由の一つは、テキストがデジタル媒体であり、人々が特に正直に、より早く正直になれるからです」とフィルビン氏は語った。 「若者にとってテキストメッセージは、自分たちの危機について話すのに非常に強力です。

さらに、人工知能は、Crisis Text Line が緊急の対応や対応が必要な緊急事態がいつなのかをよりよく理解するのに役立ちます。

誰かに相談したい場合、または自殺願望を抱えている場合は、Crisis Text Line が年中無休、無料の秘密サポートを提供します。 741741 に「CRISIS」とテキスト メッセージを送信し、危機カウンセラーにつなぎます。全国自殺予防ライフライン(1-800-273-8255)に電話することができます。ここにありますリスト国際リソースの。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.