ChatGPT is terrible at diagnosing child medical cases, according to new study

OpenAIさんのチャットGPTますます進化するチャットボットにより、かかりつけ医に取って代わられることはもうありません。正確に診断できなかった仮想の小児症例の大部分。

調査結果は、新しい研究ニューヨークのコーエン小児医療センターの研究者らによって実施された結果が、1月2日付けでJAMA Pediatrics誌に発表された。研究者らは、子供の病気の医学的診断要求に対するボットの応答を分析し、テスト全体でボットのエラー率が 83% であることを発見しました。

この研究では、いわゆる小児症例の課題、またはもともと医師のグループに投稿された医療症例を、珍しいまたは限られた情報を含む学習の機会(または診断上の課題)として使用しました。研究者らは、2013 年から 2023 年の間に JAMA Pediatrics と NEJM に掲載された 100 件の課題をサンプリングしました。

ChatGPT は、提供された実験ケース 100 件のうち 72 件で誤った診断を提供し、正しい診断と「臨床的に関連している」と考えられるが、正解するには範囲が広すぎると考えられる 11 件の回答を生成しました。

マッシュ可能な光の速度

ツイートは削除された可能性があります

研究者らは、この失敗の一部は、臨床現場で患者の診断を支援するためによく使用される、特定の状態と外部または既存の状況との間の関係を認識できない生成 AI にあると考えています。たとえば、ChatGPT は、「神経精神医学的状態」(自閉症など)と、一般的に見られるビタミン欠乏症やその他の食事制限に基づく状態を結び付けませんでした。

この研究では、ChatGPT には継続的なトレーニングと医療専門家の関与が必要であり、AI に提供するのはインターネットで生成された大量の情報 (しばしば誤った情報が循環する可能性がある) ではなく、精査された医学文献と専門知識

大規模言語モデル (LLM) に依存する AI ベースのチャットボットは、医療症例の診断や医師の日常業務の遂行における有効性について以前に研究されてきました。昨年、研究者らは 3 部構成の米国医師免許試験に合格するための生成 AI の能力をテストし、試験は合格しました。

しかし、トレーニングの限界と潜在的な可能性については依然として非常に批判されていますが、医学的偏見を悪化させ、を含む多くの医療グループアメリカ医師会、現場におけるAIの進歩を単に代替の脅威として捉えないでください。代わりに、より適切に訓練された AI は、患者側のテキストの生成、一般的な用語での診断の説明、または指示の生成など、管理上およびコミュニケーション上の可能性を発揮する機が熟していると考えられています。診断などの臨床用途は依然として物議を醸しており、研究が難しいテーマです。

その点において、新しい報告書は、純粋に小児環境におけるチャットボットの診断可能性についての初の分析を示しており、医療専門家によって行われた専門的な医療訓練が認められている。現在の限界は、公開市場にある最も先進的なチャットボットでさえ、人間の専門知識の全範囲にはまだ太刀打ちできないことを示しています。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.