banner
ホームページ / ニュース / AI 医師は医療をより良く、より思いやりのあるものにします
ニュース

AI 医師は医療をより良く、より思いやりのあるものにします

Oct 06, 2023Oct 06, 2023

チャットボットに心地よい機能を期待する人は誰もいません。 確かに、いくつかの捏造された事実とちょっとしたランダムな人種差別を伴う平凡な文章です。 これらの AI の欠点については、私自身が書いたことがあります。

しかし、ご存知のとおり、これらの大型の新しいチャットボットは、プロンプトや質問に対して人間のような応答を生成することもできます。 そして、最近の直接対決テストでは、その能力により、あらゆる活動の中で最も本質的に人間であるべき活動の 1 つである医師としての活動において、ボットに驚くべき優位性が与えられました。

この検査を実施するために、カリフォルニア大学サンディエゴ校の研究者チームは、登録済みの認証された医療専門家が人々の医学的質問に答えるレディットのフォーラム、r/AskDocsに潜んでいた。 研究者らは、ばかばかしいような質問(「爪楊枝を飲み込んだ。友達が死ぬと言った」)から恐ろしいもの(「通常の超音波検査の1日後に流産?」)まで、フォーラムでの代表的な質問を200近く選んだ。 次に、ボット ChatGPT の仮想マウスに質問を入力し、医療専門家からなる別のグループに AI と医師の両方からの回答をブラインド評価させました。

結果は衝撃的でした。 まず、ChatGPT は有用性に関して人間の医師よりもはるかに優れています。 ほぼ例外なく、チャットボットの回答は、貧しい人間からの回答よりも 3 ~ 4 倍信頼できると評価されました。 さらに、ボットは、他の状況でよくあるような、でっち上げをするという悲惨な傾向をまったく示しませんでした。

しかし、ここが最も印象的な部分です。チャットボットの回答は、人間からの回答よりも平均して 7 倍共感的であると評価されました。 7回! 彼らは、あなたが医師に求めるもの、つまりケアと感情的なつながりを提供してくれました。 まるで、無感情なアンドロイドのミスター・データが、ベッドサイドでのクラッシャー博士の心地よい態度を説得力を持って真似する方法を見つけ出したかのようだ。

確かに、共感を示すという点で人間の医師に勝つハードルは低いです。 それでも、ボットが医療上の懸念を処理できるように見える機能は、スタイルと内容の両方において、実際の現実世界での使用を予感させます。 大規模な言語モデルによって駆動される AI ボットがジャーナリズムに革命をもたらしたり、インターネット検索をより良くしたりするかどうかについては、私は懐疑的です。 ソフトウェアのコーディングとスプレッドシートの分析が高速化されるという考えには、私は寛容だと思います。 しかし、私は今、チャットボットを少し工夫すれば、人々が医療提供者や崩壊した医療産業複合体とやり取りする方法を根本的に改善できるのではないかと考えています。

共感実験の目的は、ChatGPT が医師や看護師の代わりになることを示すことではありませんでした。 それは、チャットボットがケアの提供において役割を果たすことができることを示すためでした。 私たちの営利目的の医療システムは十分な医師や看護師を雇用しておらず、雇用した医師や看護師には流れ作業でより多くの患者を治療することが期待されています。 金持ちになる人を除いて、誰もそれを好まない。

「人々は医療から切り離されており、絶望的な状況にある」と、新しい論文の筆頭著者であるカリフォルニア大学サンディエゴ校の計算疫学者ジョン・エアーズ氏は言う。 そのため、彼らは r/AskDocs などのフォーラムで答えを探しています。 「これが今の患者のやり方です。そして医師はそれに登録しませんでした。」

これらのメッセージに答えなければならないというプレッシャーは非常に高まっています。 新型コロナウイルスのパンデミックにより、医師と患者の間の遠隔地でのオンライン接触が加速しました。パンデミックの最初の年でさえ、調査によると、医師はメールの受信箱の処理に勤務日ごとにほぼ 1 時間を費やしていました。 他の電子医療記録技術への対応を加えると、医師によっては毎日の時間の半分をこうしたやり取りに費やすことになります。 保険会社がメッセージに応答するのに費やした時間に対して請求することが多く、対面でのやり取りを超える潜在的な収益源となっているだけでも十分です。

以前の研究では、患者と医師がこれらのメッセージング システムの使用を好むかどうかが調査されました。 エアーズは、システムが実際に機能するかどうかを調べました。 「実際のメッセージを使用しました」と彼は言います。 「これまで誰もそんなことをしたことがない。」 インタラクションの質に基づいた結果は、決定的なものでした。 「ChatGPTは圧勝した」とエアーズ氏は言う。 「これはおそらくゴールデンタイムに向けて準備ができているでしょう。」

ボットの最初の成功に基づいて、エアーズ氏はボットがさらに何を処理できるかを確認する準備ができています。 「私たちは、患者へのメッセージを患者の転帰と照らし合わせて評価するランダム化比較試験を開始したいと考えています。」と彼は言います。メッセージが正確であるか共感的であるかだけでなく、メッセージが人々の健康や長生きに役立つかどうかを評価します。 チャットボットが、心臓発作から回復中の人が減塩食を続け、薬を飲むよう思い出させ、最新の治療法を維持できるように支援できたらどうなるでしょうか? 「その場合、メッセージがあればその患者の命が救われる可能性があります」とエアーズ氏は言う。

テクノロジー業界ではペットのロボットや AI 心理療法士が期待されているにもかかわらず、思いやりのあるチャットボットというアイデアは依然として不安定で、危険さえ感じます。 ChatGPT が実際に賢いと思っている以上に、ChatGPT が実際に気にしているとは誰も考えていません。 しかし、現在の壊れた医療制度によって人間同士がお互いを世話することが不可能であれば、偽りの世話をすることで実際の命が救われるかもしれない。 人工知能アシスタントは、人間よりも人間的ではないかもしれませんが、おそらくより人間的になるでしょう。

愚かなチャットボットではなく、特化した AI システムはすでに診断にかなり優れています。 彼らは、特定の検査結果を入力として使用して、腫瘍や敗血症などの 1 つのことを検出する高度な訓練を受けています。 しかし、それらは高価であり、構築するのが困難です。 そのため、医療機関は、より安価で、より普及したツールとしてチャットボットに飛びついています。 数十の企業がアプリケーションの開発に取り組んでおり、病気の診断から医師と患者の両方の責任となっている煩雑な事務処理の支援に至るまでの用途を目指している。 幸運にも健康保険に加入している場合は、保険会社が人間に電話をかける前に会話できる、ある種の愚かなチャットボットをすでに用意しているでしょう。

そのアイデアに興味があるかどうか人々に尋ねると、ほとんどの人はノーと答えます。 ピュー・リサーチ・センターが最近調査したアメリカ人の60%は、AIシステムによる自分の不調の診断や治療法の提案は望まないと回答した。 しかし、彼らはおそらくいずれにしてもそれを手に入れるでしょう。 私がこのことを言ったことは誰にも言わないでください。しかし、医療従事者が行うことの多くは、少なくとも最も低いレベルの患者と向き合うインターフェースにおいては、すでに少し定型的になっています。 あなたは気分が悪くなり、アドバイス看護師に電話します。 彼らは、ERに行くべきか、それともただタイレノールを飲みに行くべきかを判断するために、あらかじめ設定された質問をします。 それをトリアージといいます。 あるいは、医療記録に電子的にアクセスできる場合は、新しい一連の検査から結果が返され、それが何を意味するのかを医師に電子メールで問い合わせることもあるでしょう。 いずれにしても、こうした出会いを楽しむことは期待できません。 おざなりだ。 ロボット的でもあります。

さて、ロボット関連が得意な人は誰だか知っていますか? ロボット! 最近、ハーバード大学の研究者チームは、医師、医療訓練を受けていない人々、ChatGPT の 3 つのグループに健康上の問題に関する数十の説明を示しました。 彼らは全員(そして物体)に病気を診断し、トリアージの推奨事項を尋ねました。

医師ではない人間はインターネット検索、つまり医療関係者が恐れを込めて「グーグル先生」と呼ぶ検索をすることを許可された。 しかし、オンライン支援があっても、訓練を受けていない人間の診断はひどいものでした。 そこにはショックはありません。 しかし、研究者らが最近のプレプリントで報告しているように(つまり、まだ査読されていない)、チャットボットの診断能力は人間の医師(90%以上のスコア)とほぼ同じ(80%以上のスコア)であった。 そしてトリアージでは、ChatGPT の正解率は 70% をわずかに上回りました。 医師の 91% に比べればひどいように思えますが、それでもです。 これは汎用チャットボットであり、十分な訓練を受けた医師とほぼ同等の性能を備えています。

ここで、そのスキルセットに、チャットボットが処理できるべき日常的で時間のかかる医療タスク (予約のスケジュール設定、保険への事前承認の要求、電子医療記録の処理など) を追加することを想像してください。 カリフォルニア大学サンフランシスコ校の研修医テバ・ブレンダー氏は、「これらは医学界に誰もやろうとしなかった課題であり、ひどい頭痛と膨大な時間の減少で、肉体的にも精神的にも消耗するものだ」と語る。 おそらくチャットボットは、患者へのすべての電子メールとともに、少なくともこの種の官僚的なトラフィックの始まりを生成できるかもしれません。 「医師はそれをざっと読んで、『はい、これは正しいです』と言って、それを送り返すことができます」とブレンダー氏は言う。

それは可能性の高いシナリオのように思えます。 高度な訓練を受けたチャットボットが医師、看護師、医師助手と連携して、ケアを必要とする人々に、より共感的で完全な回答を提供します。 エアーズ氏のチームが2019年に書いたように、人々は医療援助を切望するあまり、正確な診断を得ることを期待してサブレディットのr/STDに自分の性器の画像を投稿している。 これは信じられないほど悲しいことであり、私たちの本当にクソで非人道的な医療システムに対する驚くべき告発です。

これほど貧弱なシステムでは、AI が実際に改善につながる可能性があります。 「AI システムの知識ベースと処理能力に支えられた人間の臨床医は、さらに優れたものになるでしょう」と、AI システムを研究しているスタンフォード大学医学部の医師、ジョナサン チェンは言います。 「患者が人間の専門家との予約を何ヶ月も待つのではなく、24時間365日利用できる自動システムから不完全な医療アドバイスを求める可能性が十分にあります。」

こうした AI 主導のシステムをより良くするために、エアーズ氏のチームを含む多くの人々が現在、医療情報に基づいて細かく調整されたより小さな言語モデルの開発に取り組んでいます。 ChatGPT の魅力は、それ自体が、インターネット上のあらゆるものから入力されたジェネラリストの描画であることです。 しかし、そうやって偏見や誤った情報が忍び込んでくるのです。これらの医療チャットボットに人々の個々の医療記録へのアクセスを与えれば、より正確に指示されたアドバイスを提供できるようになるでしょう。 「この技術が電子医療記録にアクセスできるようになれば、それが真の変革をもたらすのです」とエアーズ氏は言う。

医療記録へのアクセスを備えた AI を活用した健康アドバイスの将来があなたを不安にさせるとしても、私はあなたを責めません。 ここでの悪いSFの結末はかなりディストピア的だ。 食品医薬品局は長年の取り組みにもかかわらず、医療機器における AI と機械学習を規制する準備ができた枠組みをまだ持っていません。 特に悪質な場合には、誰かがチャットボットのアドバイスに関するすべての責任問題を解決する必要があります。 ヘルスケア AI の新興企業は、最も経済的効果が高い、最も安価なバージョンを望んでいますが、それが必ずしも最良の患者結果をもたらすとは限りません。 そして、ヘルスケア企業が最先端の医療を使ってチャットボットを微調整することに成功すれば、どの企業もホメオパシーや香りのキャンドル、あるいは反ワクチンのナンセンスについて同じことを行うことができるでしょう。 これらのチャットボットは、危険な誤った情報を雄弁かつ共感を持って吐き出します。

「これは最悪のケースだ」とグーグルのヘルスAI責任者グレッグ・コラード氏は言う。 「これはシリコンバレーの人々が孤立してできることではありません。」 つまり、これらのシステムを医療幹部だけでなく医療専門家と協力して開発し、システムが非公開で安全であること、そして実際に人々を助けるものであることを確認する必要があります。

それは簡単なことではありませんが、必要なことかもしれません。 残念ながら、私たちの医療システムは、すべての人にまともな介護者を提供できるようには構築されていません。 この状況が変わるまでは、私たちの健康維持に役立つロボットがあればいいですね。 彼らが同時に私たちのことを気にかけていることを疑似体験できるとしたら、おそらく人間の医師よりも優れているかもしれませんが、それでも、それは受け取るべき素晴らしいメッセージでしょう。

アダム・ロジャースはインサイダー社の上級特派員です。

インサイダーは、談話ジャーナリズムを通じて、その日の最も魅力的な問題やアイデアを探求し、明らかにすることを目指しています。 当社のライターは、分析、レポート、専門知識に基づいて、示唆に富んだ視点を提供します。 談話記事の詳細はこちらからお読みください。

次に読む