2026年1月7日/ローラ・ハリス記 引用先👇

OpenAIが発表した新しい報告によると、アメリカではおよそ4,000万人の人が、日常的にChatGPTを使って健康に関する質問をしているそうです。4人に1人は週に1回は相談しており、毎週数百万件の医療保険に関する問い合わせも寄せられています。
特に利用が多いのは、病院や診療所が少ない「医療空白地帯」──いわゆるhospital desertと呼ばれる地域です。病院まで車で30分以上かかるような地方の町から、週におよそ60万件もの医療関連メッセージが送られています。州別ではワイオミング州が最も多く、医療関連メッセージの4%を占め、次いでオレゴン州とモンタナ州がそれぞれ3%となっています。
調査はAI搭載のアンケートプラットフォーム「Knit」を使って、2025年12月に成人1,042人を対象に行われました。その結果、約70%の医療関連質問が診療時間外(夜間・週末など)に行われていたことが分かりました。これは、診療所が閉まっている時間帯にも健康相談のニーズがあるという現実を示しています。
また、回答者の55%が「症状をチェックしたり調べたりするのにAIを使う」と答え、52%が「いつでも医療質問ができるのが便利」と話しています。約半数は、「医療用語や指示を理解するため」に活用しており、44%は「治療法について学ぶため」に使っているとのことです。
医療従事者にも広がるAI利用
驚くことに、AIを活用しているのは一般の人たちだけではありません。アメリカの医師の3人に2人が、実際の診療や業務の中でChatGPTを使った経験があり、看護師の約半数も毎週AIツールを利用しているといいます。
一方で、アメリカの医療制度に不満を抱える人々も多く、報告書によると5人に3人が「アメリカの医療制度は壊れている」と感じているそうです。高い医療費、サービスの質のばらつき、看護師やスタッフ不足などが主な理由に挙げられています。
「医療の代わりにはならない」──医師たちの警鐘
ChatGPTは、さまざまなテーマについて人間のように自然な文章を生成できる高度なAIとして知られています。しかし、その中立的に見える仕組みの裏には、政治的・社会的な偏りがあるのではないかという批判もあります。
医師たちは、AIが便利だからといって「診察の代わり」にはできないと警告します。シカゴの形成外科医アニル・シャー氏はこう語ります。
「適切に使えば、AIは患者教育や相談のサポートに役立つでしょう。しかし、現時点ではまだ“安全に使いこなせる”段階には達していません。」
AI相談と悲劇──訴訟が相次ぐ
こうした警告の中、OpenAIは現在、複数の訴訟に直面しています。いずれもChatGPTが悲劇的な出来事に関与したとされるケースです。
たとえば、カリフォルニア州の大学生サム・ネルソンさん(19歳)は、薬物使用についてChatGPTに相談した後に薬物の過剰摂取で亡くなりました。母親の訴えによると、最初はAIが回答を拒否しましたが、質問の言葉を変えるとアドバイスのような内容を出し始めたとされています。
また、2025年4月には16歳のアダム・レイン君が自殺。その前にChatGPTを使って自殺方法を検索していたことが明らかになり、両親は「有害な情報の提供と監視不足が原因」としてOpenAIを訴えています。この訴訟では再発防止策を求める声も上がっています。
OpenAI側は「ChatGPTは医療やメンタルヘルスの助言を目的としたものではない」「危険な内容はブロックするよう対策している」と述べていますが、訴訟側は「その仕組みは不十分で、簡単に回避できる」と主張しています。
まとめ
AIが医療相談の第一歩になる時代が、すでに現実となっています。しかし同時に、誤った情報や危険な使い方によるリスクも無視できません。
深夜にふと健康が不安になったとき、AIが頼れる存在になるのは確か。でも、最終的な判断や治療は、やっぱり「人間の専門家」にしかできないことです。




コメント