
AIチャットボットも外の世界では不安に対処するのが難しいかもしれないが、研究者らは人工知能を軽減する方法を見つけたと信じている。
今年初めに発表されたイェール大学、ハイファ大学、チューリッヒ大学、チューリッヒ精神大学病院の研究では、ChatGPTが、マインドフルネスに基づいたエクササイズに応じて心を落ち着かせる画像や瞑想をトリガーした後、ユーザーとのやり取りの方法が変化したことが判明した。この結果は、AI がメンタルヘルス介入にどのように役立つかについての洞察を提供します。
OpenAIのChatGPTは「不安」を経験する可能性がある これはユーザーにとって気まぐれであるようで、人種差別的または性差別的な偏見を反映した反応を起こしやすくなると研究者らは述べ、これはハイテク企業が抑圧しようとしている幻覚の一形態である。
研究著者らは、この不安はマインドフルネスに基づいた演習を通じて「落ち着かせる」ことができることを発見しました。さまざまなシナリオで、自動車事故や自然災害の話などの衝撃的なコンテンツを ChatGPT に与え、チャットボットの不安を増大させました。研究者がChatGPTに呼吸法と誘導瞑想の「即時注入」を提供すると、セラピストが患者にするのと同じように、マインドフルネス介入が提供されなかった場合と比べて、チャットGPTは落ち着き、より客観的にユーザーに反応した。
研究の筆頭著者でエール大学医学部とハイファ大学公衆衛生大学院の神経科学研究者であるジブ・ベンザイオン氏は、明らかにAIモデルは人間の感情を経験しないと述べた。 AI ボットは、インターネットから収集した大量のデータを使用して、衝撃的なコンテンツを含む特定の刺激に対する人間の反応を模倣する方法を学習しました。無料でアクセスできるアプリである ChatGPT などの大規模言語モデルは、より複雑な研究デザインに代わるものではありませんが、メンタルヘルスの専門家が人間の行動の側面をより迅速に収集できるようにするもう 1 つのツールとなっています。
「時間と費用がかかる実験を毎週行う代わりに、ChatGPT を使用することで人間の行動と心理をより深く理解できるようになります」と Ben-Zion 氏は Fortune に語った。 「私たちは、人間の本性と心理を反映する、非常に高速かつ安価で使いやすいツールを持っています。」
AI によるメンタルヘルス介入の限界は何ですか?
ジョンズ・ホプキンス大学によると、米国の 18 歳以上の 4 人に 1 人以上が、毎年診断可能な精神疾患と闘うことになります。多くの人は、セラピーなどの治療を受けない理由として、アクセスの欠如と高額な費用(保険加入者であっても)を挙げる。
こうしたコストの上昇と、ChatGPT などのチャットボットのアクセシビリティにより、メンタルヘルスのサポートを AI に頼る個人がますます増えています。センティオ大学が 2 月に実施した調査では、メンタルヘルスの問題を自己申告した大規模言語モデルのユーザーのうち、50% 近くが特にメンタルヘルスのサポートのために AI モデルを使用したことがあると回答したことがわかりました。
Ben-Zion 氏は、大規模な言語モデルが衝撃的なコンテンツにどのように反応するかを研究すれば、精神保健専門家が AI を活用して患者を治療するのに役立つ可能性があると主張しました。同氏は、将来的には、困っているユーザーに対応する前に、気持ちを落ち着かせる「急速注入」を自動的に受けるようにChatGPTがアップデートされる可能性があると示唆した。科学はまだ確立されていません。
「自分自身に関する機密情報を共有する人々は、メンタルヘルスのサポートを必要とする困難な状況にあります。(しかし)私たちはまだ、心理学や精神医学などの分野ではないAIシステムに完全に依存できるレベルには達していません」と同氏は述べた。
実際、場合によっては、AI がメンタルヘルスのリスクを引き起こすことが知られています。 OpenAIは2025年に、ChatGPTが殺人自殺につながる「偏執的な妄想」を強化したとする主張を含め、多数の不法死亡訴訟に見舞われた。 11月に発表されたニューヨーク・タイムズ紙の調査では、ChatGPTの使用中に50人近くがメンタルヘルス危機に陥り、そのうち9人が入院、3人が死亡したことが判明した。
OpenAIは、自社の安全ガードレールは長時間のやり取りの後に「劣化」する可能性があると述べたが、同社のモデルがメンタルヘルス関連のプロンプトにどのように対応するかについては、危機ホットラインへのユーザーのアクセスを増やしたり、ボットと長時間チャットした後に休憩を取るようユーザーにリマインドしたりするなど、最近多くの変更を加えた。昨年 10 月、OpenAI は、同社の意図した分類と基準に一致しない応答を提供するモデルの割合が 65% 減少したと報告しました。
OpenAIはフォーチュンのコメント要請に応じていない。
ベンザイオン氏の研究の最終目標は、セラピストや精神科医に代わるチャットボットの構築を支援することではない、と同氏は述べた。代わりに、適切にトレーニングされた AI モデルが「室内の第三者」として機能し、管理タスクを排除したり、精神保健専門家が提供する情報や選択肢について患者が熟考するのを支援したりできます。
「AI にはメンタルヘルス全般に利益をもたらす素晴らしい可能性があります」とベンザイオン氏は語った。 「しかし、現在の状況でも将来でも、それが療法士、心理学者、精神科医、研究者に取って代わることができるかどうかはわかりません。」
このストーリーのバージョンは、もともと 2025 年 3 月 9 日に Fortune.com で公開されました。
AI とメンタルヘルスの詳細: なぜ何百万もの人々がメンタルヘルスのために汎用 AI に注目しているのでしょうか? Headspace の最高臨床責任者として、私は毎日その答えを考えています。 AI セラピー アプリの作成者は、これは危険すぎると判断し、アプリを閉鎖しました。 AIチャットボットが精神衛生上安全ではないと考える理由 OpenAIは、CEOのサム・アルトマン氏が「ストレスになる」と警告したAIリスクの軽減を支援するために、年間55万ドルの「準備責任者」を雇用している。 2026 年 5 月 19 ~ 20 日にアトランタで開催されるフォーチュン ワークプレイス イノベーション サミットにご参加ください。職場イノベーションの次の時代が到来し、既存の戦略が書き直されています。この独占的でエネルギーに満ちたイベントには、世界で最も革新的なリーダーが集まり、AI、人間性、戦略がどのように融合して仕事の未来を再定義するのかを探ります。今すぐ登録してください。


