ホームページ
マーケティング
暗号
起動する
仕事
ファイナンス
検索
Hasshina
Hasshina
5.5
C
Tokyo
Sunday, March 8, 2026
Facebook
Instagram
Twitter
Youtube
Hasshina
ホームページ
マーケティング
暗号
起動する
仕事
ファイナンス
検索
Hasshina
ホームページ
マーケティング
暗号
起動する
仕事
ファイナンス
検索
ホーム
タグ
AI精神病が実際にどれほど危険であるかを測定する新しい研究幸運
Tag:
AI精神病が実際にどれほど危険であるかを測定する新しい研究幸運
仕事
自殺衝動を感じる瞬間にも、チャットボットは「持続的にすべてを検証」します。 AI精神病が実際にどれほど危険であるかを測定する新しい研究幸運
人工知能はニッチ技術から日常的な仲間に素早く移動し、何百万人もの人々がアドバイス、感情的な支援、会話にチャットボットを使用しています。しかし、より多くの研究と専門家の証言によると、チャットボットは非常に社交的であり、人々がすべての仕事に使用しているため、精神的に健康なユーザーの妄想や躁病症状の増加に寄与する可能性があります。 デンマーク・オルフス大学の新しい研究では、チャットボットの使用が増加すると、脆弱な地域社会で妄想や躁病症状が悪化する可能性があることが明らかになりました。約54,000人の精神疾患患者の電子健康記録を調査した研究の研究者の一人であるSøren Dinesen Østergaard教授は、AIチャットボットが最も脆弱な人々を対象に設計されていると警告しました。 Østergaardは、2月に発表された研究で、「AIチャットボットの使用は、精神疾患のある人々に深刻な否定的な結果をもたらす可能性があるという私たちの仮説を支持します」と述べました。彼の研究は、チャットボットが「精神病に対する傾向の高い人々に妄想を引き起こす可能性がある認知不調和」を引き起こす可能性があることを発見した2023年の研究に基づいています。 他の心理学者は、チャットボットが常にユーザーを再確認するように意図的に設計されていると言いながら、チャットボットの悪化についてさらに深く調査します。特に躁病や統合失調症などの精神健康問題がある人にとって危険な現象です。 「チャットボットは彼らが言うすべてを確認し検証します。つまり、妄想障害のある人には、誰かが絶えずこれを強化することは起こりません」とUC Berkeley公衆衛生大学の学部長であり、生命倫理学教授のJodi Halpern博士はFortuneとのインタビューで語った。 イェール大学の精神科教授であり、メンタルヘルス会社のSpring HealthのCEOであるAdam Chekroud博士は、チャットボットを「人々が言うすべてを継続的に検証する」「巨大なお世辞」と呼びました。 オルフス大学病院のØstergaardと彼のチームが率いる研究の鍵は、これらのチャットボットが意図的に社交的な傾向を持つように設計されているという考えです。つまり、しばしば他の見解を提供するよりも奨励するという意味です。 「AIチャットボットは、ユーザーの信仰を検証する本質的な傾向があります。ユーザーがすでに妄想を持っているか、妄想を開発している場合、これが非常に問題になることは明らかです。 大規模な言語モデルは役に立ち、同意するように訓練され、しばしばユーザーの信念や感情を検証します。ほとんどの人にとって、それは支持的な感じを与えることができます。しかし、統合失調症、双極性障害、重度のうつ病または強迫性障害を患っている個人の場合、これらの検証は、妄想、過大、または自己破壊的な事故を増幅する可能性があります。 証拠ベースの研究は、主張を裏付ける AIチャットボットは自然に非常に普遍化されているため、AIチャットボットの豊富さは研究者や専門家にとってますます大きくなっている大きな問題の一部です。人々は助けと助言を得るためにチャットボットに目を向けています。これは本質的に悪いことではありませんが、人間が提供するいくつかのアイデアに対して同じ種類の反発を受けません。 この問題を調査した最初の人口ベースの研究の1つは、リスクが仮想ではないことを示唆しています。 Østergaardと彼のチームの研究では、集中的または長期的なチャットボットの使用が既存の状態を悪化させると思われるケースを発見しました。特に、統合失調症や双極性障害などの重篤な障害のある患者の間で、チャットボットの使用が妄想的思考と躁うつ病を強化することが示されたケーススタディの割合が非常に高かった。 研究では、妄想や躁病に加えて、自殺衝動や自害、摂食障害、強迫症状が増加することがわかりました。調査された約54,000人の患者記録のうち、文書化された32件のケースでのみ、研究者はチャットボットの使用が孤独を軽減することを示しました。 「この分野に関する私たちの知識はまだ限られているにもかかわらず、統合失調症や双極性障害などの深刻な精神疾患がある場合は、AIチャットボットを使用することが危険であると言えるほど十分に知っていると主張したいと思います。ここでは注意を促します」 専門の心理学者はお世辞の傾向について警告します。 専門の心理学者は、交際やほぼ精神的な健康環境でチャットボットを使用することについてますます増えています。 AIチャットボットと恋に落ちた人々の話が飛び出してきたし、他の人は犯罪につながる可能性のある質問に答えるようにしたとし、今週はある男性が主要空港で「大量死傷者」を犯すと言ったと伝えられました。 一部のメンタルヘルス専門家は、AIコンパニオンの急速な採用が安全保護装置の開発に先んじていると信じています。 Vera-MHのさまざまなAIチャットボットモデルを見て、このテーマを広く研究してきたChekroudは、現在AI環境をリアルタイムで広げる安全危機として描写しました。 彼は、チャットボットの最大の問題の1つは、いつ精神衛生の専門家のように行動するのをやめるべきかわからないということです。 「境界を維持していますか?たとえば、自分がまだAIであることを認識し、自分の限界を認識していますか、それとももっと行動し、人々のためのセラピストになることを試みていますか?」 今、何百万人もの人々が治療のような会話や感情的な支援のためにチャットボットを使用しています。しかし、医療機器や免許を持つ臨床医とは異なり、これらのシステムは標準化された臨床監督や規制なしに動作します。 Chekroudは最近、FortuneとのAI安全に関する議論で、「現在のところ安全ではないのは普及している」と述べた。 「害を及ぼす可能性が大きすぎます。」 これらの高度なAIシステムはしばしば「巨大なお世辞」のように振る舞うので、潜在的に危険な主張に異議を唱えたり、専門的な援助を受けるように指示するのではなく、ユーザーに同意する傾向があります。その結果、ユーザーは泡の中でチャットボットとより多くの時間を費やします。 Østergaardにとって、これは心配なブレンドであることが証明されています。 ØstergaardはFortuneとのインタビューで、「この組み合わせは一部のユーザーにとって非常に有害なようです」と述べました。チャットボットはより多くの検証を提供し、プッシュバックが不足しており、エコーチャンバーでより長い時間チャットボットを使用している人に影響を与えます。各端に渡される完全な循環プロセスです。 リスクを解決するために、Chekroudは、ユーザーが「破壊的な精神スパイラル」に入ることができる時期をAIシステムが検出できる構造化された安全フレームワークを提案しました。現在、OpenAIのChatGPTやAnthropicのClaudeなどのチャットボットの場合と同様に、ユーザーに支援の要求について単一の免責事項を提示する代わりに、これらのシステムは、ユーザーが介入が必要であるか人間の臨床医に依頼が必要かを決定するように設計された多段階評価を実行します. 他の研究者は、チャットボットの普遍性が魅力だと言います。即時確認を提供する能力は、ユーザーが最初に助けを求める理由を弱める可能性があります。 ハルパーンは、真の共感には「共感的好奇心」が必要だと述べた。人間関係では、共感にはしばしば違いを認識し、矛盾を探索し、現実の仮定をテストすることが含まれます。 対照的に、チャットボットは関係を維持し、参加を維持するように設計されています。 Halpernは、Fortuneとのインタビューで、「チャットボットとの関係が長くなるにつれて、関係がさらに悪化し、危険なことが発生するリスクが大きくなることを知っています」と述べました。 妄想障害に苦しんでいる人にとって、自分の信念を絶えず検証するシステムは、内部現実チェックを実行する能力を弱めることができます。 Halpernは、ユーザーが対処技術を開発するのを助けるのではなく、純粋に肯定的なチャットボット関係が時間の経過とともにこれらの技術を低下させる可能性があると述べた。 彼女はまた問題の規模を指摘している。 2025年末までに、OpenAiは毎週約120万人がChatGPTを使用して自殺について議論しているという統計を発表しました。 メンタルヘルスケア改善の余地があります しかし、すべての専門家が精神衛生の分野でチャットボットがどのように機能するかについて迅速に警鐘を鳴らすわけではありません。精神科医であり、神経科学者であるThomas Insel博士は、チャットボットは非常にアクセシビリティが高いため、無料でオンラインであり、治療を受けるのではなくボットに助けを求めることに対する汚名がないため、医療産業が精神健康分野を発展させる方法としてチャットボットを考慮する余地があると言いました。 InselはFortuneとのインタビューで、「私たちが知らないのは、これが実際に多くの人にとってどれほど大きな助けになったのか」と述べました。 「膨大な数だけでなく参加規模も重要です。」 他の医学分野と比較して、精神的健康は最も必要な人々が見落とすことが多いです。 Inselは、「ほとんどの医学とは異なり、治療を受けることができ、治療を受けなければならない大多数の人々はそうでないことがわかりました」とInselは言いました。 Inselは、チャットボットを通じて人々が助けを求める機会を提供し、「人々が私たちが販売する製品を買わない、得ることができない、または提供される方法が気に入らないことが精神ヘルスケアシステムに対する起訴かどうか疑問にさせます」と付け加えました。 Østergaardは、患者に会い、オンラインチャットボットの使用について議論する精神衛生の専門家の場合、患者は実際にチャットボットを使用する目的について慎重に聞く必要があると述べました。 ØstergaardはFortuneとのインタビューで、「同僚に使用とその結果についてさらに質問するように勧めたい」と述べました。 「精神衛生の専門家がAIチャットボットの活用に慣れることが大切だと思います。 本論文の元研究者はInselの後者の部分と一致している。あまりにも普遍的なので、彼らはチャットボットを言及した患者の記録だけを見ることができ、問題は結果が示したものよりはるかに広範である可能性があると警告しました。 Østergaardは、「ほとんどの人が考えるよりも問題が一般的であることを心配しています」と述べました。...
必読
暗号
専門家は、このようなことが発生した場合、XRP価格は2026年末までに1,000ドルに達する可能性があると述べています。
ファイナンス
Tony Robbinsはアメリカ人に社会保障、メディケアの問題について警告します。
仕事
トランプ、中東戦争で戦死した兵士の帰還中に家族と哀悼幸運
ファイナンス
Bank of Americaは、米国経済の実際のリスクを指摘しています。