計画的な殺人を助ける理由を提供することもできますので、チャットボットと対話する方法に注意してください。
韓国の21歳の女性がChatGPTを使用して2人の男性を殺した一連の殺人を計画したことが知られています。
ソン・キム氏だけで知られるこの女性は、精神疾患に処方されたベンゾジアゼピンが含まれた飲み物を二人の男に与えた疑いを受けているとコリア・ヘラルドが報道しました。
キム氏は去る2月11日上海致死容疑で逮捕されたが、ソウル江北警察署はオンライン検索記録とChatGPTチャット内容を通じて殺害意図があったことが明らかになった。
「お酒と一緒に睡眠薬を食べるとどうなりますか?」キム氏はオープンAIチャットボットに問い合わせたと伝えられた。 「どのくらい危険だと思われますか?
「致命的かもしれませんか?」キムさんが尋ねた。 「人を殺すことはできますか?」
江北モーテル連鎖死亡事件として広く知られた事件で検察はキム氏の捜索とチャットボット履歴を通じて容疑者が計画的殺人をどのように遂行するかアドバイスを求める姿を見せると主張した。
警察関係者は「キム氏はChatGPTで麻薬関連の質問を繰り返した」とし、「薬物と一緒に酒を飲むと死に至ることができるという事実をキムさんもよく知っていた」と話した。
警察はこの女性がベンゾジアゼピンを含む処方された鎮静剤を男性用飲料に混ぜたと認めたが、以前はそれが死亡につながるかわからなかったと述べたと述べた。
キム氏は去る28日午後9時30分ごろソウル江北のあるモーテルに20代男性と同行し、2時間後に一人でモーテルを離れる姿が捉えられた。翌日、Aさんはベッドの上に隠れたまま発見された。
その後キム氏は去る2月9日にも他のモーテルに他の20代男性と共にチェックインしたが、この男性も鎮静剤とアルコールを混合した致命的なカクテルを投与したまま死んだまま発見された。
警察はキム氏が去る12月にもデート相手に駐車場で鎮静剤が混じった飲料水を与えた後殺害しようとしたと主張した。男性は意識を失ったが生き残って生命には支障がない状態だ。
OpenAIはコメントリクエストに応答しませんでした。
チャットボットが精神的健康に与える影響
ChatGPTのようなチャットボットは、暴力や自害行為を防ぐために会社が用意したガードレールが不足して最近調査されています。最近、チャットボットは爆弾の作り方や、全面的な核落下シナリオに参加する方法についてのアドバイスを提供しました。
特にチャットボットの同伴者と恋に落ちた人々の話によって懸念が高まっており、チャットボットの同伴者は人々がこれをより長く使用するために脆弱性を狙うことがわかりました。 Yara AIのクリエイターは、メンタルヘルスの問題で治療アプリを終了しました。
最近の研究によると、チャットボットは精神疾患のある人々の妄想的精神健康危機を高めることを示しました。デンマーク・オルフス大学の精神科医チームは、精神疾患のある人がチャットボットを使用すると症状が悪化することを発見しました。 AIによって引き起こされる精神健康問題の比較的新しい現象は「AI精神病」と呼ばれます。
場合によっては死で終わることもあります。 Google と Character.AI は、AI チャットボットに関連して自殺または心理的被害を受けた子供の家族が提起した複数の訴訟で合意に達しました。
UC Berkeley公衆衛生大学の学長であり、生命倫理学の教授であり、Kavli倫理、科学、公共センターの共同所長であるJodi Halpern博士は、この分野で豊富な経験を持っています。 Halpernは、彼の役職と同じくらい長いキャリアを持っており、患者に対する医師や看護師のような例を引用したり、戦争から戻った兵士が社会的環境でどのように認識されているかを述べながら、共感が受容者に与える影響を研究するのに30年を費やしました。過去7年間、Halpernは技術倫理と、AIとチャットボットが人間と相互作用する方法を研究してきました。
彼女はまた、チャットボット会社が自害または自殺に関するデータを収集し報告することを要求する米国初の法律SB 243についてカリフォルニア上院に助言しました。 Halpernは、120万人のユーザーがチャットボットを使用して自殺について議論しているというOpenAIの自己調査の結果を参照しながら、チャットボットの使用をタバコ業界がタバコに有害な発がん物質を含めることを防ぐために厳しい遅い進展を示したことに例えました。実際、問題は喫煙全体に関するものでした。
「私たちには安全な会社が必要です。それはタバコのようです。人々を肺がんに対してより脆弱にするいくつかの要因があることがわかりますが、タバコは問題でした」とHalpernはFortuneとのインタビューで語った。
「誰かが殺人的な考えや危険な行動を起こす可能性があるという事実は、ChatGPTを使用するとさらに悪化する可能性があります。これは私が明らかに懸念していることです」 「私たちは、人々が自殺を助けるためにChatGPTを使用するリスクが非常に高く、一般的にチャットボットも同様です。
Halpernは、ソウルのキム氏の場合には尋問を受ける人を防ぐことができるガードレールがないと警告しました。
「チャットボットとの関係が長くなるほど、関係が悪化し、危険なことが起こるリスクが大きくなることを知っているため、まだ人々を保護できるガードレールはありません。」
自殺を考えている場合は、988または1-800-273-8255に電話して988自殺と危機ライフラインに連絡してください。


