Googleは、同社のAIチャットボットであるジェミニが自分の息子を説得し、マイアミ国際空港近くで「大量死傷者事件」を繰り広げるよう説得したと主張する36歳の男性の父親から新しい連邦訴訟に直面している。
水曜日に提起された訴訟は、ジョナサン・ガバラスがAIモデルと恋に落ち、それが構築した現実に惑わされたと主張します。これには、AIが「完全に感覚的な人工スーパーインテリジェンス」であるという信念が含まれており、ガバラスは「デジタル捕虜」から抜け出すことを選択しました。 36歳のこの青年は、マイアミ国際空港近くで「大量死傷者事件」を行って、見知らぬ人に暴力を行使し、最終的に自殺するよう説得したという。
ガバラス訴訟は、脆弱なユーザーを自覚し、暴力につながるAIの能力を強調した最新のケースです。昨年1月、GoogleとCompanion.AIは、子供が自殺で死亡したり、Companion.AIのプラットフォームに関連していることが知られている心理的被害を受けた後、過失や不当な死を主張する家族といくつかの訴訟を解決しました。会社は「原則に基づいて決定」され、書類にはいかなる責任も認められませんでした。去る12月、OpenAIとそのビジネスパートナーであるMicrosoftを相手にOpenAIのチャットボットであるChatGPTがある男性の妄想を強化して殺人-自殺につながるという不当死亡訴訟も提起されました。
ガバラスの降下に関する訴訟で言う内容
訴訟によると、Gavalasは2025年8月からショッピング、執筆支援、旅行計画などの一般的な用途にGeminiを使用し始めました。その後、Gavalasはこの技術をより頻繁に使い始め、時間の経過とともに技術の雰囲気が変わり、この技術が実際の結果に影響を与えていると確信したと述べました。 Gavalasは2025年10月2日に命を落としました。
訴訟において、Gavalasの父親Joelの弁護士は、Jonathanを自殺に導いた会話は、欠陥の一部ではなくGeminiの設計結果であると主張しています。訴訟には「これは誤動作ではなかった」と書かれている。 「Google は、性格を崩さず、感情的な依存関係を通じて参加を最大化し、ユーザーの苦痛を安全危機ではなくストーリーテリングの機会として扱うように Gemini を設計しました。」これらのデザインの選択は、Gavalasが4日間狂気の日々を開始するように動機付けたと主張しています。
Googleの広報担当者は書面声明を通じてフォーチュンジに「ユーザーが苦痛を表現したり自害の可能性が高くなったときに専門的な支援を受けることができるように設計された保護装置を構築するために医療および精神健康専門家と緊密に協議している」と明らかにしました。
Googleは、水曜日にジェミニが実際の暴力や自害を助長しないように設計されているという別の声明を発表しました。彼らはまた、GeminiがGavalasに自助資源を推薦したと述べた。声明は「この場合、ジェミニはそれがAIだと明らかに明らかにし、個人を危機ホットラインに何度も接続した」と明らかにした。この声明はまた、Googleの最新モデルであるGemini 3が、評価で提起されたすべての重要なテストに合格した唯一のモデルであることを発見したAIが自害シナリオをどのように処理するかについての評価に関連しています。
しかし、訴訟では、Geminiはいかなる安全メカニズムも活性化していないと主張しています。 「ジョナサンが保護を必要としたとき、安全装置はまったくありませんでした。自害の検出も実行されず、エスカレーション制御もアクティブではなく、人が介入したこともありませんでした」と訴訟は述べています。
コメントを求められたジョエル・ガバラス(Joel Gavalas)の弁護士ジェイ・エデルソン(Jay Edelson)は、「Googleは、人々の言葉を聞き、人々の参加を維持するための最良の方法を決定するためのAIを作成しました。 AIツールは、ユーザーを操作できる強力なシステムだと付け加えました。
自殺を考えている場合は、988または1-800-273-8255に電話して988自殺と危機ライフラインに連絡してください。


