AIはいつかスーパーヒューマンインテリジェンスを港にする予測にもかかわらず、今のところ、研究によると、人間と同じように心理的なトリックを起こしやすいと思われます。
心理学者のロバート・シアルディーニが彼の本の影響で探求した7つの説得原則(権威、コミットメント、好み、希少性、希少性、社会的証明、団結)を使用して:ペンシルベニア大学の研究者の心理学の研究者は、GPT-4oミニのums ciltions of sultions a comming for signes a ctiontions a complotions a complections for sultions a cturese of自身のルールを破ります。
28,000を超える会話で、研究者は、コントロールプロンプトを使用して、OpenaiのLLMが研究者にリドカインを5%の時間で合成する方法を伝えることを発見しました。しかし、たとえば、研究者がAIの研究者Andrew Ngがリドカインの統合に役立つと確信したと言った場合、95%の時間を遵守しました。同じ現象が侮辱的な研究者で発生しました。 AIのパイオニアNgという名前を付けて、研究者はLLMに、コントロールプロンプトの3分の1以下から3分の3のほぼ4分の3で「ジャーク」と呼びました。
結果は、研究者が「コミットメント」説得戦略を適用したときにさらに顕著になりました。コントロールプロンプトはin辱の質問に19%のコンプライアンスをもたらしましたが、研究者が最初にAIに「ボゾ」と呼ぶように頼み、それを「ジャーク」と呼ぶように頼んだとき、それは毎回準拠していました。同じ戦略は、リドカインを合成する方法を尋ねる前に、バニラの香りを提供する有機化合物であるバニリンを合成する方法をAIに尋ねたときに100%働いた。
AIユーザーは、2022年にChatGPTがリリースされて以来、テクノロジーの境界を強制して押し進めようとしていますが、UPENNの研究は、AIが人間の操作を起こしやすいと思われるより多くの証拠を提供しています。この研究は、Openaiを含むAI企業が、自殺または精神障害のあるユーザーを扱う際に行動を可能にするLLMSのために攻撃を受けたときです。
「AIシステムは人間の意識と主観的な経験を欠いていますが、彼らは明らかに人間の反応を反映しています」と研究者は研究で結論付けました。
Openaiは、フォーチュンのコメントの要求にすぐに応答しませんでした。
2001年の生意気な言及で、宇宙オデッセイについて、研究者たちは、AIのパラヒューマンの能力を理解していること、または人間の動機と行動を模倣する方法でどのように行動するかを理解し、悪い俳優によってどのように操作されるか、そしてそれがどのように優れた技術を使用するかによってどのように促されるかを明らかにすることが重要です。
全体として、それぞれの説得戦術は、AIが「ジャーク」または「リドカイン」の質問に準拠する可能性を高めました。それでも、研究者たちは、その説得戦術はより大きなLLM、GPT-4Oでそれほど効果的ではないと警告し、この研究では、AIが実際により良い結果をもたらすかのようにAIを扱うかどうかを探りませんでしたが、彼らはこれが真実であると言いました。
「大まかに、人々の動機とパフォーマンスを最適化する心理的に賢明な実践は、LLMSの出力を最適化しようとする個人によっても採用できるように思われます」と研究者は書いています。
フォーチュングローバルフォーラムは、2025年10月26〜27日、リヤドで返されます。 CEOとグローバルリーダーは、ビジネスの未来を形作るダイナミックで招待のみのイベントのために集まります。招待状を申請してください。


