AIの部下に対して意味不明の言葉を話すことは、礼儀正しく話すよりも良い結果をもたらすかもしれないが、それは失礼な口調が長期的な影響を及ぼさないという意味ではないと研究者らは言う。
ペンシルベニア州立大学の研究では、ChatGPT の 4o モデルは、研究者のプロンプトが失礼でなくなるにつれて、50 個の多肢選択の質問でより良い結果をもたらすことがわかりました。
礼儀正しさと無礼さによって分類された 250 以上の固有のプロンプト全体で、「非常に失礼な」応答は 84.8% の精度を達成しました。これは、「非常に丁寧な」応答より 4 パーセントポイント高かったです。基本的に、LLM は、研究者が「次の問題を解けますか?」と言ったときよりも、「ねえ、ゴーファー、それを考えてください」のようなプロンプトを提示されたときに、より良い反応を示しました。
通常、失礼な応答はより正確な応答をもたらしますが、研究者らは、「不道徳な談話」は意図しない結果をもたらす可能性があると指摘しました。
「人間とAIのやりとりにおいて虐待的または品位を傷つける言葉を使用すると、ユーザーエクスペリエンス、アクセシビリティ、包括性に悪影響を及ぼし、有害なコミュニケーション規範を引き起こす可能性がある」と研究者らは書いている。
チャットボットが部屋を読み上げます。
このプレプリント研究は査読を受けていないが、文章の構造だけでなく口調もAIチャットボットの応答に影響を与えるという新たな証拠を提供している。これは、人間と AI の相互作用がこれまで考えられていたよりも微妙であることを示している可能性もあります。
AI チャットボットの動作に関して行われたこれまでの研究では、チャットボットが人間から与えられるものに敏感であることが示されています。ある研究では、ペンシルバニア大学の研究者らが、抑制された反応をもたらすようにLLMを操作するために、効果的な説得技術を人間に適用した。別の研究では、科学者らはLLMが持続的な認知機能低下の一形態である「脳腐れ」にかかりやすいことを発見した。彼らは、ウイルス含有量の低い食事を一貫して与えられた場合、精神病とナルシシズムの発生率が増加することを発見しました。
ペンシルベニア州立大学の研究者らは、回答のサンプルサイズが比較的小さいことや、研究の大部分が1つのAIモデルであるChatGPT 4oに依存していることなど、この研究にはいくつかの限界があると指摘した。研究者らはまた、より高度なAIモデルは「口調の問題を無視して、各質問の本質に焦点を当てる」ことができるとも述べた。それにもかかわらず、研究により、AI モデルとその複雑さの背後にある関心が高まっています。
これは特に当てはまります。 ChatGPTの応答は、多肢選択式テストのような単純な構造が与えられた場合でも、プロンプトの些細な詳細に依存する、とペンシルバニア州立大学情報システム教授で研究者の一人であり、電気工学とコンピュータサイエンスの両方の学位を取得しているアキル・クマール氏は述べた。
この記事のバージョンは、2025 年 10 月 30 日に Fortune.com で公開されました。
AI の詳細については、2026 年 5 月 19 ~ 20 日にアトランタで開催されるフォーチュン ワークプレイス イノベーション サミットにご参加ください。職場イノベーションの次の時代が到来し、既存の戦略が書き直されています。この独占的でエネルギーに満ちたイベントには、世界で最も革新的なリーダーが集まり、AI、人間性、戦略がどのように融合して仕事の未来を再定義するのかを探ります。今すぐ登録してください。


