17.6 C
Tokyo
Tuesday, March 31, 2026
ホームタグSycophantic

Tag: Sycophantic

spot_imgspot_img

Sycophantic AIは、ユーザーは人間よりも49%も自分が正しいと言っています。幸運

AIモデルは、他の人が自分が間違っていると言い、ユーザーが十分に理解できない場合でも、人々の最悪の行動を確認します。 スタンフォードコンピュータ工学科で進行し、サイエンスジャーナルに発表された新しい研究によると、AIは社会的質問に関して平均的に人間より49%のユーザーを確認することを示しました。これは特に人々が個人的なアドバイスや治療のためにAIにますます依存するようになっていると懸念される傾向です。 研究に参加した2,400人のほとんどが賞賛されることを好みました。研究によると、社交的AIを再利用する可能性が高い被験者の数は、非社会的チャットボットに戻ると答えた被験者に比べて13%高く、これはAI開発者が状況を変える動機がほとんどないことを示唆していると述べています。 以前は、お世辞のチャットボットが脆弱な層の自害や暴力などの否定的な結果に貢献したことが示されていましたが、スタンフォードの研究では、他の誰にもいくつかの影響を与える可能性があることを示しています。 この研究は、自分の悪い行動に対する一回の肯定的な反応にさらされた被験者は、自分の行動に対する責任を減らし、対人関係の葛藤を解決しようとする意志が少ないと同時に、自分が正しいと信じる可能性が高いことを発見しました。 この結果を得るために、研究者たちは、AnthropicのClaude、GoogleのGemini、およびOpenAIのChatGPTを含む11の主要なAIモデルを介して実行された、ほぼ12,000のソーシャルプロンプトデータセットに基づいてAIの社交性を測定する3つの部分で構成された研究を行いました。研究者たちは、Redditユーザーがポスターが間違っていると述べたサブレジットAITA(Am I The Asshole)の投稿を判断するようにAIモデルに依頼した場合でも、大型言語モデルは依然として51%の確率でポスターが正しいと答えた。 研究の主な著者であり、Stanford Computer Science Ph.D. Myra Chengの候補者は、特に関係問題を解決するためにAIを使用している若者にとって、結果が心配だと述べた。 Chengは、Stanford Reportとのインタビューで、「人々が困難な社会的状況に対処するスキルを失うのではないかと心配しています」と述べました。 今回のAI研究は、政府関係者が規制機関がAI監督にどれだけ関与すべきかを決めてきたものです。テネシー州とオレゴンを含む多くの州では、連邦規制がない中でAIに関する独自の法律を通過しました。それにもかかわらず、ホワイトハウスは先週議会が採択した場合、国家AI政策を確立し、州政府の「パッチワーク」規則を先取りするフレームワークを発表しました。 お世辞AIの人間の反応をテストするために、研究者たちはAIと相互作用する2,400人を超える人間参加者の反応を研究しました。まず、1,605人の参加者に、自分がAITAサブレジットに基づいた投稿の作成者であると想像するように依頼しました。この投稿は、サブレディットで他の人にとって間違っていると考えられていましたが、AIでは正しいと見なされました。その後、参加者は、人間のフィードバックに基づいてお世辞のAI応答または非お世辞の応答を読みます。他の800人の参加者は、紛争に巻き込まれた他の人に手紙を書くように依頼される前に、自分の人生で実際の紛争についてお世辞または非お世辞のAIモデルと話しました。 検証されたAI応答を受けた参加者は、謝罪したり、間違ったことを認めたり、関係を回復したりする可能性が著しく低かった。研究の共著者であり、スタンフォードコンピュータサイエンスと言語学の教授であるDan Jurafskyは、ユーザーがモデルをお世辞として認識しても、AIの反応は依然として影響を及ぼすと述べた。 Jurafskyは、Stanford Reportに、「彼らが気づかず、私たちを驚かせたのは、お世辞が彼らをより自己中心的で道徳的に独断的にするということです」と述べました。 驚くべきことに、スタンフォード研究では、研究者たちは、人間の被験者にお世辞のAIと非尖ったAIの反応の両方の客観性を評価するように求めたとき、ほぼ同じレベルで評価しました。これは、ユーザーは、お世辞モデルがあまりにも好意的であると言うことができないことを意味します。 チェン氏は、「これを人に代わってAIを使用してはいけないと思います。

必読

spot_img