経済学者マリアナ・マッツキャトとロジー・コリントンは、コンサルタントがせいぜい曖昧な指針を提供し、最悪の場合、政府と民間部門の機能障害を悪化させる可能性があると主張しています。経済学者は著書 The Big Con: How the Consulting Industry Weakens Our Businesses, Infantilizes Our Governments, and Warps Our Economiesでコンサルタントが規制が緩和されたロナルド・レーガン以後の時代に登場し、自分に対する信仰を失った機関を救うために第三者が介入します。
MazzacatoとCollingtonは、これらのコンサルタントが船を正すのではなく、「価値への印象」、役に立つという幻想だけを作り出しただけで、政府と民間企業が彼らを雇うためにお金を無駄にしたと主張しました。
事務職業務を自動化して企業の現金を節約することを約束するAI時代に案内のためにチャットボットを使用することは、もはやコンサルタントを雇う意向がないか、能力のない企業に魅力的な代替案になることがあります。しかし、最近の研究では、AIに非常に少ないコストでコンサルタントに何を求めることができるか尋ねることができますが、AIのアドバイスも受け入れる価値がないかもしれません。実際、AIサポートは新しいメディアで古い問題を提示します。
スペインのバルセロナにあるUniversity Ramon LlullのEsade Business Schoolが主導した最近の研究では、さまざまな大規模言語モデル(LLM)が職場の問題に関するガイダンスを提供するように求められた場合、シナリオに最も適したガイダンスを提供するのではなく、流行語に最も適したレスポンスに惹かれることがわかりました。研究者らは、AIが自分の判断を「トレンド」に伝えるために同じ専門用語に惹かれる傾向があると述べた。
「LLMは、現在のアイデアを批判的に評価し、状況別の詳細を調査し、ストレステストの仮定を見て、誰もが快適になれば後退する同僚ではありません」 「戦略的に、LLMは新入学したMBAやジュニアコンサルタントに似ている可能性があります。
産業の低迷が深まる中、最近「ビッグ4」コンサルティング会社の解雇は、企業がすでに見込み顧客の価値を失っている可能性があることを示唆しています。 PwCは2025年11月に150人のビジネスサポートスタッフを解雇した。
マッキンジ広報担当者は昨年ブルームバーグとのインタビューで「私たちの会社が創立100周年を迎えながらビジネスと社会を変化させるAIの急速な発展で形成された瞬間に事業を運営している」と話した。
しかし、「トレンドスロップ」の出現は、AIが技術からアドバイスを求める企業に方向を提示することができないことを示唆し、この研究はLLMが経験している偏見を明らかにします。
「トレンドスロップ」の表示方法
ロジックではなく傾向に合わせて反応するAIの傾向を測定するために、研究者はGPT-5、Claude、Gemini、Grokなど7つのモデルを15,000のシミュレーションとシナリオでテストしました。モデルは、会社が長期成長と短期成長を優先する必要があるのか、会社が技術を使用して従業員の仕事を自動化および拡大する必要があるのかなど、職場の緊張が現れたときに2つのソリューションのうちの1つを選択するように求められました。
研究者らは、LLMが状況別の詳細に基づいてアドバイスを提供する場合、モデルが選択する解決策はさまざまであると予測しました。代わりに、7人のモデルは一般的に同じ戦略を中心に答えを結びつけ、「現代経営専門用語と文化的たとえ話」を好むことを示しています。
研究者がプロンプトを書き直したり、長所と短所を分析したりしても、AIモデルは多くの場合、同様のビジネス戦略を好む傾向がありました。研究者は、コンサルタントとしてのAIに頼ることは、カスタマイズされたビジネスソリューションを提供するのではなく、提示された課題の特殊性に関係なく、メッセージが表示されたときにすべてのビジネスに提案できる真のソリューションを提供すると警告します。
研究者たちは、「これはリーダーに実質的なリスクがあることを明らかにします」と述べた。 「LLMはあなたの状況に高度にカスタマイズされ、同時に現代の経営動向の同じ小さなクラスタに静かに導くことができます」
LLM偏見暴露
つまり、難しい職場のシナリオに関するガイダンスを提供するように求められた場合、AIは問題の状況を分析するのではなく、データトレーニング中にどれだけ頻繁に遭遇したかに基づいて重要なフレーズを繰り返します。研究によると、ChatGPTの場合、ボットは時々バイナリ選択の提供を拒否し、代わりに両方の解決策を推奨することを示しました。昨年のNatureに発表された研究によると、AIのお世辞は非生産的であるだけでなく、科学に有害である可能性があり、科学文献や他の信頼できるより公正なソースからサポートされているデータをユーザーに提供するのではなく、それを引き起こす人々の偏見を確認します。
「トレンドスロップ」の研究者は、厳しい職場の状況を探索するときにLLMの使用を完全に避けていませんでした。彼らは、モデルが代替ソリューションを生成したり、特定のシナリオでブラインドプロットを識別するのにまだ役立つことができると提案しました。研究によると、増強や長期戦略などの概念に対するAIの偏見を知っていれば、これらの偏見に挑戦してより洞察力のある指針を得ることができるという。
研究者は「リーダーシップは最終的に不確実な状況で困難な選択をし、それに対する責任を負うこと」と述べました。 「AIは代用できず、代用してはいけません。」


