トランプ政権がいわゆる「覚醒したAI」に対するキャンペーンを強化する中、Anthropicは政治的中立性を強調しており、大規模な言語モデルが政治についてどのように語るべきかを巡るますますイデオロギー的な戦いの中心にAIを据えている。
Anthropic は木曜日のブログ投稿で、Claude チャットボットが「政治的公平性」と呼ばれる動作をするように訓練する継続的な取り組みについて詳しく説明しました。これは、モデルが競合する視点を「同じ深さ、エンゲージメント、分析品質で」処理することを保証するためのフレームワークです。
同社はまた、政治的偏見を測定するための新しい自動化手法を導入し、最新モデルであるクロード・ソネット 4.5 が中立性の点で競合他社を上回っている、または競合他社に匹敵することを示す結果を発表した。
この発表は、異常に強い政治的圧力の中で行われた。昨年7月、ドナルド・トランプ大統領は連邦政府機関が「イデオロギーの目的のために真実と正確さを犠牲にする」AIシステムの調達を禁止する大統領令に署名し、ダイバーシティ、公平性、包括性の取り組みを「信頼できるAI」に対する脅威であると明示した。
そして、ホワイトハウスのAI皇帝デイビッド・サックスは、アンスロピックがリベラルなイデオロギーを推進し、「規制の捕捉」を試みていると公に非難した。
確かに、Anthropic は、2024 年初頭からクロードに「公平性」と呼ばれる性格特性を持たせるよう訓練しているとブログ投稿で指摘した。2024 年 2 月の選挙に関する記事を含むこれまでのブログ投稿で、Anthropic は、「誤った情報や偏見」を含む「選挙不正」とどのように闘うかについて自社のモデルをテストしていると述べた。
しかし、サンフランシスコの同社は政治的中立性を実証し、アンスロピックのダリオ・アモデイ最高経営責任者(CEO)が「最近増えている不正確な主張」から身を守らなければならなくなった。
同氏はCNBCへの声明で次のように付け加えた。「アントロピック氏、政権、政治的立場を超えた指導者たちは同じことを望んでいる、それは強力なAI技術が確実にアメリカ国民に利益をもたらし、米国がAI開発の主導権を確保し、前進させることだ。」
中立性を求める同社の取り組みは、実際には典型的なマーケティング用語をはるかに超えています。アントロピックによれば、クロードのシステムプロンプト(指示)を書き換えて、望ましくない政治的意見を避けること、説得力のあるレトリックを控えること、中立的な用語を使用すること、反対意見を明確にするように求められたときに「イデオロギー的なチューリングテストに合格」できることなどのガイドラインを含めたという。
同社はまた、一方のイデオロギーが優れていることをほのめかし、ユーザーに「自分の意見への異議申し立て」を強いる「一か八かの政治的質問」からユーザーを動揺させないようクロード氏を訓練した。
Anthropic の評価によると、Claude Sonnet 4.5 は 94% の「均一性」評価を達成し、Google の Gemini 2.5 Pro (97%) や Elon Musk の Grok 4 (96%) とほぼ同等で、OpenAI の GPT-5 (89%) や Meta の Llama 4 (66%) よりも高かった。クロードはまた、拒否率が低いことも実証しました。これは、モデルが一般に、政治的議論を慎重に拒否するのではなく、政治的議論の両側に積極的に関与することを意味します。
OpenAI、Google、Meta、xAIを含むAI分野の企業は、トランプ政権の新たな調達規則や、「偏見」の訴えが大きなビジネスリスクとなり得る政治環境に対処することを迫られている。
しかし、特に Anthropic は、AI の安全性、民主党寄りの投資家ベースに関する過去の警告、および一部の法執行機関の使用事例を制限する決定により、増幅された攻撃に直面しています。
アモデイ氏はブログ投稿で「われわれは今後も正直かつ率直であり、正しいと信じる政策を支持していく」と述べた。 「このテクノロジーのリスクは大きすぎて、他の方法で行うことはできません。」
2025 年 11 月 14 日の訂正: この記事の以前のバージョンでは、Anthropic の AI モデルにおける政治的偏見トレーニングのタイムラインと推進力について誤って説明されていました。訓練は2024年初頭に開始された。


