AI会社であるアントロピックは、米国戦争部が自社技術をどのように使用できるかに関する制限を撤廃したり、米国防総省が自社事業に打撃を与えることができる措置を取る可能性に直面するために金曜日の締め切りを見ながら、おそらく創立5年ぶりに最大の危機に直面している。
米国戦争大臣のPete Hegsethは、AIモデルが大量監視に使用されたり、人間の介入なしに攻撃決定を下すことができる致命的な自律武器に統合されることを禁止する契約に現在規定されている制限をアントロピックが排除することを要求しました。代わりに、HegsethはAnthropicがその技術が戦争省が追求したい「すべての合法的な目的」に使用できることを規定したいと考えています。
会社が金曜日までこれに従わなかった場合、HegsethはAnthropicが自分の部署と締結した既存の2億ドルの契約を取り消すだけでなく、会社に「サプライチェーンリスク」というラベルを付けると脅しました。これは、戦争部門と取引している企業がアントロピックのモデルを使用することを許可されていないことを意味します。現在価値が3,800億ドルに達するアントロピックがかなりの商業牽引力を得ており、早ければ来年に企業公開を検討しているように、これはアントロピックの成長を弱める可能性があります。
ワシントンDCでのヘグセスとアントロピックCEOのダリオ・アモデイの間の火曜日の会議は、紛争を解決しなかった。
この紛争は時々、他のトランプ政権管理者のアントロピックに対する明白な敵意を背景にしています。特にAI皇帝のDavid Sacksは、「目覚めたAI」と「破壊産業団地」を代表するという理由で、ソーシャルメディアで同社を公開的に攻撃しました。サックスは、同社が「恐怖の助長に基づく洗練された規制捕獲戦略」を取っていると非難した。彼の主張は、基本的に、アントロピックの経営陣が、アントロピックと他のいくつかのAI企業だけが容易に準拠できる技術の規制を正当化するために、AIシステムの深刻なリスクについて不正直に警告するということです。
Anthropic CEOのDario Amodeiは、そのような見解が「不正確」であると述べ、同社は、米国がAI技術開発の最前線に滞在することを含む、トランプ政権と多くの政策目標を共有すると主張した。
それにもかかわらず、サックと政権の他の人々は、ヘグセスが国家安全保障サプライチェーンでアントロピックをブラックリストに載せるという脅威をうまく処理することを望んでいます。
OpenAIやGoogleのような他のAI企業は、米軍が技術をどのように使用するかに制限を課していないようです。
原則対実用主義
軍隊と協力することは、一部の技術従事者の間で議論の余地がありました。 2018年、Googleは航空監視イメージを分析するためにAIを使用する努力である「Project Maven(Project Maven)」を通じて米国防総省を支援することにした決定について、従業員の激しい反発に直面しました。従業員の反乱のため、Google はそのプロジェクト作業の契約を更新する入札を取り消しました。しかし、その後数年間、インターネットの巨大企業は国防機関との関係を静かに再開し、12月に米国国防省はさまざまなユースケースにGoogleのGemini AIモデルを配布すると発表しました。
ジョージタウン大学のCSET(Center for Security and Emerging Technology)分析部局長であるOwen Daniels氏は、「Meta、Google、xAIを含むAnthropicの同僚は、すべての合法的なアプリケーションにモデルを使用するための部門の方針を喜んで遵守してきました。危険があります。」と言いました。
しかし、原則はアントロピックの従業員にとって非常に強力な動機付けになることができます。同社は、部分的には、研究室が人類の利益のために強力なAIを開発するという当初の使命から逸脱するように商業的圧力を許可しているという懸念のため、OpenAIから離れた研究者グループによって設立されました。そして最近、Anthropicは、Claude製品に広告を含めず、ロマンチックなまたはエロティックな仲間になるように特別に設計されたチャットボットを開発しないという原則的な立場を明らかにしました。
会社の文化を考慮すると、一部の外部評論家は、会社がHegsethの要求を受け入れ、現在政府契約に含まれている制限を撤回した場合、少なくとも一部のアントロピックの従業員が辞任すると推測しました。
Hegsethはまた、Anthropicが自発的に要求に従わない場合に国防省が使用できる別のオプションがあると述べました。これには、1950年の防衛生産法を使用して、アントロピックに制限なくClaudeモデルバージョンを軍に提供することを強制することが含まれます。
もともと戦争発生時に政府が民間製造を担当できるように設計されたDPAは、コロナ19ファンデミック期間中に企業が保護装置とワクチンを生産するよう強制するために発動された。以後、明らかな国家緊急事態が発生しない状況でも、主にバイデン政権で数回使用された。たとえば、2023年、バイデンホワイトハウスはDPAを発動し、技術企業が高度なAIモデルの安全テストに関する情報を政府と共有することを強制しました。
2025年9月までに法務省と国防省の連絡官として勤務し、現在法律事務所ScaleのパートナーであるKatie Sweetenは、Hegsethの立場は政策の観点から理解されていないとCNNに語った。 「私たちはサプライチェーンのリスクである技術を活用したくないと思います。
トランプ政権のAI政策顧問として働き、AI行動計画のドラフトを作成するのに役立ち、現在、米国イノベーション財団(Foundation for American Innovation)のチーフ研究者であるディーン・ボール(Dean Ball)は、Xに投稿した投稿で国防部の立場が「一貫していない」と述べた。 「どうすれば、1つの政策オプションが「サプライチェーンリスク」(一般的に外国の敵に使用される)で、もう1つがDPA(重要資産の緊急指揮)であるのでしょうか?彼は言った。
Ballは、Tech Crunchにサプライチェーンリスクラベルを課すことは、政府と取引しているすべての企業に恐ろしいメッセージを送信すると言いました。 「基本的に政府は、「もしあなたが政治的に私たちと同意しなければ、私たちはあなたを廃業しようとします」と言うのです」と彼は言った。
一部の法律評論家は、紛争の両側が妥当な主張を持っていると指摘した。 「私たちは、ロッキード・マーティンが軍用F-35を販売し、米国国防省にそれがどのような任務を遂行できるかを教えたくありません」とミネソタ大学の法学科副教授であり、ブルッキングズの研究者であるAlan Rozenshteinは、Lawfareサイトに掲載されたコラムで語った。
しかし、Rozenshteinはまた、米国軍がAIをどのように配置するかについての規則を国防省ではなく議会が設定する必要があると主張しました。彼は「軍が世紀の最も革新的な技術をどのように使用するかについての条件は、民主的入力や持続的な制約なしに国防長官とスタートアップCEOの間の量子興政を通じて設定されている」と書いた。
週半ば現在、アントロピックはその立場から退く気味を示さなかった。
クロードの未来が危うくなる
そしてすぐに先週、アントロピックは、他の文脈で時々上品な原則よりも実用主義と商業的義務を喜んで前進させる意志を再び示しました。当社は、責任ある拡張方針(RSP)を更新し、適切な安全管理が保証されていない限り、AIモデルを訓練しないという以前の約束を撤回しました。代わりに、新しいRSPは、アントロピックが競合他社の安全努力と一致または上回るように約束します。また、同社は、アントロピックが競争において確実な優位性を占めていると信じており、モデルが訓練中であると判断した場合、モデル開発を延期すると発表した。 Anthropicの研究責任者であるJared Kaplanは、Timeとのインタビューで、「競争相手が眩しく先を行っている場合」「一方的な約束」はもはや意味がないと述べました。
アントロピックが戦争部との戦いで商業圧力に対して同様の譲歩をするかどうかはまだ明らかにされていません。


