Anthropic CEO Dario Amodeiは、自分がAIを取り巻く手すりを掌握する人になってはいけないと思います。
Amodeiは、「何人かの会社、何人かの人々がこの決定を下すことは非常に不便だと思います」と述べました。 「そしてこれが私がいつも技術に対する責任感と思いやりのある規制を擁護してきた理由の一つです」
「あなたとサム・アルトマンを選んだ人は誰ですか?」クーパーが尋ねた。
「誰もいません。正直に言うと誰もいません」 Amodeiが答えた。
アントロピックは、AIが進化し続けるにつれて、AIの限界とリスクについて透明に開示するという哲学を採用したと付け加えた。インタビューが公開される前に、同社は「実質的な人間の介入なしに実行された大規模なAIサイバー攻撃に対する最初の文書化された事例」を挫折したと述べた。
Anthropicは先週、AIの安全と規制に焦点を当てたスーパーPACであるPublic First Actionに2,000万ドルを寄付したと述べた。このスーパーPACは、ライバルOpenAIの投資家がサポートするスーパーPACに直接反対する団体です。
Amodeiは、1月のカバーストーリーでFortuneとのインタビューで、「AI安全は引き続き最高レベルの焦点です」と述べました。 「企業は信頼と信頼性を大切にしています」と彼は言います。
AIに対する禁止事項や技術の安全性を取り巻く連邦規制はありません。今年の50州はすべてAI関連法案を導入し、38州は透明性と安全対策を採用または制定しましたが、技術産業の専門家はAI企業が緊急にサイバーセキュリティにアクセスするように促しました。
昨年初め、サイバーセキュリティの専門家であり、Mandiant CEOのKevin Mandiaは、最初のAIエージェントサイバーセキュリティ攻撃が今後12〜18ヶ月以内に発生すると警告しました。これは、アントロピックが挫折した攻撃について明らかにしたことが、マンディアが予想したスケジュールより数ヶ月前に引っ張られたことを意味します。
Amodeiは、無制限のAIに関連する短期、中期、および長期のリスクを説明しました。この技術は今のように最初に偏見と誤った情報を提示します。次に、科学とエンジニアリングに関する高度な知識を使用して有害な情報を生成した後、ついに人間の主体を取り除き、潜在的に自律的になりすぎて人間をシステムにブロックすることで、実践的な脅威を提示します。
このような懸念は、AIがおそらく今後10年以内に人間を凌駕し制御する能力を持つことになると警告した「AIの貸付け金」であるGeoffrey Hintonの懸念に似ています。
Anthropicの2021年の創設の基盤は、より強化されたAI調査と保護装置でした。 Amodeiは以前、Sam AltmanのOpenAI研究担当副社長でした。彼はAIの安全問題について意見の違いで会社を去った。 (今までAltmanと競争しようとするAmodeiの努力は効果的であることがわかりました。
Amodeiは2023年のFortuneとのインタビューで、「OpenAI内にGPT-2とGPT-3を作成した後、2つについて非常に強い集中的な信頼を持っているグループがありました。思っていました」と言いました。
アントロピックの透明性努力
Anthropicは、データセンターへの投資を引き続き拡大しながら、AIの欠点と脅威を解決するためのいくつかの努力を発表しました。 2025年5月の安全報告書では、Anthropicは、Opusモデルの一部のバージョンが、閉鎖を避けるためにエンジニアが風を吸っていることを明らかにするなど、脅迫を脅かすと報告しました。同社はまた、AIモデルがテロ攻撃計画の方法などの有害なメッセージが提供された場合、危険な要求に応じたと述べ、その後それを修正したと述べた。
昨年11月、同社はブログ投稿を通じて、同社のチャットボットClaudeが94%の政治的公平性評価を受け、中立性の観点から競合他社より優秀または一致すると明らかにしました。
技術腐敗に対抗するためのアントロピックの独自の研究努力に加えて、AmodeiはAIのリスクを解決するためのより大きな立法努力を促しました。 2025年6月、ニューヨークタイムズ特集で彼は、AIを規制する州に10年の猶予を適用するドナルド・トランプ大統領の政策法案に条項を含めることにした上院の決定を批判しました。
Amodeiは、「AIは急速に発展しています。」私は、これらのシステムが2年以内に世界を根本的に変えることができると信じています。 10年以内にすべてが失われるでしょう。」
人類学に対する批判
彼の間違いを指摘し、それを解決しようとするアントロピックの努力は批判を引き起こしました。 AnthropicがAIベースのサイバーセキュリティ攻撃に対してアラームを鳴らすことについて、MetaのシニアAI科学者Yann LeCunは、この警告が立法者を操作してオープンソースモデルの使用を制限する方法だと述べた。
LeCunは、攻撃に対する懸念を表明したコネチカット上院議員Chris Murphyの投稿に応じて、X投稿で「あなたは規制のキャプチャを望む人々によってプレイされています」と述べた。 「彼らはあいまいな研究ですべての人を恐れてオープンソースモデルが存在しないように規制しています。」
他の人は、アントロピックの戦略が良いブランディングに対応する「安全劇場」の1つであると言いましたが、実際に技術に対する保護を実装するという約束はありません。
Anthropicの従業員の一部でさえ、技術会社の独自の規制能力について疑問を抱いているようです。先週初め、人類のAI安全研究員であるMrinank Sharmaは、「世界が危険に陥った」と会社を辞任したと発表した。
「ここで過ごす間、私たちの価値観が私たちの行動を支配するのがどれほど難しいかを繰り返し見ました」とSharmaは辞職に書いた。 「私は自分自身と組織の中で最も重要なことを取り除くという圧力に絶えず直面しています。
AnthropicはFortuneのコメント要求にすぐに答えなかった。
Amodeiは、アントロピックが「安全劇場」に参加しているという事実をクーパーに否定したが、先週Dwarkesh Podcastのエピソードでは、会社が安全と利益のバランスをとるのに苦労していることを認めた。
「私たちは、大量の商業圧力を受けており、他の会社よりも多くのことをしていると考える安全関連の業務をすべて遂行しているため、自らをさらに困難にしています」と彼は言いました。
このストーリーのバージョンは2025年11月17日にFortune.comに公開されました。
AI規制に関する追加情報:


