8.1 C
Tokyo
Thursday, April 2, 2026
ホームタグAnthropic

Tag: Anthropic

spot_imgspot_img

Anthropic CEO Dario Amodeiは、「私たちは愛国的なアメリカ人」としてアメリカを守るために努力していますが、「禁止線」では夢を見ないと言いました。幸運

ドナルド・トランプ大統領は、アントロピックが軍隊を危険にさらし、国家安全保障を脅かすと非難したが、CEOダリオ・アモデイは彼の会社が愛国的であると述べた。 彼は「私は私たちが中国やロシアのような独裁的な敵から韓国を守らなければならないと信じています」と述べた。 「だから、私たちはとても期待していました。私たちはかなりの公共部門チームを持っています。」 AnthropicはAIを政府に提供しましたが、国防総省はすべての法的シナリオで制限なく使用することを要求しました。しかし、同社は、国内の大量監視と自律武器に使用されるという「禁止」があると主張した。 協議は合意を引き出すことができず、トランプは政府機関によるアントロピックを禁止し、国防省に6ヶ月の段階的な廃止期間を提供しました。 Pete Hegseth国防長官はまた、同社を「サプライチェーンリスク」と呼びました。これは、国防総省のために働く他の請負業者が、アントロピックのAIを軍事に使用することを許可されていないことを意味します。 Amodeiは、CBSにアントロピックが軍事ユースケースの98%〜99%を担当していると述べた。しかし、大量監視に対する彼の懸念は、最新のAIが現在の法的範囲内でさえも、パンドを変えることができるということです。 「それは実際に違法ではありません。AI時代以前は決して役に立ちませんでした。だから、国内の大量監視が法より先に進む方法があります」と彼は説明しました。 「技術が早すぎて発展して法に違反しますね」 自律武器の場合、AmodeiはAIが人間を完全にループから抜け出せるほど信頼できず、今日モデルの「基本的な予測不可能性」という技術的問題を指摘しています。 これまで、彼はアントロピックの限界に対抗するユーザーの実際の事例を知りませんでしたが、民間企業がこれらの問題を決定することは長期的に維持できないことを認めました。 最終的に、議会はAIの使用のためのガードレールを設定しなければならないが、国会議員はゆっくり行動しているとAmodeiは指摘した。同社はまた、「完全自律武器に絶対に反対するわけではないが」AIの信頼性はまだないと信じています。 その間、アントロピックはまだ政府と協力するために開かれており、両側が引き続き連絡を取ることを提案しました。 彼は「私たちは、私たちのレッドラインに従って提供した条件に応じて、戦争部、情報機関、政府のより多くの民間部門を含む政府のすべての部門に私たちのモデルを提供することを望んでいます」と述べました。 トランプとヘグセスの人類愛ブラックリストの作成は、米国とイスラエルがイランへの広範な空襲を開始する数時間前に行われ、これは政権交代を目指した長期の紛争を形成しています。 AIは、特に迅速な情報分析によって、標的を特定し、敵の行動を予測する上で軍の重要なツールとして浮上しました。 CBSがトランプに今何を言うかという質問にアモデーは「私たちは愛国的なアメリカ人だと言いたいです。私たちがしたすべてのことはこの国のために、アメリカ国家安全保障を支援することでした。 しかし、彼は「私たちが描いた赤い線は、その赤い線を越えることがアメリカの価値にずれると信じているので描いたもの」とし「私たちはアメリカの価値を擁護したかった」と付け加えた。 Anthropicにかかっているのは、国防総省がサプライチェーンのリスクとして指定することです。 Amodeiはこれを懲罰的であると述べたが、アントロピックの顧客が行っている非防御作業には影響しないと述べ、最終的なダメージを軽視した。 「私たちは大丈夫でしょう。」彼は言った。 「この指定の影響はかなり小さいです。今、大臣が出したツイートの性格は不確実性を生み出すように設計されており、人々が影響がはるかに大きいと信じる状況を生み出すように設計されており、恐怖、不確実性、疑いを生み出すように設計されています。

Anthropic CEO Dario Amodeiは、AI成長予測が1年後には「破産する」と警告し、支出に関する注意事項を説明しています。幸運

AIハイパースケーラーは資本支出に年間数千億ドルを投資していますが、アントロピックの支出計画はそれに比べて慎重です。 しかし、共同創業者で最高経営責任者(CEO)のDario Amodei(Dario Amodei)は、もう少し慎重なアプローチをとる理由は、少し間違って計算しても会社が壊れる可能性があるためだと述べました。 金曜日にDwarkesh Patelとのインタビューで、ポッドキャスターは、AIデータセンターがいつか「天才の国」になる可能性があるというAmodeiの初期の予測を考えると、Claude Chatbotの開発者であるAnthropicがより積極的に費やさない理由を尋ねました。 Amodeiは、技術的マイルストーンがすぐに達成されると確信していますが、経済的収益の時期については確信がないと答えました。 彼は「1~2年以内にデータセンターで天才の国のようなモデルを持つことになると心から信じる」と付け加えた。 「1つの質問は次のとおりです。その後、数年後に数兆ドルの収益が発生し始めますか?それがすぐに起こることを保証することはできません。1年になることも2年になることもあります。懐疑的ですが、5年まで増やすことができます」 収益がどれだけ早く増加するかについての不確実性のため、今すぐデータセンターを迅速に構築するために膨大なお金を費やすことは、見積もりが少しでも外れると「破壊的」になる可能性があるとAmodeiは警告しました. 去る11月、アントロピックはテキサスとニューヨークのデータセンターを始め、米国のAIインフラに500億ドルを投資すると発表した。 一方、最高のハイパースケール企業は、予想よりもはるかに多くの資本支出を増やす計画で、最近数週間ウォールストリートを驚かせました。 例えば、Amazonは今年だけで2000億ドルを支出する計画であり、アルファベットは最大1,850億ドル、メタは1,350億ドルに達する投資を予想している。 Amodei は、AI 投資の収益時期に対する彼の主張を説明するために、膨大な経済的価値を生み出す医療革新の可能性を強調した。 製薬会社がAI会社に比べてどれだけの利益を得るかについて疑問があります。研究、製造、規制プロセスにも時間がかかります。アモデーは、最初のコロナ19ワクチンが開発された後、広範な普及が達成されるまで約1年半がかかったと述べた。 データセンターの購入に関して、彼は2026年のアントロピックの売上が約100億ドルに達し、毎年10倍の成長を見ています。同時に、データセンターの構築と予約には1〜2年かかります。それまで、現在の軌道によれば、売上は1兆ドルを超える可能性があり、理論的には会社はデータセンターに同様の金額を投資することができます。 Amodeiは「私の収入が1兆ドルではなく、8,000億ドルでさえ地球上には何の力もなく、そう多くのコンピューティングを購入すれば、私が破産するのを防ぐことができるヘッジ手段も地球上にありません」と述べました。 「私の脳の一部が継続して10倍に成長するかどうか疑問に思っても、2027年には年間1兆ドルのコンピューティングを購入することはできません。 その結果、同社はAIの需要をすべて満たしていない可能性があるというリスクを抱え、アントロピックは一部の競合他社よりも支出が少ないことを認めた。 しかし、Amodeiは名前を明かさず、競合他社が支出について「YOLOing」をしており、リスクを完全に理解できず、「ただ素敵に聞こえるので仕事をすること」と批判しました。 彼はまた、アントロピックのAIは気まぐれな消費者ではなく企業の顧客を対象としているため、収益にもっと依存する可能性があると指摘しました。全体的に、アントロピックのコンピューティング能力の支出は依然としてかなりのものです。 Amodeiは、「私たちは、ゲーム内の最大のプレイヤーが購入する金額に似た金額を購入しています」と述べた。しかし、「2027年半ばから10兆ドル規模のコンピューティング契約を締結していないのはなぜですか?」と尋ねると、まず生産は不可能です。世界にはそれほど多くはありません。ところで第二に、天才たちの国が来るのに、2027年半ばではなく2028年半ばに来たらどうでしょうか。あなたは破産します。」

Anthropic の共同創設者は、人文科学を学ぶことが「これまで以上に重要になる」と述べ、AI 企業が雇用の際に何を求めているかを明らかにしています。運

弟のダリオとともにアンスロピック社を共同設立したダニエラ・アモデイ氏は、AIの時代には人間特有の資質が実際により重要になるだろうと語った。 彼女は土曜日に放送されたABCニュースとのインタビューで、AIが人間の助けなしでできることの数は「非常に少ない」と述べた。同時に、人間が得意とする認知的に最も難しいタスクでも、AI によって強化することができます。 「私は、人間と AI が協力することで、より有意義な仕事、よりやりがいのある仕事、より興味深い仕事、より生産的な仕事を実際に生み出すことができると信じ続けています」とアモデイ氏は付け加えました。 「それにより、多くの人々に多くのアクセスと機会を提供する機会が開かれるでしょう。」 これは、将来の雇用環境に技術的な背景が必要であることを意味するものではありません。実際、Anthropic の最新 AI コーディング ツールの発売は、コードの記述と保守に必要な技術的専門知識が大幅に減少すると予想されるため、先週ハイテク株の大規模な下落を引き起こしました。 アモデイはカリフォルニア大学サンタクルーズ校で文学を学びました。国会議事堂の職員として短期間勤務した後、テクノロジー分野に転向し、フィンテック企業 Stripe に入社し、その後 OpenAI に入社しました。 2020 年に彼女は AI スタートアップを辞め、Anthropic を共同設立しました。 Anthropic では、ダニエラは社長兼 CEO である兄と一緒に経営を行っています。 「私たちを人間たらしめているものは、重要性が薄れることはなく、もっと重要になるでしょう」と彼女はABCニュースに語った。 「それが意味するのは、今日アンスロピックで人材を採用する際、私たちは優れたコミュニケーションスキル、優れたEQと対人スキルを持ち、親切で思いやりがあり、好奇心旺盛で他人を助けたいと願う人材を求めているということです。」 これはJPモルガンのジェイミー・ダイモン最高経営責任者(CEO)が、高い感情指数を持つなどの「ソフトスキル」の重要性が高まっていると述べたことを反映している。 AI...

Anthropic の最新モデルはセキュリティの脆弱性の発見には優れていますが、サイバーセキュリティのリスクが高まります。運

フロンティア AI モデルは、エンジニアがより速くコードを書いたり、日常的なタスクを自動化したりするのにもはや役立ちません。彼らは自分自身の間違いをますます見つけることができるようになります。 Anthropic 社によると、同社の最新モデルである Claude Opus 4.6 は、大規模なサイバー攻撃の根底にあるソフトウェアの弱点を発見することに優れています。同社のFrontier Red Teamのレポートによると、Opus 4.6はテスト中にオープンソースソフトウェアライブラリにこれまで知られていなかったゼロデイ脆弱性(ソフトウェア作成者やパッチ適用や修正の責任者には知られていない欠陥)を500件以上特定したという。特に、このモデルは、セキュリティ上の欠陥を検索するように明示的に指示されなくても、独自に問題を検出してフラグを立てました。 アンスロピック氏は、この機能が本質的に「デュアルユース」であることを認めながら、「結果は、言語モデルが既存の検出ツールに真の価値を追加できることを示しています」と述べた。 企業がセキュリティ上の欠陥を見つけて修正するのに役立つ機能と同じ機能が、攻撃者によって簡単に武器化され、防御者が発見する前に脆弱性を発見して悪用する可能性があります。広く使用されているソフトウェアのゼロデイエクスプロイトを自動的に識別できる AI モデルは、サイバーセキュリティの軍備競争の双方を加速させる可能性があり、最も早く行動する者が有利になる可能性があります。 Anthropic の Frontier Red Team の責任者である Logan Graham 氏は、Axios に対し、同社はサイバーセキュリティを攻撃と防御の間の競争として捉えており、防御側が最初にこれらのツールにアクセスできるようにしたいと考えていると語った。 リスクの一部を管理するために、Anthropic は新しい検出システムを導入しています。このシステムは、同社が「プローブ」と呼ぶものを使用して、応答を生成するときにクロードの内部活動を監視し、リアルタイムで潜在的な悪用にフラグを立てます。同社は、悪意があると特定されたトラフィックをブロックする機能など、執行機能も拡張していると述べた。 Anthropic...

Anthropic が、数十のスタートアップを脅かす可能性のあるファイル管理 AI エージェント Cowork を発売 |運

Anthropic は、ユーザーのコンピュータ上のファイルを操作、読み取り、分析し、新しいファイルを作成できる汎用 AI エージェントである Claude Cowor を発売しました。このツールは現在、月額 100 ドルまたは 200 ドルのプランの Max サブスクライバーに対して「スタディ プレビュー」としてのみ利用可能です。 同社が「残りの部分のための Claude Code」と説明するこのツールは、Anthropic の人気の Claude Code ソフトウェア開発アシスタントを利用していますが、プログラマーではない非技術ユーザー向けに設計されています。多くの人が、Claude Code はすでに開発者専用ツールというよりも汎用エージェントに近いと指摘しています。他のソフトウェア全体でユーザーの機能を実行するアプリを実行できます。しかし、開発者以外は、Claude Code の名前と、Claude...

Anthropic がクロード向けの新しいヘルスケアおよびライフ サイエンス機能を開始 |運

AI lab Anthropic は、Claude for Healthcare を立ち上げ、ライフ サイエンスのサービスを拡大することで、ヘルスケアへの取り組みを大きく推進しています。 この発表は、今週サンフランシスコで開催されるJPモルガン・ヘルスケア・カンファレンスの開始に合わせて行われたもので、OpenAIが健康向けChatGPTを発表したわずか数日後に行われた。これは偶然ではなく、ヘルスケア、金融、コーディングなどの収益性の高い業界向けに特化した製品を開発するための大手 AI ラボ間の競争の激化を反映しています。 Claude for Healthcare の発表には、患者がすべての電子医療記録を 1 か所で表示し、そのデータへのアクセスを制御できるようにするスタートアップ、HealthEx との提携が含まれています。この提携には、ユーザーが自分の個人医療記録を Anthropic の Claude に接続し、チャットボットを使用して健康関連の質問に回答する方法が含まれています。 「HealthEx を使用すると、人々はクロードに自分の健康歴について話し、日常の言葉で重要な質問をすることができます。これらの検査結果は何を意味するのでしょうか? 医師に何を伝えるべきですか? これらの数値は時間の経過とともにどのように変化しましたか? そして、自分の健康歴に基づいて答えを得ることができます。」と...

Inside Anthropic Claude は開発者の生産性を向上させていますが、スキルアップと仕事の満足度が失われるのではないかという懸念を引き起こしています。運

Eye on AI へようこそ。今回は...Anthropic には企業顧客がいますが、自社のエンジニアはどのように Claude AI モデルを使用しているのでしょうか? OpenAIのCEO、サム・アルトマン氏が「コードレッド」を宣言…アップルがAIへの取り組みを再開…元OpenAIのチーフサイエンティスト、イリヤ・サツケヴァー氏、LLMはAGIを提供していないため「研究の時代に戻っている」と語る…AIの導入は遅れているのか?AI はコーディングをどのように変えるのでしょうか?ここでクロードとコーディングの話に戻ります。昨年 3 月、ダリオ・アモデイ氏は、年末までに企業内のソフトウェア コードの 90% が AI で書かれるだろうと述べて話題になりました。多くの人がこの予測を嘲笑し、実際にアモデイ氏は発言を少し撤回して、コードが実際にデプロイされる前にまだループに参加する人がいるということを示唆するつもりはなかったと述べた。同氏はまた、Anthropic自体に関する限り、自分の予測はそれほど外れてはいないとも述べたが、これについてはかなり緩やかな割合の範囲を用いており、10月には最近の「コードの70、80、90%」が同社のAIの影響を受けていると述べた。Anthropic には、AI テクノロジーの「社会的影響」を調査する研究者チームがいます。そして、AI がソフトウェア開発の性質をどのように変えているかを正確に理解するために、当社のエンジニアと研究者 132 人を対象に、Claude の使用状況を調査しました。この調査では、従業員への定性インタビューとクロードの使用状況データの調査の両方が使用されました。この研究に関する Anthropic...

必読

spot_img