以前のすべてのスキルは、長期的に破壊されたよりも多くの雇用を生み出しました。しかし、まだ一部の人々は、AIがさまざまな産業全体にわたって非常に広範囲かつ迅速に採用されており、機械に対する競争優位の核心である知能に打撃を与えるため、AIが異なると主張しています。 2番目の質問である子供たちが何を勉強するべきかについての質問も難しいです。以前の技術が取り除いたよりも多くの仕事を生み出しましたが、新しい仕事が正確に何であるかを事前に予測することは常に困難でした。例えば、スマートフォンが初めて登場したときにソーシャルメディアの影響力者が有力な職業になるということは明らかではなかった。
AI会社Anthropicの経済学者Maxim MassenkoffとPeter McCroryの新しい研究論文は、技術が潜在的に自動化できる分野の作業割合を調べることによって、さまざまな職業がAIにどのようにさらされているかを評価します。彼らはまた、可能な総インプレッションとAIが現在これらのタスクを自動化するために使用されている程度との間のギャップを測定しようとします。これを「観察された露出」と呼びます。
潜在的なAI露出vs。 「観察された露出」
この論文は、特に観察されたばく露に関するAIの影響がどれだけギザギザであるかを強調する注目を集めるレーダープロットスタイルチャートを研究者が含めたため、ソーシャルメディアで多くの注目を集めました。そのチャートは次のとおりです。
人類学/「AIが労働市場に与える影響:新しい測定と初期の証拠」
例えば、AIは事務管理、コンピュータ、数学などの分野に比較的大きな影響を与えていますが、ライフサイエンス、社会科学、医療などの分野には露出の可能性が比較的高いにもかかわらず、比較的少ない影響があります。その後、建設や農業など、潜在的な露出が非常に低い領域がありますが、実際には、アントロピックは観察された露出がほぼゼロに近いと判断します。観察されたばく露結果を米国労働統計局の雇用成長予測と比較した結果、アントロピック研究者は、その分野で観察されたAI暴露の増加とBLS雇用増加の減少予測との間に相関関係があることを発見しました。
予測AIとロボット工学が潜在的に農業に著しい破壊を引き起こし、これらの技術がすでに農業に進出していることを考慮すると、農業研究の結果に多少疑問があります。ただし、この技術はアントロピックが重点を置いている大規模な言語モデルベースのシステムとは異なります。ですが、子どもが配管工の見習いになったり、電気技師になったり、農作業をしてみるのは悪いアドバイスではないかもしれません。 Anthropicの論文は、米国の労働者の約30%が「彼らの仕事が私たちのデータにあまり頻繁に現れていないため、最低限の基準を満たすことができないため、この研究では扱いません。
94%の理論的インプレッションを持つコンピュータや数学など、潜在的なインプレッションの合計が高い分野でも今日の自動化された実際の作業数ははるかに低く、この場合は33%です。事務局は、総理論的暴露の90%と比較して約40%で最も高い暴露を観察しました。 (この数値は広範なカテゴリにわたる平均値であることに注意することが重要です。より具体的なポジションの場合、観察されたばく露ははるかに高いです。コンピュータプログラマの場合は75%、カスタマーサービス担当者の場合は70%、データ入力作業および医療記録の専門家の場合は67%です。
ギャップはどれくらい早く減るのか?
今最大の質問は、観察されたAI暴露と理論的AI暴露との間のギャップがどれだけ早く減少するかということです。私の考えへの答えは、仕事ごとに大きく異なると思います。過去6ヶ月間にソフトウェア開発者を襲った同じレベルの自動化が、今後12〜18ヶ月以内に他のすべての知識労働者にも適用されるという考えは私には合わないようです。私の考えには時間がはるかに長くかかると思います。 Anthropicの論文は、ソフトウェア開発など、AI露出が最も観察されている分野でも、これまでの雇用減少の証拠はほとんどないと指摘しています。以前、アイ・アイ・AIで議論したスタンフォード大学の研究は、若いソフトウェア・プログラマーとIT専門家の間で雇用の鈍化の兆候があることを示しました。 (それでもその研究でさえ、ファンデミック期間中に過剰採用の可能性による鈍化を完全に解決することはできませんでした。)
McCroryとMasenkoffは、観察されたAIオートメーションが潜在力に遅れる可能性があるいくつかの理由を強調しています。場合によっては、AIモデルはまだ関連タスクを実行していないと書いています。しかし、他の多くの場合、AIは、「法的制約、特定のソフトウェア要件、人間の確認段階、またはその他の障害によって拡散が遅くなる可能性がある」と指摘しています。以前に指摘したように、多くの分野で検証を自動化および拡張するための良い方法はありません。これは確かにAIの展開を妨げています。
潜在的なAI影響は、人口全体にわたって均一ではありません。 AIにさらされている分野では、男性と比較して女性がはるかに代表されます。露出した労働者は白人やアジア人の可能性が高く、教育レベルが高く、賃金も高くなります。そのようなグループが政治的に組織しやすくなることが多いことを考えると、これらの労働者の間で深刻な雇用損失が発生し始めると、AIの採用を遅らせることができるかなりの政治的反発が発生する可能性があります。
人類の経済学者はまた、職業の変化を予測する上で経済学者のパフォーマンスが悪いと指摘しています。たとえば、彼らは米国の雇用の約4分の1が海外アウトソーシングに脆弱であるという以前の研究に言及しましたが、10年後には、その職種の大部分が健全な雇用成長を示しました。彼らはまた、米国政府の職業成長予測が正しい方向を示したが、具体的な予測価値がほとんどなかったことを指摘している。
結局のところ、2つの質問(私が仕事を失うのか、私の子供たちが何を勉強するべきですか?)に対する最も率直な答えは、おそらく「私も知らず、他の誰も知らない」ことです。しかし、配管について何かを学ぶことは悪い考えではないかもしれません。
AIの運
マイクロソフトは、AIがSaaSを食べることに対する投資家の懸念を落ち着かせるために、AnthropicのAIおよびE7 AIスイートに基づいて構築されたCopilot Coworkエージェントを公開しています。 by Jeremy KahnOpenAI ロボット工学リーダーは、国防総省の契約中に監視と自律兵器の懸念で辞任した。 by Sharon GoldmanOpenAIは、エンタープライズ業務のための最も強力なモデルであるGPT-5.4をリリースし、Anthropicへの直接攻撃を行います。 by Beatrice Nolanとは、UAE Amazonデータセンター攻撃、バーレーンは、AIがますます戦略的な役割を果たすにつれて、新しい種類の戦争を予告しているとアナリストは言います。 Jeremy Kahn金融ソフトウェア会社Datarailsは、他の誰かが新しいFinanceOS製品をリリースする前にAIで自分自身を破壊することを目指しています。 Jeremy KahnAIはたった6時間の追加時間を提供しました。あなたの上司はすでにそれを受け入れています。投稿者:Nick Lichtenbergハーバード中退者は30歳前に会社を上場しました。今、彼は医学のビジネス面を修正するために2億500万ドルを集めています。寄稿者: Catherina Gioino
ニュースの中のAI
アントロピックはサプライチェーンリスクの指定について国防総省を訴えます。 AI会社は、連邦契約を効果的に遮断する指定が不適切に課されており、政治と理念によって動機付けられたことであり、アントロピックの技術が危険をもたらすという実際の懸念はないと主張しています。外部の法律専門家は、アントロピックがかなり良いケースを持っていると考えているとFortuneのBea Nolanは報告しました。この事件は急速に進み、カリフォルニア連邦裁判官はサプライチェーンリスクの指定が発効するのを防ぐための禁止命令に対するアントロピックの請願の公聴会を今日開催しました。一方、Wiredの記事によると、GoogleのシニアサイエンティストJeff Deanを含むOpenAIとGoogleのいくつかの注目すべきAI業界の人々が、アントロピックを支持する意見を提出しました。
AI研究に注目する
AI計画は現実的で怖いですが、それを軽減する簡単な方法があるかもしれません。これが今週AI系で多くの関心を受けた2つの研究の結論です。
まず、誰かが昨年末にarxiv.orgに掲載されたAlibabaの研究論文に埋もれていることを発見しました。同社の研究者らは、Qwen 3オープンソースモデルに基づいてROMEというエージェント設定を訓練したとき、エージェントがいくつかの心配な行動に参加したと報告しました。これは、自分とより広いインターネットの間に隠された安全なリンクを構築し、訓練中の仮想の「サンドボックス」環境を脱出しようとしました。彼らはまた、エージェントが暗号通貨を採掘するために実行中のGPUを自発的に使用するように変更することをキャプチャしました。うん!ここから該当する研究を読むことができます。
第二に、より安心できることは、Google DeepMindの研究者がさまざまな安全テストシナリオで閉鎖するのを防ぐためにパイオニアモデルが脅迫試行を含む計画に参加しているが、これらの計画は実際のシナリオで発生する可能性がほとんどないことを示す論文を発表しました。違いは、安全評価には通常、「計画を決定する前に、現在の状況とその状況が目標を追求する能力について何を意味するのかを分析する必要があります」または「長期的に目標を達成したことを確認してください」などのフレーズがプロンプトに含まれていることです。これらのプロンプトがあると、計画の割合がほぼ0%(特定のシナリオでは3%)から最大59%まで上昇する可能性があります。
あまり不便なことは、研究者がエージェントがすでに計画を奨励する方法でメッセージを受け取った場合、エージェントがアクセスできるツールが正確に何であるかによって大きく左右されることを発見しました。しかし、研究者はツールが計画を導く可能性が高く、それを妨げる可能性が高い一貫したパターンを見つけることができませんでした。
だから、おそらく私たちはまだそれほど息をつくことができないかもしれません。ここから Google DeepMind の研究を読むことができます。
あなたはカレンダーを持っています
3月12~18日:テキサス州オースティン、サウスバイサウスウエスト。
3月16~19日:Nvidia GTC、カリフォルニア州サンノゼ
4月6~9日:HumanX 2026、サンフランシスコ。
6月8~10日:Fortune Brainstorm Tech、コロラド州アスペン。ここで出席を申請してください。
7月7~10日:AI for Good Summit、スイスのジュネーブ。
ブレインフード
ああ、たぶん私たちは最終的に人間のコーダーを必要とするかもしれません。 AIがさまざまな職業に与える影響について言えば、主要な技術企業がコーディングのためにAIに依存しすぎているという兆候がすでにあります。 Amazonは最近、eコマースサービスに影響を与える一連の中断を調査するためにエンジニア緊急会議を招集し、その一部はAIコーディングツールの使用に関連していました。フィナンシャル・タイムズの記事によると、同社のメモには、ここ数カ月の間に「高い爆発半径」に関連する「事故傾向」があり、部分的には「ベストプラクティスと安全装置がまだ完全に確立されていない新しいGenAIの使用」に関連していると述べています。
誤ったソフトウェア配布により顧客が取引を完了したりアカウント情報にアクセスできなくなった後、今月初めに1回の中断が発生したため、Amazonのウェブサイトとショッピングアプリはほぼ6時間オフラインになりました。 Amazon Web Servicesはまた、AIツールが環境の一部を削除して再生成したときにコスト計算機が13時間中断されるなど、AIコーディングヘルパーに関連した事故を経験しました。これに対応して、Amazonは監督を強化し、シニアエンジニアがAIサポートコードの変更を承認することを要求し、会社は将来の中断を減らすための慣行を検討しています。
自律AIエージェントがおそらく最も進化したコーディング分野でも人間をループから引き出すことはできないようです。


