ホームページ
マーケティング
暗号
起動する
仕事
ファイナンス
プレスリリース
検索
Hasshina
Hasshina
20.4
C
Tokyo
Saturday, April 18, 2026
Facebook
Instagram
Twitter
Youtube
Hasshina
ホームページ
マーケティング
暗号
起動する
仕事
ファイナンス
プレスリリース
検索
Hasshina
ホームページ
マーケティング
暗号
起動する
仕事
ファイナンス
プレスリリース
検索
ホーム
タグ
AIエージェントは従業員のように振る舞いますが会社の構造ではまだそれらをソフトウェアのように扱います幸運
Tag:
AIエージェントは従業員のように振る舞いますが会社の構造ではまだそれらをソフトウェアのように扱います幸運
仕事
AIエージェントは従業員のように振る舞いますが、会社の構造ではまだそれらをソフトウェアのように扱います。幸運
経営陣が数十年にわたって構築したガバナンスフレームワークは、人のために設計されています。 AIエージェントは人ではなく、これら2つの事実の間のギャップは、企業のリスクが最も早く蓄積される点です。 過去1年間、組織はAIが管理できる速度よりも速く展開しているという事実に直面しなければなりませんでした。シャドウAIの使用が増加するにつれて、誰が何ができるかについてのギャップが明らかになっています。最新の研究によると、組織の91%がすでにAIエージェントを使用していますが、それを管理するための明確な戦略を持っている組織はわずか10%です。 AIエージェントは現在、オペレーターとして人間管理者を必要とせずに自分で行動します。 これらの自律的なデジタルアクターはデータを分析し、ワークフローを開始し、企業内で活動することができます。しかし、スピード、スケール、生産性の観点から肯定的な側面を簡単に確認できますが、権限の移動は明らかではありません。 エンタープライズAIの採用における実際の脅威は、エージェントの知能ではなく、経営陣がエージェントにどれだけの権限を委任するかです。それは決定権であり、組織が統制はどこでも完全に見ることができないシステムに権限が委任されるとどうなるのかです。 最終的に危険は、AIエージェントが悪意を持って行動することではありません。代わりに、人間ではなくアイデンティティを説明するように設計されていないシステムで構成されているとおりに正しく機能することです。 長年にわたり、企業は人間の労働者を中心にセキュリティモデルを構築してきました。従業員は採用され、資格を取得、監視され、最終的には退社時に退社されます。 ID管理によりこれが可能になります。組織内の従業員が誰であるか、従業員が接続できる宛先、権限のあるタスクを確認する方法です。 AIエージェントはそのモデルを破ります。午前9時にログインして午後5時にログアウトするのではなく、複数のシステムやクラウド環境で継続的に動作します。機密データを取得し、財務プロセスを開始したり、顧客に関する決定を数秒で行うことができます。 しかし、企業は依然としてエージェントを実際の権限を持つ運営者ではなくバックグラウンドソフトウェアとして扱います。 API管理プラットフォームであるGraviteeの最近の研究によると、組織の22%だけがAIエージェントを独立したIDとして扱い、ほぼ90%の企業がAIエージェントに関連する疑わしいまたは特定されたセキュリティ事故を報告しています。 一般的なシナリオを考えてみてください。当社は、社員管理を簡素化するために内部AIエージェントを導入しています。労働者は代理人に休暇を提出し、給与の詳細を更新し、管理者に通知するよう依頼します。エージェントは、HRシステム、財務プラットフォーム、およびコラボレーションツールに自動的に接続して要求を完了します。 要求を完了するためにエージェントがアクセスする必要があるシステムの数を考えてみましょう。どんな権限がありますか?どのアクセスポイントを使用しているか、潜在的に開いていますか?問題が発生した場合はどうなりますか? 効率の向上は実際です。しかし、各段階が明確なアイデンティティ管理によって管理されていない限り、会社はどの権限が委任されているか、問題があるときにどのように介入するべきかを正確に知ることはできません。 これがアイデンティティのギャップが技術的な問題ではなく、リーダーシップの問題である理由です。 伝統的なアクセスモデルは、比較的安定した役割と予測可能な人間の行動を想定しています。 AIエージェントは、動的タスクと委任された権限で機能します。単一のタスクを実行した直後に次のワークフローに移動するには、非常に具体的な一時的な権限が必要な場合があります。 各段階を継続的に確認し承認する能力がないと、組織は重要なシステムへの広範で継続的なアクセス(多くの場合意図的に許可されていない)を持つ非人間の行為者の人口が増えていくリスクがあります。 組織がAI生成コードと自動化されたタスクを実際の環境にプッシュし始めると、ガバナンスモデルが追いつくことができるよりも速い速度でこれらの現象がすでに現れています。弱いコントロールで何百万人ものボランティア記録が公開されているMcDonaldのチャットボットの侵害や、ReplitのAIコーディングエージェントがライブプロダクションデータベースを削除した場合など、最近の出来事は、これらのギャップがどれだけ早く実際の災害に変化するかを示しています。 サプライチェーンの決定を最適化するように構成されたAIエージェントは、大規模な購入の約束を引き起こす可能性があります。カスタマーサービス担当者は機密アカウント情報を公開できます。財務報告代理人は、広範な人口集団にわたって複数の情報源から機密情報を配布できます。 これらのケースはすべて、適切に管理されていない自律性に由来します。 規制当局が行動し始めた。シンガポール、オーストラリアなど、さまざまな市場で政策立案者は、組織が自動化システムの責任を負うことを強調しています。 これはビジネスリーダーにコンプライアンスの問題を引き起こします。どのシステムが決定を下したかをどのように証明できますか?措置が講じられた時点でアクセス権が適切であったことをどのように実証していますか?エージェントが予期せず行動した場合、どのように権限を一時停止またはキャンセルするのですか? AIエージェントを保護するには、組織は次の3つの基本的な質問に答えることができる必要があります。私のエージェントはどこにあり、何に接続でき、何ができますか? 幸いなことに、企業は車輪を再発明する必要はありません。彼らはすでにAIエージェントを管理するために必要な慣行を持っています。経営陣は、AIエージェントを人間の従業員を扱うのとほぼ同じ方法で扱います。 実際には、これは確立された人員セキュリティの原則を新しい運用状況に適用することを意味します。組織にはエージェントのライフサイクル管理が必要です。権限の範囲と期間を定義し、活動を継続的に監視し、高リスクタスクの段階的な承認を要求する必要があります。広範囲で長期的なアクセスの代わりに、エージェントは特定のタスクに関連するタイムリーな資格情報を使用して機能する必要があります。 AI導入に成功する組織は、最も多くのAIを展開する組織でも、最もインテリジェントなAIを展開する組織でもないでしょう。彼らは行動する権限があるかどうかを明確に配布し、それを証明するための信頼できる方法を使用する人になります。これは、AIを実験やリスクから真の資産に変える方法です。 Fortune.comのコメントに記載されている意見は、単にその著者の意見にすぎず、必ずしもFortuneの意見や信念を反映しているわけではありません。
必読
仕事
この創業者は9ヶ月前にAIを解雇しました。その後、彼は2人のパートナーと12人のエージェントと一緒にすぐに収益を上げる会社を構築しました。幸運
暗号
ビットコインは、価格が上昇した後に短期的な下落傾向を示す可能性があります – アナリスト
ファイナンス
フォード、最も人気のあるモデル大規模なリコール
マーケティング
ロールスロイス株は次にどこに行くのだろうか?専門家に尋ねよう