AIレポーターSharon Goldmanと一緒にEye on AIへようこそ。今回のエディションでは:OpenClawの大まかな面… Anthropicの新しい2000万ドルスーパーPACカウンターOpenAI… OpenAIは、超高速出力用に設計された最初のモデルをリリースします。 AnthropicはAIデータセンターで電気代を引き上げます。 Isomorphic Labsは、AlphaFoldを越えて新しい生物学的領域を開いたと言います。
OpenClawに素晴らしい仕事をする特別な権限を与えるのに問題がありますか?当然、データの漏洩、意図しないコマンドの実行、マルウェア、またはいわゆる「即時注入」攻撃を介して攻撃者によって静かにハイジャックされるなどしてはいけないことを行う機会を多く提供するという事実も驚くことではありません。 (AIエージェントが利用可能なデータに誰かがAIエージェントへの悪意のある指示を含む場合)
私が今週インタビューした2人のサイバーセキュリティ専門家は、OpenClawについての興味深い点は制限がなく、基本的にユーザーが望むようにカスタマイズする自由な権限を提供することです。
企業に脅威暴露管理サービスを専門として提供するZafran Securityの共同創設者であり、CTOであるBen Seriは、「唯一のルールはルールがないということです」と述べた。 「それもゲームの一部です」しかし、ルールと境界はハッカーや流出を防ぐための鍵であるため、ゲームはセキュリティの悪夢に変わることがあります。
典型的なセキュリティ問題
CyberAIプロジェクトに参加しているジョージタウンのセキュリティ&新興技術センター(CSET)の研究者であるColin Shea-Blymyerは、セキュリティの問題は非常に古典的なものだと述べました。権限設定エラー(誰が何をすることを許可されているか)は、人間が誤ってOpenClawに自分が思うよりも多くの権限を与える可能性があり、攻撃者がそれを利用できることを意味します。
たとえば、OpenClawでは、ほとんどのリスクは、開発者が「技術」と呼ぶことから来ています。テクノロジは、基本的にAIエージェントがファイルアクセス、Webナビゲーション、コマンドの実行などのタスクを実行するために使用できるアプリまたはプラグインです。違いは、通常のアプリとは異なり、OpenClawはこれらのテクノロジを使用するタイミングと接続方法を独自に決定することです。つまり、小さな権限ミスがはるかに深刻な問題で、すぐに雪玉のように吹く可能性があることを意味します。
「これを使用してレストランの予約ページにアクセスし、あらゆる種類の個人情報を含むカレンダーにアクセスできると想像してください」と彼は言いました。 「それともマルウェアですが、間違ったページを見つけてウイルスをインストールするとどうなりますか?」
OpenClawは文書にセキュリティページを含め、ユーザーに警告と認識を維持しようとしているとShea-Blymyerは言った。しかし、セキュリティの問題は、ほとんどの一般ユーザーが完全に理解するのが難しい複雑な技術的な問題のままです。また、OpenClawの開発者は脆弱性を修正するために一生懸命努力することができますが、エージェントが自分で機能する可能性がある根本的な問題を簡単に解決することはできません。これがまさにシステムがそもそもとても魅力的な理由です。
「この種のシステムには根本的な緊張感があります」と彼は言いました。 「より多くのアクセス権を与えるほど、より面白くて面白いでしょう。しかし、同時により危険になるかもしれません」
大企業は採用が遅いでしょう。
Zafran SecurityのSeriは、OpenClawのようなシステムに関しては、ユーザーの好奇心を踏む可能性はほとんどないと認めたが、企業が制御できず安全でないシステムを採用するのにはるかに長い時間がかかると強調した。彼は、一般ユーザーにとっては、爆発性の高い物質を扱う化学実験室で作業しているかのように実験する必要があると述べました。
Shea-Blymyerは、OpenClawが趣味生活レベルで最初に起こっていることは肯定的なものであると指摘しました。 「誰かが企業レベルでエコシステムを試みる前に、私たちはエコシステムについて多くを学びます」と彼は言いました。 「AIシステムは、私たちが想像できない方法で失敗する可能性があります」と彼は説明しました。 「(OpenClaw)は、さまざまなLLMがそのように振る舞う理由と、新しいセキュリティ問題に関する多くの情報を提供できます。」
しかし、OpenClawは今日趣味の実験であるかもしれませんが、セキュリティの専門家はこれを企業が最終的に配布の圧迫感を感じる自律システムの種類のプレビューと見ています。
Shea-Blymyerは、現在誰かがセキュリティ研究の対象になることを望まない限り、一般ユーザーはOpenClawを遠ざけたいと言っています。それ以外の場合は、個人のAIエージェント秘書が非常に非友好的な領域にさまようとしても驚かないでください。
AIの運
CapgeminiのCEOが警告しました。あなたはAIについて完全に間違って考えているかもしれません – 著者:Kamal Ahmed
Googleのノーベル賞受賞AIリーダーは、10年または15年間の大脱出以来、「ルネッサンス」を控えています。寄稿者: Nick Lichtenberg
X-odus:xAIの創設チームの半分がElon MuskのAI会社を去り、ブロックバスターSpaceX IPOの彼の計画が潜在的に複雑になりました – Beatrice Nolanの作成
OpenAIは、最新モデルの発売でカリフォルニアの新しいAI安全法に違反したという見通しの主張に異議を申し立てています。 – Beatrice Nolanの作成
ニュースの中のAI
Anthropicの新しい2000万ドル規模のSuper PACはOpenAIに対応しています。ニューヨーク・タイムズによると、アントロピックは、より強力なAI安全と規制を好む候補者を支援するために設計されたスーパーPAC運営に2000万ドルを約束し、中間選挙を控えて直接的な衝突を引き起こしました。資金はOpenAI会長であり、共同創設者であるGreg Brockmanとベンチャー会社のAndreessen Horowitzが主に支援するスーパーPACであるLeading the Futureに反対する暗黒の非営利公共優先行動(Public First Action)と同盟PACを通じて流れます。 AnthropicはOpenAIという名前を直接指定することを避けましたが、AIの安全努力に反対するために「広大なリソース」が配置されていると警告しました。これにより、AI業界内で強力なモデルをどれほど厳しく規制すべきかという深刻な分裂を強調し、AIガバナンスに対する戦いが今やラボや取締役会だけでなく投票箱でも行われていることを伝えます。
Mustafa Suleymanは、MicrosoftがOpenAI関係を緩めながらAIの「自給自足」を計画しています。フィナンシャル・タイムズ(Financial Times)は、マイクロソフトがAI部門のシニア・ムスタファ・スレイマン(Mustafa Suleyman)が語る人工知能の「真の自給自足」に向けて推進しています。加速していると報じました。インタビューで、Suleymanは、この変化は10月、MicrosoftとOpenAIの関係再編によるものだと述べた。これにより、2032年までにOpenAIの最も先進的なモデルへのアクセスが維持され、ChatGPTメーカーは新しい投資家とパートナーを見つけるためのより多くの自由を得て、潜在的に競争相手になることができました。マイクロソフトは現在、ギガワット規模のコンピューティング、データパイプライン、エリートAI研究チームに膨大な投資をしており、今年末に独自の内部モデルを発売する計画だ。これは事務職業務を自動化し、Suleymanが語る「専門家級AGI」を通じて企業市場をより多く捉えることを目指している。
OpenAIは、超高速出力用に設計された最初のモデルをリリースします。 OpenAIは、Cerebrasとのパートナーシップを通じて、最初に実装可能な製品であるGPT-5.3-Codex-Sparkの研究プレビューをリリースしました。この製品は、チップメーカーのウェハ規模のAIハードウェアを使用してCodexで超低遅延リアルタイムコーディングを提供します。 GPT-5.3-Codexの簡略化されたバージョンであるより小さいモデルは、最大機能ではなく速度に最適化され、応答を最大15倍速く生成するため、開発者は長期間実行が完了するのを待たずにターゲット編集を実行し、ロジックを再構成して対話型に繰り返すことができます。当初、ChatGPT Proのユーザーと小規模のAPIパートナーに研究プレビューとして提供された今回のリリースは、AIエージェントがより自律的で長期にわたるタスクを実行するにつれて、OpenAIがインタラクションの速度に焦点を当てていることを示しています。リアルタイムコーディングは、より速い推論によってロックを解除できる初期のテストケースとして浮上しています。
Isomorphic Labsは、AlphaFoldを越えて新しい生物学的領域を開いたと言います。 AlphabetやDeepMindファミリーのAI新薬開発会社であるIsomorphic Labsは、同社の新しいIsomorphic Labs薬物設計エンジンは、複数のAIモデルを前例のない精度で生物学的分子がどのように相互作用するかを予測できる統合エンジンに組み合わせることで、コンピュータ医学の重要な飛躍を意味すると述べました。あるブログ記事によると、主要なベンチマークで以前のパフォーマンスが2倍以上増加し、タンパク質-リガンド構造の予測や結合親和性の推定などの作業のための既存の物理学ベースの方法を上回ったと述べた。会社が主張する機能は、新薬候補が設計され最適化される方法を劇的に加速することができます。このシステムは、タンパク質、DNA、RNAを含むすべての生命体分子の3D構造と相互作用を予測する高度なAIモデルであるAlphaFold 3の成功に基づいて構築されています。しかし、同社は、新しいバインディングポケットを特定し、訓練データの外側の構造を一般化し、これらの予測を構造生物学と実際の薬物発見との間のギャップを解消することを目的とした拡張可能なプラットフォームに統合することによって、潜在的に制約研究が困難な目標をカバーし、複雑な生物学に拡張する方法を再構成することによってさらに進むことができると述べています。
AI数に目を覚ます77%
グローバル企業のITおよびセキュリティソフトウェア会社であるIvantiが1,200人のセキュリティ専門家を対象に実施した新しいアンケートによると、依然として慎重ですが、自律AIシステムが人間の監督なしで動作することを許可するのにある程度快適に感じるセキュリティ専門家がこのように多くあります。また、レポートによると、エージェントAIの採用はセキュリティチームの87%にとって優先順位であることがわかりました。
しかし、Ivantiの最高セキュリティ責任者であるDaniel Spicerは、セキュリティチームは自律AI展開のアイデアに慣れてはいけないと言いました。防御者はサイバーセキュリティでAIの可能性を最大限に活用していますが、調査結果によれば、企業はさまざまな脅威に対する防御の準備がどれほどうまくいっているかという点でさらに遅れています。
彼は、ブログ記事で「これが「サイバーセキュリティ準備不足」と呼ばれるものです。進化する技術環境に合わせて、組織のデータ、人、ネットワークを保護する組織の能力が毎年継続的に拡大する不均衡」と書いています。
あなたはカレンダーを持っています
2月10~11日:AI Action Summit、インドニューデリー。
2月24〜26日:国際安全および倫理的AI協会(IASEAI)、ユネスコ、フランス、パリ。
3月2~5日:スペインバルセロナモバイルワールドコングレス(Mobile World Congress)
3月16~19日:Nvidia GTC、カリフォルニア州サンノゼ
4月6~9日:HumanX、サンフランシスコ。


