AIエージェントを使用して企業ソフトウェアを自動的にハッキングし、セキュリティの弱点を見つけるAIサイバーセキュリティのスタートアップであるRunSybilが、ベンチャーキャピタル資金から4000万ドルを獲得しました。
今回のラウンドはKhosla Venturesが主導し、S32、AnthropicのAnthology Fund、Menlo Ventures、Conviction、Elad Gil、Nikesh Arora、Amit Agarwal、Jeff Deanを含むエンジェル投資家、OpenAI、Palo Alto Networks、Stripe、Googleなどの企業の参加者とリーダーです.
同社は、新しい資金調達ラウンドで達成された価値評価を開示していません。
会社のAIエージェントであるSybilは、ライブアプリケーションに対して継続的な自律侵入テストを実行し、人が介入することなく実際のセキュリティ脆弱性を見つけ、活用し、文書化します。これは、アプリケーションのソースコードをデプロイする前に既知の脆弱性を分析するClaude Code Securityなど、現在の見出しを装飾している他のセキュリティツールとは異なります。
代わりに、RunSybilは、すでに実行されているソフトウェアをテストし、システムをブラウズし、脆弱性を接続し、認証境界をテストして機密データへのパスを見つけるハッカーと同じ方法で実際のシステムを調査します。
「倫理的ハッキング」自動化
企業は、長い間、外部のセキュリティ専門家や「倫理的ハッカー」がシステムに侵入しようとする混合侵入テストに頼ってきました。欠陥を報告した独立したハッカーに報酬を提供するバグ賞金プログラム。実際のサイバー攻撃をシミュレートする内部「赤チーム」。 RunSybilは、AIシステムはそのタスクの大部分を自動化し、新しいコードがデプロイされたときにアプリケーションの脆弱性を継続的に調査できると述べています。
RunSybilは、AIが企業の運用方法を再構成するにつれて、この種の自動化が必要になっていると主張しています。 AIエージェントの使用増加を含む、調達、法律、財務、エンジニアリング、および運用はすべてAIに再構築されています。しかし、セキュリティテストは、別々のチームが独自のスケジュールに従って管理する別々の予定されたイベントとして扱われることがよくあります。これらの矛盾は、サイバーセキュリティの厳格な法的および監査要件に直面している金融、保険、医療など、規制が厳しい業界では特に困難です。
RunSybilは、2019年にOpenAIの最初のセキュリティ研究者であり、OpenAIに加わったAri Herbert-Vossと以前にMetaで攻撃セキュリティレッドチームを率いたVlad Ionescuが2023年に共同設立しました。彼らは、高度なAIシステムを構築する方法と複雑なソフトウェアをハッキングする方法を理解する人々という珍しい交差点を表すと言います。
Herbert-Vossは、「私たちは監査人、規制当局、およびコンプライアンスチームのために確認する必要があるすべての項目を確認します」と述べました。しかし、実際の仕事は、顧客がセキュリティの問題を発見し、修正する場所、時期、方法を変えることだと彼は言った。 「プロジェクトとしてではなく、構築方法に含まれる永久的な機能として」。
AIセキュリティ最前線「一番」
2019年にOpenAIに初期投資をして技術最前線にいると思う会社に頻繁に投資したVinod Khoslaは、Fortuneとのインタビューで「AIの世界にセキュリティと浸透テストを追加するために必要なのは確かに最前線です。RunSybilが最前線にあります」と述べた。現在、積極的なセキュリティ市場のこの部分には競争がほとんどありませんが、Palo Alto Networksなどの既存のセキュリティベンダーが最終的にこの分野に移動する可能性があると彼は言いました。
彼は現在、「(Herbert-Voss)のような個人を除いて、これについて実際に知っている人がいない」と話し、AIのサイバー能力が中国のような敵の手に入るのを長い間懸念してきたと付け加えました。 「私たちは技術的に野心的な解決策によって解決されていない大規模な問題を解決する創業者に投資します」と彼は付け加えました。 「(Herbert-VossとIonsecu)は、ソフトウェアの複雑さとAIベースの開発が加速するにつれて、正確に必要なプラットフォームセキュリティチームを構築しています.」
Herbert-Vossは、長い間ハッキングとAI分野に深く浸透してきました。ほとんどがモルモン教のユタ州のコミュニティで育った彼は、中高校のときにオンラインハッカーの現場に惹かれましたが、友達が「逮捕され始める」と方向を変えたと言いました。博士号を取得しながら。彼はハーバード大学で機械学習とアルゴリズムをより効率的にする方法を研究している間、OpenAIについて初めて聞きました。
彼は、より多くのデータとコンピューティング性能でより大きなシステムを訓練するAIモデルの急速な拡張が、強力で新機能を開くと確信した後、ハーバードを中退したと述べた。
LLMによる進化するサイバー能力
「OpenAIがGPT-2を削除した後、私はうわー、これはサイバーキャンペーンを実行するために必要な経済性のすべてを変えると言いました」と彼は説明しました。彼はOpenAIのCEOであるSam AltmanとAnthropicを共同設立した当時、OpenAIの政策責任者であるJack Clarkにいくつかのハッカーデモを送りました。どちらもLLMの誤用の可能性について懸念を表明し、Herbert-Vossにセキュリティ研究を実施するよう依頼しました。
しかし、Herbert-Vossは、2022年になると、悪意のある行為者を含む強力な言語モデルが広く利用可能になると、攻撃的なサイバー機能がどれだけ早く進化できるかを確認し始めたと述べました。彼はこのような発展がサイバー脅威を劇的に拡大できると述べた。これにより、Herbert-VossはOpenAIを離れ、RunSybilを研究プロジェクトとして始めることにしました。
RunSybilは現在、Cursor、Turbopuffer、Notion、Baseten、およびThinking Machines Labを含むスタートアップだけでなく、主要な金融機関やFortune 500大企業とも協力しています。 (同社はFortune 500企業や金融顧客の名前を明らかにすることを拒否しました。)Herbert-Vossは、顧客はすでに伝統的な方法では発見されていない深刻な脆弱性を発見したと報告しました。


