OpenAIが最新のコーディングモデルをリリースした際、カリフォルニア州の新たなAI安全法に違反した可能性があるとAI監視団体は主張している。
違反すれば企業に数百万ドルの罰金が科せられる可能性があり、今回の事件は新たな法的規定を試す最初の前例となる可能性がある。
OpenAIの広報担当者は監視機関の立場に異議を唱え、同社は「SB 53を含む国境警備法を遵守していると確信している」とフォーチュン誌に語った。
この論争の焦点は、先週リリースされた OpenAI の最新コーディング モデル GPT-5.3-Codex です。このモデルは、AI ベースのコーディングで首位を奪還する OpenAI の取り組みの一環であり、OpenAI が発表したベンチマーク データによると、OpenAI や Anthropic などの競合他社の以前のモデル バージョンよりもコーディング タスクのパフォーマンスが大幅に向上しています。しかし、このモデルはサイバーセキュリティに関する前例のない課題も引き起こしました。
CEOのサム・アルトマン氏は、このモデルが、OpenAIがモデルの立ち上げに使用する社内リスク分類システムである同社の準備フレームワークにおいて、サイバーセキュリティの「高」リスクカテゴリーに初めて到達したと述べた。これは、OpenAI が基本的に、特に自動化された場合や大規模に使用された場合に、深刻なサイバー被害を助長する可能性がある十分なコーディング能力を持つモデルとして分類していることを意味します。
AI監視団体のミダス・プロジェクトは、OpenAIが新たな高リスクモデルの発売により、現在カリフォルニア州法で法的拘束力を持つ自社の安全性に関する約束を果たせなかったと主張している。
1月に発効したカリフォルニア州のSB 53は、大手AI企業に対し、50人以上の死亡または10億ドル以上の物的損害をもたらす事故と定義される壊滅的なリスクを自社のモデルがどのように防ぐのかを詳述した独自の安全フレームワークを公表して遵守することを義務付けている。また、これらの企業がコンプライアンスに関して誤解を招くような発言をすることも禁止されています。
OpenAI の安全フレームワークでは、サイバーセキュリティ リスクの高いモデルに対して、AI が悪意を持って欺瞞的に動作したり、安全性研究を妨害したり、真の機能を隠したりすることを防ぐように設計された特別な保護手段が必要です。しかし、Midas Projectは、OpenAIは「高リスク」のサイバーセキュリティしきい値を引き起こしたにもかかわらず、導入前に具体的なミスアライメント保護対策を導入していないようだと述べた。
OpenAIは、準備フレームワークにおけるMidasプロジェクトの文言の解釈は間違っていたと述べた。さらに、同社はGPT-5.3-Codexとともに発表した安全性報告書の声明で、フレームワークの文言は「曖昧」であると述べ、フレームワークの文言の意図を明確にするよう努めたと述べた。 OpenAIは安全性レポートの中で、追加の保護対策が必要なのは、高いサイバーリスクが長距離自律性、つまり長期間にわたって独立して動作する能力と「関連して」発生する場合にのみ必要であると述べた。同社は、GPT-5.3-Codex にはこの自律性が欠けていると考えているため、保護措置は必要ないと述べています。
「GPT-5.3-Codexは、公開されているシステムカードに詳述されている完全なテストとガバナンスプロセスを完了しているが、代理評価に基づいて、安全諮問グループを含む内部の専門家の判断によって確認された長距離自律能力を実証していない」と広報担当者は述べた。しかし同社は、モデルの長距離自律性を評価する決定的な方法がないため、より良い評価方法を開発する間、この指標の代用として機能すると思われるテストに依存しているとも述べた。
しかし、一部の安全研究者はOpenAIの解釈に異議を唱えている。 Encodeの国務担当副社長兼法務顧問であるネイサン・カルビン氏は、次のように投稿した。
ミダスプロジェクトはまた、OpenAIがそのモデルにさらなる行動を起こすために必要な自律性が欠けていることを確実に証明することはできないとも主張している。それは、同社の以前のそれほど高度ではないモデルが、自律タスクの完了に関してすでに世界的なベンチマークを上回っていたためです。たとえルールが不明確だとしても、OpenAIはモデルをリリースする前にルールを明確にするべきだったと同グループは主張している。
ミダス・プロジェクトの創設者であるタイラー・ジョンストン氏は、潜在的な違反は「SB 53セットの床がどれほど低いかを考えると特に当惑する。基本的には、希望する自主安全計画を採用し、それについて正直にコミュニケーションし、必要に応じて変更を加えるが、違反したり嘘をついたりしてはいけない」と述べた。
調査が開始され、申し立てが正確であると判明した場合、SB 53 では違反に対する重大な罰則が認められており、違反の重大度と期間によっては数百万ドルに達する可能性があります。カリフォルニア州司法長官事務所の代表者はフォーチュンに対し、「同省はAIの新興分野における透明性と安全性を高めるために制定された法律を含め、州法の執行に全力で取り組んでいる」と語った。しかし、当局は潜在的な捜査や進行中の捜査についてコメントすることはできず、肯定も否定もできないと述べた。
2 月 10 日更新: この記事は、カリフォルニア AI 法に準拠していると信じているという OpenAI の声明を記事の上の方に移動するために更新されました。見出しも変更され、OpenAIが監視団体の主張に異議を唱えていることを明確にした。この記事はまた、GPT-5.3-Codex 安全性レポートにおける OpenAI の声明が、準備フレームワークにおける曖昧な表現であると同社が述べたことを明確にすることを目的としていたことを明らかにするために更新されました。


