OpenAIとAnthropicは、AIによって重大な問題が発生した場合に何が起こるべきかについての答えを得るために、イリノイ州総会で反対するAI法案を支持しています。
最高経営責任者(CEO)が互いのアプローチのために内部と公開のバーブを交換しながら、AIの安全と規制のための会社の継続的な不和の最新ラウンドです。
OpenAIはSB 3444をサポートしています。この法案によれば、パイオニアAI開発者は、100人以上の死亡または重大な怪我を引き起こしたり、10億ドル以上の財産への損害を被ったことに対して責任を負いません。このような保護には、AIが化学的、生物学的、放射線学的、または核兵器の生成または使用を引き起こすか、または実質的に可能にする場合が含まれます。
今週、アントロピックはこの法案に反対するとWIREDが初めて報じた。
Anthropicの米国州および地方政府関係責任者であるCesar Fernandezは、Fortuneに送られた声明で、「私たちはこの法案に反対します。優れた透明性法案は、この強力な技術を開発する会社の公共の安全と責任を保証する必要があり、すべての責任に対して刑務所から免除されるカードを提供するものではありません」と述べました。
代わりに、Anthropicは、AI開発者が公共の安全と子供の保護計画をWebサイトに公開することを要求する別の法案SB 3261をサポートしています。この法案はまた、立法者と大衆に「災害リスク」、すなわちフロンティア開発者のフロンティアモデルの開発、保管、使用、または配布によって50人以上の死亡または重大な怪我を引き起こす可能性がある事件を知らせる事件報告システムを作成します。
この法案はまた、OpenAIサポート法案に欠けている側面である子供の安全もカバーしています。 SB 3261によれば、AI開発者は、自分のモデルが子供に深刻な感情的苦痛、死亡または自傷を含む身体的傷害を引き起こす場合に責任を負うものとします。
「非常に低い」バー
専門家たちは、イリノイ州がAI規制のリーダーであった一方、SB 3444は、災害発生時の企業責任へのアプローチが著しく弱いため、通過する可能性が低いとフォーチュンに語った。昨年、州政府はAIの治療を禁止し、資格を持つ専門家のための行政および支援サービスでの使用を許可しました。
SB 3444は、企業が公共AI安全計画を策定することを要求していますが、施行のための措置はありません。開発者が「意図的または無謀に」事故を引き起こさなかった場合、責任から保護されます。
AI責任およびガバナンスの専門家であり、ドレクセル大学の法学科助教授であるAnat Liorは、意図的または無謀なことは、非常に危険な活動に参加する企業に対する一般的な法的基準ではないと述べました。
「一般に、精神状態や被害に関連する誤りは重要ではありません」と彼女は説明しました。 「彼らはここで基準を非常に低く設定しています。AIに関連することを意図的にしたことを証明できるのは非常に難しいでしょう。」
AI開発者に大きな責任を与える法案について、ニューヨークおよびロードアイランドの国会議員と協力してきたトゥーロ大学法学教授のガブリエル・ウェイル(Gabriel Weil)は、OpenAIが支援する法案のアプローチが「非常に防御不可能だ」と述べた。
Weilは、Fortuneとのインタビューで、「これは非常に脆弱な要件のようです。その代わりに、これらの極端な事件から責任からほぼ完全に保護される可能性があります」と述べました。 「私の考えには、私たちが進むべき方向が反対だと思います。」
OpenAIの広報担当者は、WIREDとのインタビューで会社がSB 3444のアプローチを支持する理由は、「最も発展したAIシステムによる重大な被害リスクを低減しながらも、この技術が人と企業の手に入ることができるからだ」と述べた。
OpenAIの広報担当者は、Fortuneとのインタビューで、同社はAI安全プロトコルの透明性とリスク軽減を改善するための努力を強く支持し、安全フレームワークと非準拠罰を通過するためにカリフォルニアとニューヨークの国会議員と協力したと述べた。同社は連邦法がない限り、州政府と協力し続けます。
スポークスマンは「私たちはこの州法が、米国が引き続き先頭を維持するのに役立つ国家的枠組みに情報を提供できることを願う」と書いた。


