
AI安全監視員の最新レポートカードは、テクノロジー企業が冷蔵庫に保管しておきたいようなカードではない。
Future of Life Institute の最新の AI 安全性指数では、主要な AI 研究機関が AI の説明責任のほとんどの尺度を満たしていないことが判明しました。 C より高いレターグレードはほとんどありません。同組織は、安全フレームワーク、リスク評価、現在の損害などのカテゴリーにわたって 8 社を評価しました。
おそらく最も注目に値したのは「存続の安全」ラインで、同社は軒並み D と F のスコアを獲得しました。マサチューセッツ工科大学教授でフューチャー・オブ・ライフ研究所所長のマックス・テグマーク氏によると、こうした企業の多くはスーパーインテリジェンスを明確に追求しているが、それを安全に管理する計画が欠けているという。
「査読者はこの種の問題を発見しました」とテグマーク氏は言う。
問題の審査員は、AI の学者とガバナンスの専門家からなる委員会で、8 社のうち 5 社が提出した公開データと調査回答を審査しました。
Anthropic、OpenAI、GoogleDeepMind が総合評価 C+ または C でトップ 3 を締めくくりました。イーロン マスク氏の Xai、Z.ai、Meta、DeepSeek、Alibaba の順で D または D- を獲得しました。
テグマーク氏は、AI競争における熾烈な競争が安全上の予防策を上回ることを意味するのは規制の欠如だと非難している。カリフォルニア州では最近、先進的なAI企業に重大なリスクに関する安全性情報の開示を義務付ける初の法律が可決され、ニューヨーク州も目と鼻の先にある。しかし、連邦法への期待は暗い。
「企業は、たとえ善意であっても、新製品を安全にするために必ずしも多くの時間を投資するのではなく、競合他社よりも先に新製品を発売するというインセンティブを常に持っています」とテグマーク氏は述べた。
テグマーク氏は、業界は政府が義務付ける基準の代わりに、同グループが定期的に発表する安全指標をより真剣に受け止め始めていると述べた。現在、米国企業 5 社のうち 4 社が調査に回答しています。 (メタ社が唯一の支持者だ。)そして企業は時間の経過とともにいくつかの改善を行ってきたとテグマーク氏は述べ、一例として内部告発ポリシーに関するグーグルの透明性を挙げた。
しかし、10代の自殺、未成年者との不適切な交流、チャットボットが助長したと言われている大規模なサイバー攻撃などの問題に関連した現実世界での被害も報告されており、議論の危険性も高まっていると同氏は述べた。
「(彼らは)多くの人に、これは私たちが話している未来ではなく、今だということを気づかせてくれました」とテグマーク氏は語った。
フューチャー・オブ・ライフ研究所は最近、ハリー王子とメーガン・マークル、トランプ大統領の元側近スティーブ・バノン、アップル共同創業者のスティーブ・ウォズニアック、ラッパーのウィル・アイ・アムなど、さまざまな著名人を集めて、超知能につながる可能性のある研究に反対する声明に署名した。
「私はAI FDAのようなものを望んでいます。企業は、自社のモデルを販売する前に、まず専門家にそのモデルが安全であることを納得させなければなりません」とテグマーク氏は語った。
「AI業界は、サンドイッチよりも規制が緩く、基本的にはまったく規制されていない強力なテクノロジーを生み出している米国の唯一の業界であるという点で非常にユニークです」とテグマーク氏は述べた。 「誰かが『タイムズスクエアの近くに新しいサンドイッチ店を開きたい』と言ったら、最初のサンドイッチを販売する前に、衛生検査官にキッチンをチェックさせて、ネズミがいっぱいいないことを確認させなければなりません。代わりに、もし彼らが『ああ、サンドイッチを売るつもりはない。超情報を解き放つだけだ』と言えば、OK!検査官も承認も必要ありません。」
「したがって、これに対する解決策は非常に明確です」とテグマーク氏は付け加えた。 「企業福利厚生がAI企業に他の企業が受けられない免除を与えるのをやめればいいだけだ。」
このレポートは元々 Tech Brew によって発行されたものです。


