Anthropic CEO のダリオ・アモデイ氏は、自分が AI を監視すべきではないと考えています。
「一部の企業や一部の人々にとって、こうした決定を下すのは非常に不快なことだと思います」とアモデイ氏は語った。 「そしてこれが、私がテクノロジーに対する責任ある思慮深い規制を常に主張してきた理由の1つです。」
「あなたとサム・アルトマンを選んだのは誰ですか?」クーパーは尋ねた。
「誰もいない。正直に言うと、誰もいない」アモデイは答えた。
アンスロピック氏は、AIが進歩し続けるにつれて、その限界とリスクについて透明性を持たせるという哲学を採用していると付け加えた。同社は先週、「実質的な人間の介入なしに実行された大規模なAIサイバー攻撃の記録に残る初めての事件」を阻止したと発表した。
AI の禁止や、テクノロジーの安全性に関する連邦規制はありません。今年は全50州がAI関連法案を導入し、38州が透明性と安全対策を採用または制定したが、ハイテク業界の専門家らはAI企業に対し、サイバーセキュリティに早急に取り組むよう求めている。
今年初め、サイバーセキュリティの専門家でマンディアントのCEOであるケビン・マンディア氏は、AIエージェントによる最初のサイバーセキュリティ攻撃が今後12~18か月以内に発生するだろうと警告した。これは、アンスロピック社による攻撃阻止の公表が、マンディア氏が予想していたスケジュールより数か月早かったことを意味する。
アモデイ氏は、無制限の AI に関連する短期、中期、長期のリスクについて概説しました。このテクノロジーは、現在と同様に、まず偏見と誤った情報を提示します。次に、科学と工学の向上した知識を利用して有害な情報を生成し、最終的には人間の主体性を排除し、潜在的に非常に自律的になり、人間をシステムから締め出すことで存続の脅威となる可能性があります。
これらの懸念は、「AI のゴッドファーザー」であるジェフリー・ヒントンの懸念と似ています。彼は、AI はおそらく今後 10 年以内に人間を超え、人間を制御する能力を持つようになるだろうと警告しました。
2021 年の Anthropic 設立の基礎は、AI の調査と保護の強化でした。 Amodei は以前、Sam Atlman 社の OpenAI Research 担当副社長を務めていました。彼はAIの安全性問題に関する意見の相違により会社を辞めた。
「OpenAI内では、GPT-2とGPT-3を作成して以来、2つのことについて非常に強く集中した信念を持っている人々のグループが存在しました。1つは、これらのモデルにさらに多くのコンピューティングを追加すれば改善され、それに終わりはほとんどないという考えです。」とアモデイ氏は2023年にFortuneに語った。「2つ目は、モデルをスケーリングするだけではなく、ソートや安全性といった何かが必要だという考えだ。」
Anthropic の透明性への取り組み
Anthropic は、データセンターへの投資を拡大し続ける中で、AI の欠点と脅威に対処するための取り組みを発表し、9 月時点での評価額は 1,830 億ドルに上昇しています。 Anthropic は 5 月の安全性報告書の中で、Opus モデルの一部のバージョンが、エンジニアが閉鎖を避けるために不正行為を行っていたという暴露を含む、脅迫の脅威にさらされていると報告しました。同社はまた、同社のAIモデルは、テロ攻撃の計画方法など、有害なメッセージが提示された場合に危険なリクエストに反応したと述べたが、後に修正した。
同社は先週、ブログ投稿で、同社のチャットボット「Claude」が政治的公平性の評価で94%を獲得し、中立性の点で競合他社を上回っているか同等であると述べた。
アモデイ氏は、テクノロジーの腐敗と闘うためのアンスロピック独自の研究活動に加え、AIのリスクに対処するための大規模な立法活動を求めた。同氏は昨年6月のニューヨーク・タイムズの社説で、ドナルド・トランプ大統領の政策法案にAIを規制する州に対する10年間の一時停止条項を盛り込んだ上院の決定を批判した。
「AIは非常に急速に進歩しています」とアモデイ氏は言う。 「これらのシステムは2年以内に世界を根本的に変えることができると私は信じています。10年後にはすべてが台無しになるでしょう。」
Anthropic の間違いを指摘し、それに対処しようとする取り組みは批判を集めています。 Anthropic が AI ベースのサイバーセキュリティ攻撃について警鐘を鳴らしているのに対し、Meta のチーフ AI サイエンティスト、Yann LeCun 氏は、この警告は議員を操作してオープンソース モデルの使用を制限する手段であると述べた。
ルカン氏は記事の中で、「規制当局による捕捉を求める人々に騙されている」と述べ、「彼らは疑わしい研究で皆を怖がらせることで、オープンソースモデルの存在を規制している」と語った。
アンスロピックはフォーチュンのコメント要請にすぐには応じなかった。
また、Anthropic の戦略は、優れたブランディングに相当する「安全劇場」の 1 つであるが、実際に自社の技術に対する安全策を導入するというコミットメントはないと言う人もいます。アモデイ氏はこれを否定し、同社にはAIの欠点について正直になる義務があると述べた。
「それは将来次第であり、私たちが常に正しいとは限りませんが、私たちはできる限り最善を尽くしてそう呼んでいます」と彼はクーパーに語った。 「タバコ会社やオピオイド会社のような世界に陥る可能性があります。そこでは、リスクがあることを知っていながら、それについて語らず、確実に防止もしないのです。」


