さまざまなAI科学者、著名人、政策立案者、宗教指導者らが署名した新たな公開書簡では、確実に安全で制御可能になるまで、すべての人間の知能を超える可能性がある仮想のAI技術「超知能」の開発禁止を求めている。
この書簡の著名な署名者には、AIの先駆者でノーベル賞受賞者のジェフリー・ヒントン氏、ヨシュア・ベンジオ氏やスチュアート・ラッセル氏などの他のAI専門家、ヴァージン共同創設者リチャード・ブランソン氏とアップル共同創設者スティーブ・ウォズニアック氏が含まれる。ビジネスリーダーがいます。また、俳優のジョセフ・ゴードン=レビット、ウィル・アイ・アム、ハリー王子とメーガン妃、最近メタ社のAI製品について懸念を表明したサセックス公爵夫妻などの著名人も署名した。トランプ大統領の同盟者で戦略家のスティーブ・バノン氏や、ジョージ・W・ブッシュ大統領とバラク・オバマ大統領の下で統合参謀本部議長を務めたマイク・マレン氏など、政策や国家安全保障のさまざまな人物も1,000人以上の署名者の中に含まれている。含まれています。
非営利団体Future of Life Instituteが作成・配布した公開書簡と併せて実施された新たな世論調査では、超強力なAI技術の開発の一時停止を求める声に国民が概ね同意していることが示された。
米国の世論調査によると、規制されていない高度なAI開発の現状を支持しているのは成人のわずか5%で、64%が安全で制御可能であることが証明されるまで超知能を開発すべきではないことに同意している。世論調査では、73%が高度なAIに対する強力な規制を望んでいることが分かった。
フューチャー・オブ・ライフのマックス・テグマーク社長は声明で、「アメリカ人の95%は超知性への競争を望んでおらず、専門家らはその禁止を望んでいる」と述べた。
超知能は、ほとんどの認知タスクにおいて人類すべてを超えることができる人工知能の一種として広義に定義されます。超知能がいつ実現するのか、あるいは実現するのかについては現時点で合意はなく、専門家が示唆するタイムラインは単なる推測にすぎない。より積極的な推定では、超知能は2020年代後半までに達成される可能性があるとされていますが、より保守的な見方ではそれがさらに遅れるか、現在のテクノロジーがそれを達成する能力に疑問を投げかけています。
Meta、Google DeepMind、OpenAI などのいくつかの主要な AI ラボは、このレベルの高度な AI を積極的に追求しています。この書簡は、これらの主要なAI研究所に対し、「安全かつ制御可能に実施されるという広範な科学的合意と強力な国民の合意」が得られるまで、これらの機能の追求を中止するよう求めている。
「フロンティア AI システムは、わずか数年以内に、ほとんどの認知タスクにおいてほとんどの個人を上回るパフォーマンスを発揮する可能性があります。」チューリング賞を受賞したコンピュータ科学者で、ヒントン氏とともにAIの「ゴッドファーザー」の一人とみなされているジョシュア・ベンジオ氏は声明で述べた。 「安全に超知性の実現に向けて前進するには、誤った使用や悪意のある使用によっても、基本的に人に害を及ぼすことができないAIシステムを設計する方法を科学的に決定し、私たちの集団の未来を形作る決定について国民がより強い発言権を持てるようにする必要がある」と同氏は述べた。
署名者らは、超情報能力の追求は経済的追放や無力化といった深刻なリスクをもたらし、国家安全保障と市民的自由に対する脅威となると主張している。この書簡は、ハイテク企業がガードレールや監視、広範な国民の同意なしに潜在的に危険な技術を追求していると非難している。
俳優のスティーブン・フライは声明で「AIが人類に提供するものを最大限に活用するために、超知性という未知で非常に危険な目標に到達する必要はない。これはさらに遠いフロンティアだ。定義上、これは私たちが理解できない、制御できない力を生み出すことになるだろう」と述べた。


