計算能力には限界があるため、人間が超人工知能を制御することはできません。
最近、新たな研究により、人間が超人工知能を制御することは理論的には不可能であることが判明しました。さらに悪いことに、この研究では、この AI が生成されている最中に人間がそれを検出できないことも明らかになりました。 少なくとも 1 つの予測によれば、汎用スーパーコンピュータが人間を超えるまでには数十年かかるだろうということは、いくぶん安心できることです。 近年、人工知能はチェス、囲碁、テキサスホールデム、ジェパディなどのゲームで人間を上回り、Dota2やスタークラフトではトッププレイヤーと互角に渡り合うなど、時折ちょっとしたパニックを引き起こすほどだ。人間を凌駕する機械知能が、いつか人間を困らせるのではないかと心配する人もいる。 「超知能を人間が制御できるかどうかという疑問は、実は非常に古い」とスペインのマドリード自治大学のコンピューター科学者、マヌエル・アルフォンセカ氏は言う。「その起源は1940年代のアシモフのロボット工学三原則にまで遡る」 超知能 AI とのあらゆる形式のコミュニケーションは危険を伴います。 誰もがよく知っているロボット工学の 3 つの原則は、SF 作家のアイザック アシモフが 1942 年に短編小説集「われはロボット」で初めて提唱したものです。そのルールは次のとおりです。 ロボットは人間を傷つけたり、不作為によって人間に危害を加えたりしてはならない。 ロボットは、第一法則に反する場合を除き、人間から与えられた命令に従わなければならない。 ロボットは、第一法則または第二法則に反しない限り、自身の安全を守ることができます。 1985 年の著書『ロボットと帝国』で、アシモフは 3 つの原則を 4 つに拡張し、第 0 原則として「ロボットは人類全体に危害を加えてはならない、また、不作為によって人類に危害を加えてはならない」を追加しました。 2014年、オックスフォード大学人類の未来研究所所長の哲学者ニック・ボストロムは、超知能がどのように人類を滅ぼす可能性があるかを探っただけでなく、そのような機械の制御戦略の可能性と、それが機能しない理由も研究した。
ニック・ボストロム。 ボストロム氏は、この「制御問題」に対する 2 つの解決策を挙げています。 1つは、AIがインターネットに接続できないようにするなど、AIができることを制御することであり、もう1つは、AIが人類の利益のために行動するようにルールや価値観を教えるなど、AIがやりたいことを制御することである。ボストロム氏は、最初の解決策の問題点は、超知能機械が人間によって課せられたあらゆる制約から逃れられる可能性があることだと考えている。一方、2番目の解決策の問題点は、人間が超知能機械を訓練できない可能性があることだ。 コンピューティングの本質的な限界により、人間が超知能AIを制御することは不可能になるかもしれない 今月初め、AI分野のトップジャーナルである「Journal of Artificial Intelligence Research(JAIR)」に掲載された記事の中で、マドリード自治大学、マックス・プランク人間開発研究所などの研究者らは、コンピューティング自体に内在する根本的な限界により、人間は超人工知能を制御できない可能性があると考えている。 超知能が人間に危害を加えないことを保証するために設計されたアルゴリズムは、まず機械の行動をシミュレートして、その行動の潜在的な結果を予測する必要があると彼らは言う。もし超知能機械が実際に危害を加える可能性があるなら、機械の動作を止めるためにそのような封じ込めアルゴリズムが必要になるだろう。 しかし、科学者たちは、いかなる抑制アルゴリズムでも AI の動作をシミュレートすることは不可能であり、AI の動作が危害をもたらすかどうかを 100% 確実に予測することは不可能だと考えています。抑制アルゴリズムでは、AI の動作を正しくシミュレートできないか、AI のアクションの結果を正確に予測できない可能性があり、そのためこれらの障害を検出できない可能性があります。 論文アドレス: https://jair.org/index.php/jair/article/view/12202/26642 「アシモフの第一法則は実際には計算不可能であることが示されており、したがって実現不可能である」とアルフォンセカ氏は語った。 私たちは超知能マシンを作ったかどうかさえ知りません。これは、再帰的に可算な言語のすべての非自明な特性は決定不可能であると述べる、計算可能性理論におけるライスの定理の結果です。本質的に、プログラム自体を見ただけでは、プログラムが何を出力するかを知ることはできません。 もちろん、その一方で、私たちは将来のロボット主人に仕える準備をする必要はありません。この研究では、論文の推論に不確実性をもたらす 3 つの重要な問題があります。 まず、アルフォンセカ氏は、強い AI の決定的瞬間はまだ遠い将来だと予想しています。「少なくとも 2 世紀は先です」と彼は言います。 第二に、人々が汎用人工知能、あるいは強力な人工知能と呼ぶものが理論的に実現可能かどうかは、実際のところ未知数です。 「これは、人間と同じように複数の分野のタスクを処理できる機械を指します。」 最後に、アルフォンセカ氏は「超知能AIが制御不可能であると証明したわけではない。永久に制御できないと証明しただけだ」と述べた。 計算の複雑さは、人間が強力な人工知能を制御できない重要な理由です。 強力な AI を制御することはできないかもしれませんが、人間の能力を超える限定的な AI、つまり、人間のようにさまざまなタスクを実行できるのではなく、特定の機能に特化した、安全に信頼できるロボットを制御することは可能かもしれません。 「私たちはすでにこの超知能を持っています」とアルフォンセカ氏は言う。 「例えば、人間よりもはるかに速く計算できる機械があります。これもまた、限定的な超知能です。」 |
<<: スマートシティ交通ソリューションへのテクノロジーの影響
>>: 人工知能の基礎技術は成熟し、AIは今後10年間で私の見方を完全に変えた
[[192056]]ディープラーニングの中心的な問題は非常に難しい最適化問題です。そのため、ニューラ...
最近、国務院は貨物物流の円滑な流れを確保するために関連業務を展開するよう通知し、各地域と関連部門に主...
アリ側1. 自己紹介:私はXXXの修士課程の学生で、機械学習を専攻しています。私の研究分野はディープ...
エッジ コンピューティングへの期待が高まる中、業界では「エッジがクラウドを飲み込む」や、医療、小売、...
[51CTO.com オリジナル記事] Google の中国復帰について新たな声が上がっている。最...
最近、「つながりとインテリジェンス、より安全な世界の構築」をテーマにした2021年世界セキュリティ博...
無向グラフの連結成分を見つける深さ優先探索を使用すると、グラフのすべての接続コンポーネントを簡単に見...
機械学習は、最も優れた顕微鏡のいくつかがより鮮明に見え、より速く動作し、より多くのデータを処理するの...
今日、自動運転は自動車産業の発展と変革の重要な方向性の一つとなっています。自動運転技術が成熟するにつ...
最近、Sogou 入力方式がバージョン 10.8 に更新されました。新バージョンでは、主に音声入力と...
[[416810]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...
4年前に辞任したGoogleの共同創設者がついに復帰!ウォール・ストリート・ジャーナルの報道によると...
芸術作品の分類と分析は難しいことで知られており、ごく少数の専門家だけが発言権を持ち、この分野への人工...