計算能力には限界があるため、人間が超人工知能を制御することはできません。
最近、新たな研究により、人間が超人工知能を制御することは理論的には不可能であることが判明しました。さらに悪いことに、この研究では、この AI が生成されている最中に人間がそれを検出できないことも明らかになりました。 少なくとも 1 つの予測によれば、汎用スーパーコンピュータが人間を超えるまでには数十年かかるだろうということは、いくぶん安心できることです。 近年、人工知能はチェス、囲碁、テキサスホールデム、ジェパディなどのゲームで人間を上回り、Dota2やスタークラフトではトッププレイヤーと互角に渡り合うなど、時折ちょっとしたパニックを引き起こすほどだ。人間を凌駕する機械知能が、いつか人間を困らせるのではないかと心配する人もいる。 「超知能を人間が制御できるかどうかという疑問は、実は非常に古い」とスペインのマドリード自治大学のコンピューター科学者、マヌエル・アルフォンセカ氏は言う。「その起源は1940年代のアシモフのロボット工学三原則にまで遡る」 超知能 AI とのあらゆる形式のコミュニケーションは危険を伴います。 誰もがよく知っているロボット工学の 3 つの原則は、SF 作家のアイザック アシモフが 1942 年に短編小説集「われはロボット」で初めて提唱したものです。そのルールは次のとおりです。 ロボットは人間を傷つけたり、不作為によって人間に危害を加えたりしてはならない。 ロボットは、第一法則に反する場合を除き、人間から与えられた命令に従わなければならない。 ロボットは、第一法則または第二法則に反しない限り、自身の安全を守ることができます。 1985 年の著書『ロボットと帝国』で、アシモフは 3 つの原則を 4 つに拡張し、第 0 原則として「ロボットは人類全体に危害を加えてはならない、また、不作為によって人類に危害を加えてはならない」を追加しました。 2014年、オックスフォード大学人類の未来研究所所長の哲学者ニック・ボストロムは、超知能がどのように人類を滅ぼす可能性があるかを探っただけでなく、そのような機械の制御戦略の可能性と、それが機能しない理由も研究した。
ニック・ボストロム。 ボストロム氏は、この「制御問題」に対する 2 つの解決策を挙げています。 1つは、AIがインターネットに接続できないようにするなど、AIができることを制御することであり、もう1つは、AIが人類の利益のために行動するようにルールや価値観を教えるなど、AIがやりたいことを制御することである。ボストロム氏は、最初の解決策の問題点は、超知能機械が人間によって課せられたあらゆる制約から逃れられる可能性があることだと考えている。一方、2番目の解決策の問題点は、人間が超知能機械を訓練できない可能性があることだ。 コンピューティングの本質的な限界により、人間が超知能AIを制御することは不可能になるかもしれない 今月初め、AI分野のトップジャーナルである「Journal of Artificial Intelligence Research(JAIR)」に掲載された記事の中で、マドリード自治大学、マックス・プランク人間開発研究所などの研究者らは、コンピューティング自体に内在する根本的な限界により、人間は超人工知能を制御できない可能性があると考えている。 超知能が人間に危害を加えないことを保証するために設計されたアルゴリズムは、まず機械の行動をシミュレートして、その行動の潜在的な結果を予測する必要があると彼らは言う。もし超知能機械が実際に危害を加える可能性があるなら、機械の動作を止めるためにそのような封じ込めアルゴリズムが必要になるだろう。 しかし、科学者たちは、いかなる抑制アルゴリズムでも AI の動作をシミュレートすることは不可能であり、AI の動作が危害をもたらすかどうかを 100% 確実に予測することは不可能だと考えています。抑制アルゴリズムでは、AI の動作を正しくシミュレートできないか、AI のアクションの結果を正確に予測できない可能性があり、そのためこれらの障害を検出できない可能性があります。 論文アドレス: https://jair.org/index.php/jair/article/view/12202/26642 「アシモフの第一法則は実際には計算不可能であることが示されており、したがって実現不可能である」とアルフォンセカ氏は語った。 私たちは超知能マシンを作ったかどうかさえ知りません。これは、再帰的に可算な言語のすべての非自明な特性は決定不可能であると述べる、計算可能性理論におけるライスの定理の結果です。本質的に、プログラム自体を見ただけでは、プログラムが何を出力するかを知ることはできません。 もちろん、その一方で、私たちは将来のロボット主人に仕える準備をする必要はありません。この研究では、論文の推論に不確実性をもたらす 3 つの重要な問題があります。 まず、アルフォンセカ氏は、強い AI の決定的瞬間はまだ遠い将来だと予想しています。「少なくとも 2 世紀は先です」と彼は言います。 第二に、人々が汎用人工知能、あるいは強力な人工知能と呼ぶものが理論的に実現可能かどうかは、実際のところ未知数です。 「これは、人間と同じように複数の分野のタスクを処理できる機械を指します。」 最後に、アルフォンセカ氏は「超知能AIが制御不可能であると証明したわけではない。永久に制御できないと証明しただけだ」と述べた。 計算の複雑さは、人間が強力な人工知能を制御できない重要な理由です。 強力な AI を制御することはできないかもしれませんが、人間の能力を超える限定的な AI、つまり、人間のようにさまざまなタスクを実行できるのではなく、特定の機能に特化した、安全に信頼できるロボットを制御することは可能かもしれません。 「私たちはすでにこの超知能を持っています」とアルフォンセカ氏は言う。 「例えば、人間よりもはるかに速く計算できる機械があります。これもまた、限定的な超知能です。」 |
<<: スマートシティ交通ソリューションへのテクノロジーの影響
>>: 人工知能の基礎技術は成熟し、AIは今後10年間で私の見方を完全に変えた
[[207418]]多くの検索専門家は、「機械学習を通じて最適な重みを取得し」、それを検索クエリに使...
最先端技術である人工知能(AI)は、さまざまな分野で大きな可能性を見せています。ソフトウェア開発の分...
当社のガイドで、ビジネスに AI の力を活用する方法を学びましょう。 RAG と CRAG の統合、...
[[434732]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
1. はじめに機械学習の分野では、トレーニング プロセス中にモデルが過剰適合したり、不足適合になっ...
このテーマについて、人工知能の起源と発展、その一般原理、不安を避ける方法、そして時代に追いつく方法な...
9月5日、360 Intelligent Brainモデルが今後一般公開され、360の「ファミリーバ...
[51CTO.com クイック翻訳] 人工知能 (AI) システムは経済を変え、大量の失業と巨大な独...
楽しいボードゲームとして誕生してから 100 年経った今、数独はどのようにして計算研究の焦点となった...
ロビン・リーは標高3,500メートルで牛糞を拾い、泥を塗り、牛の皮を剥ぐという極めて型破りなことをし...