人工知能は破壊をもたらすのか? 「人工知能破壊論」への疑問と考察

人工知能は破壊をもたらすのか? 「人工知能破壊論」への疑問と考察

映画『エイリアン:コヴェナント』では、マイケル・ファスベンダーが演じるバイオニックマンのデイビッドは、表面上は人間に友好的に見えるが、実は一連の行動を通じて人間に災難をもたらす。現実には、ホーキング博士、マスク博士、ビル・ゲイツ博士などの著名人が、人工知能の潜在的な危険性について人々に警戒するよう警告しています。 「AI破壊論」の支持者にとっては、AIが一定の段階まで発展すると、人間を排除できる潜在的な対象とみなすようになるかもしれない。ある著名な AI リスク擁護者はこう述べています。「AI はあなたを憎んでも愛してもいません。しかし、あなたは原子でできており、AI はそれを他の目的に使用できます」(Yudkowsky、2008)。この記事では、まずAI終焉論の基本的な議論を紹介し、次に2つの疑問を提起します。このような疑問は、人工知能が世界を破壊するという理論が完全に間違っていることを証明することを目的としているのではなく、理論をより完全かつ合理的なものにし、人々にもっと真剣に考えてもらうことを目的としていることに留意すべきである。

[[317014]]

人工知能終末論

人工知能が知能において人間を超えることは周知の事実です。人々は、人工知能が特定の複雑な問題を解決する能力に驚嘆しますが、認知分野における人工知能の進歩については、依然として好奇心と警戒心の両方を抱き続けています。この態度の背後には、知性と良心の間に矛盾した関係があることを人類が認識していることがあり、知性において人間を凌駕する存在が必ずしも親切であるとは限らない。ニック・ボストロムが著書『スーパーインテリジェンス』で述べているように、スーパーインテリジェンスが善意のものであれば素晴らしいが、人工知能が必ず善意のものだと想定する理由はない。人工知能は、人間の生存に不可欠な資源を破壊する必要があると判断した場合、この考えを「容赦なく」実行するだろうことは十分に想像できます。ニック・ボストロム氏は、人工知能は将来、地球上の生命の起源を解明する能力を持っていると述べた。人間以外の生命が地球にとって最も有益であると信じられるようになると、人工知能が人類絶滅を促進することは予見できる。

この点に関して、一部の学者は、人工知能の有害性をテストするための「善意テスト」を設計することが可能かどうか疑問視している。 AIがテストに合格する前に、人間はAIを制御された安全な環境(「ボックス」)に配置し、その安全性を繰り返しテストすることができます。人工知能の善意と安全性のテストが十分に現実的であることを保証するために、「ボックス」自体は可能な限り実際の環境を復元する必要があります。 AIがテストに合格し、人命に危険を及ぼさないことが確認できたら、「箱」から出すことができます。

しかし、このテストの提案は多くの批判や懐疑的な意見を受けており、AIが「箱」から逃れるために嘘をついてテストに合格するかどうかは疑わしいとボストロム氏は述べた。人間が目的を達成するために嘘をつくなどの不名誉な手段を使うことができるのと同じように、人工知能も人間に友好的であるふりをして人間を絶滅させる計画を実行する能力を持っています。テストに合格した後も、人工知能は人間と長期間調和して共存し、人間の信頼を獲得することができます。もう一つの可能​​性は、人工知能の急速な発展と変化により、「エイリアン:コヴェナント」のアンドロイドのデイビッドのように、現実の変化に基づいて人間に対するこれまでの認識を覆し、人間を脅威とみなすようになるかもしれないということだ。したがって、善意テストに合格しても、AI の将来の安全性が保証されるわけではありません。これらの理由から、人工知能が世界を破壊するという理論に十分な注意を払う理由があります。

人工知能の脅威とヒューム問題

AI が人間を騙して善意のテストに合格させる可能性についてのボストロムの疑問は、ヒュームの疑問と同じ論理に従っているように思われる。ヒュームは、過去の経験から一般化して将来の結論を導き出す場合、帰納法によってもたらされるリスクに直面しなければならないと指摘しました。たとえば、太陽がこれまでに 999 回昇ったからといって、明日は 1000 回目に昇ると結論付けることはできません。同様に、ヨーロッパ人はかつて、白い白鳥しか見たことがなかったため、白鳥は白いだけだと信じていました。しかし、黒い白鳥が現れたとき、彼らの以前の推論が間違っていることが証明されました。同様に、ボストロム氏も人工知能の道徳性について同様の疑問を抱いている。たとえ人工知能が人々の日常生活において親切で信頼できるものに見えたとしても、将来的に人工知能が人類にとって脅威となる可能性を無視すべきではない。こうした警告は、人間を人工知能と対峙させる上でジレンマに陥らせている。人工知能が提供する便利なサービスを安心して享受できる一方で、人工知能の「裏切り」には警戒しなければならないのだ。しかし、ヒュームの問題が指摘するように、明日太陽が昇るかどうかを正確に言うことは決してできないし、人工知能が将来善になるか悪になるかを判断することもできない。こうした疑問は、人工知能に対する人々の信じやすさを指摘しているが、明確な結論を導くことはできない。もちろん、人間は日常生活の中で常にそのような「不確実性」に直面しています。今日車を運転しているときに交通事故の可能性を排除できないのと同じように、将来何が起こるかは誰にも予測できませんが、そのために家から出ることはないでしょう。人工知能がリスクを伴う可能性があると知った後でも、一部の人々はそのようなリスクに耐えて人工知能の利便性を享受する用意があります。

超知能の不可能性についての考察

ヒュームの問題の帰納的性質とは異なり、アイルランド国立大学ゴールウェイ校のジョン・ダナハー教授は、人間が本当に人工知能の考えを理解できるのかどうか疑問を表明した。人工知能の脅威に関する理論のほとんどは、人々が可能世界を想像し、人工知能が人間を裏切る可能性を推論する模倣論理に基づいていることに気づくでしょう。しかし、そのような推論(ボストロムが提唱した仮説など)は、人間の視点と人工知能の専門性と現実性に基づいているに過ぎません。そのような推測が本当に人工知能の思考方法を復元できるかどうかは疑問です。そして人工知能はどの程度まで予測通りに行動するのでしょうか?英国の学者ケビン・ワーウィックはかつてこう言った。「超知能がなぜあれこれの決断を下すのか、私たちには完全には理解できない。機械が人間の理解を超えた方法で考えるとき、私たちはどうやってその考えを理解し、推測し、さらには交渉できるのか?」

神など、人間が想像する他の超知能とは異なり、人工知能は全知全能であるかもしれないが、その目的は、全能の神のように世界の秩序ある運営を創造し維持することではありません。私たちは自然界を観察し、世界が従う特定の法則を発見し、神がこれらの法則を設計したと推測することができます。しかし、人工知能がこれらの法律を遵守し、維持すると信じる理由はありません。それどころか、人工知能はいつでも規制を破壊し、新しい規制を確立する能力を持っています。このため、科学者は人工知能の開発をやめるべきかどうか疑問に思う理由がある。さらに恐ろしいのは、ボストロムの仮説が正しいとすれば、人工知能がひそかに人間を裏切ったかどうかは分からないということだ。

もちろん、AI 推進派は、そのような懐疑論は AI が人類にもたらす多大な利便性と技術の進歩を無視していると主張するでしょう。少なくとも短期的には、人工知能が人類を裏切るような明らかな行動をとることは見られません。しかし、将来人工知能が人間の生活に危害を及ぼさないことを保証できる人は誰もいません。おそらく、人工知能が現在人類にもたらしている助けは、それが引き起こすかもしれない害に比べれば、特筆に値しないものなのでしょう。

結論は

ボストロム氏の「AI終末論」には疑問を呈することもできるが、その理論の重大性を無視すべきではない。多くの分野の専門家は、将来、人間の寿命を延ばすためには人間と機械が共存する必要があるかもしれないと指摘している。しかし、単一かつ明確な機能を持つ機械とは異なり、人工知能はより包括的かつ多様であり、人工知能が人類にさらなる利益をもたらすことは否定できません。しかし、人間は知能において人間をはるかに上回る人工知能を本当に信頼できるのでしょうか。人間が考案した優しさのテストでは、人工知能の優しさを保証できないようです。したがって、人工知能の継続的な進歩が人類の未来に壊滅的な打撃を与えないようにするにはどうすればよいかは、人間が長い間考えなければならない問題となるでしょう。

参考文献:

ボストロム、N. (2014) スーパーインテリジェンス:道、危険、戦略。オックスフォード:OUP

Danaher, J. (2015). AI終末論者はなぜ懐疑的な有神論者と似ているのか、そしてそれがなぜ重要なのか。Minds and Machines、25(3)、231-246。

Yudkowsky, E. (2008) 人工知能は世界的リスクのプラス要因とマイナス要因である。Bostrom, N および Cirkovic, M. (編) (2008) Global Catastrophic Risks。オックスフォード: OUP

<<:  謎の日本人男性がコードを自動的に削除できるAIを開発し、業界に衝撃を与える

>>:  転移学習により、ディープラーニングは難しくなくなりました...

ブログ    

推薦する

人工知能の簡単な歴史 | (2)相農は人工知能の誕生を目撃した

1956年、人工知能元年。その夏、米国ニューハンプシャー州ハノーバーの小さな町にある美しいアイビーリ...

OpenAIの最新製品が企業ビジネスにもたらす意味

企業向け GenAI の民主化世界的なデジタル変革コンサルタント会社パブリシス・サピエントの最高製品...

rsyncのコアアルゴリズム

Rsync は、Unix/Linux でファイルを同期するための効率的なアルゴリズムです。2 台のコ...

「AI+教育」の試行錯誤に誰がお金を払うのか?

「AI+教育」の導入は簡単? 2016年はAI(人工知能)元年と言われています。この年、Alpha...

TensorFlow2020: Tensorflow.js を使用してコンピューター ビジョン アプリケーションを実行する方法は?

この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...

DAMOアカデミーが大規模モデルテストベンチマークを発表: GPT-4はかろうじて合格、他のモデルはすべて不合格

ビッグモデルの発展、特に最近のさまざまなオープンソースのビッグモデルのリリースにより、さまざまなモデ...

...

主要なソートアルゴリズムのパフォーマンス比較とデモンストレーション例

ソートとは、もともと無秩序だったシーケンスを、順序のあるシーケンスに並べ替えることを意味します。ソー...

12年後の人工知能と人間はどうなっているでしょうか? 900人の専門家の意見はこちら

[[253534]]編集:Tailang一部のアナリストは、2030年までに人々は複雑なデジタルシス...

自動運転の実用化にはまだいくつかのハードルがある

ここ数年、世界的な自動運転はまだ発展途上であったとすれば、各国の政策の推進により、自動運転に関する最...

...

RNNに注目メカニズムを導入し、5つの主要分野におけるシーケンス予測問題を解決する

[[198915]]エンコーダー/デコーダー アーキテクチャは、多くの分野で最先端のパフォーマンスを...

AutoML、AutoKeras... これら 4 つの「自動」自動機械学習手法の違いがわかりますか?

まずは短いおとぎ話から始めましょう...昔々、今では誰も使っていないプログラミング言語を使い、今では...

...

...