数学的パラドックスが人工知能の限界を証明する

数学的パラドックスが人工知能の限界を証明する

人間は一般的に何かが間違っていることを認識するのが得意ですが、AI システムはそうではありません。新たな研究によると、人工知能は何世紀にもわたる数学的パラドックスにより、本質的に限界があることが多い。

一部の人々と同様に、AI システムも実際の能力をはるかに超えるレベルの自信を持っていることがよくあります。自信過剰な人のように、多くの AI システムは間違いを犯したことに気づきません。 AI システムにとって、正しい結果を生み出すことよりも、間違いに気づくことの方が難しい場合があります。

ケンブリッジ大学とオスロ大学の研究者らによると、不安定性は現代の人工知能の最大の弱点であり、数学的なパラドックスがAIの限界を示しているという。ニューラル ネットワークは人工知能における最も先進的なツールであり、脳内のニューロン間の接続を大まかに模倣します。研究者らは、安定した正確なニューラルネットワークに問題があるが、そのようなネットワークを生成できるアルゴリズムは存在しないことを示した。特定の状況下でのみ、アルゴリズムは安定した正確なニューラル ネットワークを計算できます。

研究者らは、特定の条件下でニューラル ネットワークをトレーニングして信頼できる AI システムを提供できる時期を説明する分類理論を提案しています。彼らの研究結果は米国科学アカデミー紀要に掲載された。

パターン認識のための主要な AI テクノロジーであるディープラーニングは、数々の息を呑むような見出しを飾ってきました。例えば、医師よりも正確に病気を診断したり、自動運転で交通事故を防いだりすることが挙げられます。しかし、多くのディープラーニング システムは信頼性が低く、簡単に騙されてしまいます。

「多くのAIシステムは不安定で、特に病気の診断や自動運転車など、リスクの高い分野でAIシステムの使用が増えているため、これは大きな問題になりつつある」と、論文の共著者でケンブリッジ大学応用数学・理論物理学部のアンダース・ハンセン教授は述べた。「AIシステムが、誤作動すると実際に危害を及ぼす可能性がある分野で使用される場合、これらのシステムへの信頼が最優先事項でなければならない」

研究者らが発見したパラドックスは、20世紀の数学の2人の巨人、アラン・チューリングとクルト・ゲーデルにまで遡ることができる。 20 世紀初頭、数学者たちは数学が科学の究極の一貫した言語であることを証明しようとしました。しかし、チューリングとゲーデルは数学の核心にあるパラドックスを実証しました。つまり、特定の数学的記述が真であるか偽であるかを証明することは不可能であり、一部の計算問題はアルゴリズムを使用して解決することはできないということです。そして、数学体系が学校で習う算数を記述できるほど豊富である限り、それ自体の一貫性を証明することはできません。

数十年後、数学者スティーブ・スメールは、21 世紀の未解決の数学問題 18 個のリストを作成しました。質問 18 は、人間と機械の知能の限界に関するものです。

「チューリングとゲーデルによって最初に発見されたパラドックスが、今ではスメールらによって人工知能の世界に持ち込まれた」と、応用数学・理論物理学部の共著者であるマシュー・コルブルック博士は語った。 「数学には根本的な限界があり、同様に、AI アルゴリズムでは解決できない問題もいくつかあります。」

このパラドックスのため、特定の状況では優れたニューラルネットワークを構築することは可能だが、本質的に信頼できるニューラルネットワークを構築することは不可能だと研究者らは述べている。 「データがどれほど正確であっても、望むニューラルネットワークを構築するための完璧な情報を得ることは決してできない」とオスロ大学の共著者であるベガード・アントゥン博士は述べた。

トレーニングデータの量に関係なく、既存の優れたニューラル ネットワークを計算することは不可能です。アルゴリズムがどれだけ多くのデータにアクセスできたとしても、望ましいネットワークを生成することは決してできません。 「これはチューリングの議論に似ている。つまり、計算能力や実行時間に関係なく、解決できない計算問題が存在するということだ」とハンセン氏は言う。

研究者らは、すべてのAIが本質的に欠陥があるわけではないが、特定の方法を用いる特定の領域においてのみ信頼できると述べている。 「問題は保証が必要な領域にあります。多くの AI システムはブラックボックスだからです」とコールブルック氏は言う。 「AI が特定の状況で間違いを犯すのはまったく問題ありませんが、それについては正直である必要があります。これは多くのシステムでは見られないものです。AI が決定にどの程度自信があるかを知る方法がないのです。」

「現時点では、AIシステムはそれらについて推測することがある」とハンセン氏は語った。 「何かを試してみて、うまくいかなかったら、さらにその方法を追加してうまくいくことを望みます。ある時点で、望む結果が得られないことにうんざりし、別のアプローチを試します。重要なのは、「さまざまなアプローチの限界を理解すること」です。」私たちは、AI の実践的な成功が理論や理解をはるかに上回る段階にあります。このギャップを埋めるには、AI の計算基盤を理解するプログラムが必要です。 ”

「20世紀の数学者たちはさまざまなパラドックスを発見しても、数学をやめなかった。限界を理解したからこそ、新たな道を見つけたのだ」とコールブルック氏は語った。 「AIの場合、限界を理解しながら信頼性と透明性のある方法で問題を解決できるシステムを構築するには、道を変えるか、新しい道を開発する必要があるかもしれません。」

研究者の次の段階は、近似理論、数値解析、計算の基礎を組み合わせて、どのニューラル ネットワークをアルゴリズムで計算できるか、またどのニューラル ネットワークが安定していると信頼できるかを判断することです。ゲーデルとチューリングが数学とコンピューターの限界について提起したパラドックスが、数学とコンピューティングの限界と可能性を記述する豊かな基礎理論につながったのと同じように、おそらく同様の基礎理論が人工知能でも開花するかもしれない。

<<:  7つの文章でAIが私のために小さなゲーム、ゼルダのミニマリストバージョンを作成し、私はそれをプレイするのをやめることができませんでした

>>:  コンピューティングセンターからコンピューティングネットワークまで、人工知能は静かに変化している

ブログ    

推薦する

R言語におけるAprioriアルゴリズムの応用

[[193979]] I. コンセプト関連性分析は、大規模なデータセットに隠された意味のあるつながり...

機械翻訳と人工知能が融合すると、信頼性は高まるでしょうか?

機械翻訳というと、多くの人が戸惑うでしょう。10年以上も前には、英語の文章をKingsoft Pow...

AI のブラックボックスを開く: 「説明可能な」人工知能 (XAI) への認知ガイド!

今日、企業組織は意思決定に人工知能や機械学習モデルをますます頼りにしており、こうした意思決定は私たち...

OpenAIがChatGPTをアップデート:画像と音声入力をサポート

最近、OpenAI は ChatGPT の新バージョンのリリースを発表し、音声入力と画像入力という ...

...

...

トロント大学のデュヴノーチームは確率微分方程式を組み合わせて、無限深ベイズニューラルネットワークを提案した。

[[433557]]ニューラル ネットワークの制限を無限の数の残差層の組み合わせとして見ると、その...

大きなモデルが常に「事実」を間違えた場合はどうすればよいでしょうか? 300以上の論文のレビューはこちら

ビッグモデルは事実の知識を習得する上で優れた能力と可能性を示していますが、ドメイン知識の欠如、リアル...

GPT-4 はタイプ I の性格を持っていることが判明しました。ビッグモデルMBTIテストがByteから登場

誰かが実際に大規模モデルで MBTI をテストしたというのは驚くべきことです。結果は良好です。 Ch...

AIが書いたコンテンツは判別が難しく、言語の専門家でさえ無力である

9月10日のニュース、2023年は人工知能の年です。チャットボットChatGPTから、グラミー賞に参...

ByteDance によって否定された中国版 Sora の何がそんなに素晴らしいのでしょうか?

執筆者 | Yun Zhao制作:51CTO テクノロジースタック(WeChat ID:blog)最...

生成AIビッグモデルが人類の進化に与える影響

日々の仕事は ChatGPT などの言語生成モデルと切り離せないものだと思いますか? Midjour...

...

...