スーパー人工知能の出現は、多くの作業を非常に効率的に完了できることを意味するため、私たちはその出現を期待しています。しかし、最も賢く才能のある人間よりもはるかに知能が高いと主張する AI がもたらす壊滅的なリスクについての議論は止まっていない。
最近、科学者で構成された研究チームが理論計算を用いて、封じ込めアルゴリズムではスーパー人工知能を制御できないことを証明しました。この研究は主に、オックスフォード大学の哲学者ニック・ボストロムが提起した制御問題「スーパー人工知能が我々の利益に役立つようにするにはどうすればよいか」を解決することを目的としています。 研究者らは、スーパー人工知能の仮説的な問題に基づいて、AIの動作をシミュレートし、AIプログラムの行動が問題解決に有害である場合にプログラムを自動的に停止できる理論的な封じ込めアルゴリズムを構築した。 実験モデルを実行しようとしたところ、アナリストが結果を分析したところ、超人工知能を制御できる機械アルゴリズムを構築することは根本的に不可能であることがわかりました。
チームのメンバーであるイヤド・ラワン氏は、問題を理論計算機科学の基本ルールに落とし込むと、AIに世界を破壊しないように指示する封じ込めアルゴリズムが、不注意で自身の動作を終了させてしまう可能性があることが分かると述べた。 そうなると、ユーザーは、封じ込めアルゴリズムがまだ超知能の潜在的な脅威を分析しているかどうか、あるいは有害な AI を正常に阻止できたかどうかを実際には知ることができません。したがって、このような状況が発生すると、封じ込めアルゴリズムが効果的に使用されなくなります。 研究によると、コンピューティングの基本的な限界により、スーパー AI が世界を危険にさらすかどうかを正確に計算できるアルゴリズムは現在のところ存在しない。 スーパー AI が、世界クラスの条件と同じくらい複雑な入力を与えられたときに汎用チューリングマシンが実行できる可能性のあるすべてのプログラムを含むプログラムで構成されると仮定すると、そのような高い基準の封じ込めアルゴリズムを構築し、これに基づいてこのスーパー AI プログラムをシミュレートすることは理論的に不可能です。
これまでのところ、このタイプのスーパーAIはファンタジーの領域に限定されたままだが、研究者らは、この技術はSF作家が思い描くタイプの超知能システムに近づいていると述べている。 研究チームのメンバーの一人であるマックス・プランク人間開発研究所のマヌエル・セブリアン氏は、特定の重要なタスクを自力で実行できるAIマシンはすでに存在しており、プログラマーはAIマシンがどのようにしてそれを学習するのかを完全には理解していないと述べた。 したがって、この存在に基づいて、ある時点でこれが制御不能になり、人類にとって危険になる可能性があるかどうかという疑問が生じます。 何があろうとも、超人工知能の開発の流れは止まることはないでしょう。しかし、私たちは依然として超人工知能を抑制する方法に追いつく必要があります。人間の日常規範を導く法則に似た制約を超人工知能に設けることによってのみ、AIが災害を引き起こすのではなく、人間に役立つようにすることができます。 |
1週間前、OpenAIはユーザーに特典を配布しました。GPT-4が怠惰になる問題を修正した後、より...
ビッグデータ時代の到来は、ビッグデータの波だけでなく、人工知能の台頭ももたらします。グーグルの人工知...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
スマートロボットは、タスクをより効率的かつ正確に実行し、生産性を向上させ、人的エラーを削減するように...
数え切れないほど多くの企業が AI 技術の研究や導入に競い合う中、多くの企業が熟練した AI チーム...
モノのインターネットは、私たちの生活様式を変えるのと同様に、学習方法も変えています。 AI の専門家...
過去数年間、教師なし学習と自己教師あり学習 (SSL) は大きな進歩を遂げてきました。SSL を通じ...
視覚化は、複雑なデータ パターンと関係性を直感的でわかりやすい方法で伝えるための強力なツールです。こ...
史上最大のチューリングテストの予備結果が出ました!今年 4 月中旬、AI 21 Lab は楽しいソー...
ビッグデータ、クラウド コンピューティング、高度なアルゴリズムという 3 つの主要なトレンドのユニー...
北京大学の公式サイトの最新情報によると、元UCLA(カリフォルニア大学ロサンゼルス校)教授の朱松春...