スーパー人工知能の出現は、多くの作業を非常に効率的に完了できることを意味するため、私たちはその出現を期待しています。しかし、最も賢く才能のある人間よりもはるかに知能が高いと主張する AI がもたらす壊滅的なリスクについての議論は止まっていない。
最近、科学者で構成された研究チームが理論計算を用いて、封じ込めアルゴリズムではスーパー人工知能を制御できないことを証明しました。この研究は主に、オックスフォード大学の哲学者ニック・ボストロムが提起した制御問題「スーパー人工知能が我々の利益に役立つようにするにはどうすればよいか」を解決することを目的としています。 研究者らは、スーパー人工知能の仮説的な問題に基づいて、AIの動作をシミュレートし、AIプログラムの行動が問題解決に有害である場合にプログラムを自動的に停止できる理論的な封じ込めアルゴリズムを構築した。 実験モデルを実行しようとしたところ、アナリストが結果を分析したところ、超人工知能を制御できる機械アルゴリズムを構築することは根本的に不可能であることがわかりました。
チームのメンバーであるイヤド・ラワン氏は、問題を理論計算機科学の基本ルールに落とし込むと、AIに世界を破壊しないように指示する封じ込めアルゴリズムが、不注意で自身の動作を終了させてしまう可能性があることが分かると述べた。 そうなると、ユーザーは、封じ込めアルゴリズムがまだ超知能の潜在的な脅威を分析しているかどうか、あるいは有害な AI を正常に阻止できたかどうかを実際には知ることができません。したがって、このような状況が発生すると、封じ込めアルゴリズムが効果的に使用されなくなります。 研究によると、コンピューティングの基本的な限界により、スーパー AI が世界を危険にさらすかどうかを正確に計算できるアルゴリズムは現在のところ存在しない。 スーパー AI が、世界クラスの条件と同じくらい複雑な入力を与えられたときに汎用チューリングマシンが実行できる可能性のあるすべてのプログラムを含むプログラムで構成されると仮定すると、そのような高い基準の封じ込めアルゴリズムを構築し、これに基づいてこのスーパー AI プログラムをシミュレートすることは理論的に不可能です。
これまでのところ、このタイプのスーパーAIはファンタジーの領域に限定されたままだが、研究者らは、この技術はSF作家が思い描くタイプの超知能システムに近づいていると述べている。 研究チームのメンバーの一人であるマックス・プランク人間開発研究所のマヌエル・セブリアン氏は、特定の重要なタスクを自力で実行できるAIマシンはすでに存在しており、プログラマーはAIマシンがどのようにしてそれを学習するのかを完全には理解していないと述べた。 したがって、この存在に基づいて、ある時点でこれが制御不能になり、人類にとって危険になる可能性があるかどうかという疑問が生じます。 何があろうとも、超人工知能の開発の流れは止まることはないでしょう。しかし、私たちは依然として超人工知能を抑制する方法に追いつく必要があります。人間の日常規範を導く法則に似た制約を超人工知能に設けることによってのみ、AIが災害を引き起こすのではなく、人間に役立つようにすることができます。 |
[[287239]]先ほど終了したRSNAでは、国内外のAI企業が製品と科学研究の両面で再び世界の...
「決して単純な切り抜きではありません。」 ControlNet の著者による最近の研究は大きな注目を...
何十年もの間、人工知能はSFの中で邪悪な力として描かれてきました。アーサー・C・クラークの『宇宙の旅...
近年、ビッグデータとディープラーニングに基づく人工知能は、驚くべきコンピューティング能力と学習能力を...
人工知能 (AI) は、コンテンツの作成や顧客のセグメンテーションからキャンペーンの最適化まで、マー...
人工知能は組織内で大きな変化をもたらしますが、変化とともに、AI が仕事を奪ってしまうのではないかと...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
長い間、感情があるかどうかは、人間と機械を区別する重要な基準の一つでした。つまり、機械が感情を持って...
デモをダウンロード - 2.77 MB (元のアドレス)手書き文字認識.zipソースコードをダウンロ...