計算能力≠知恵! MIT教授の「意識の源」に関する新理論:人間の認知はコンピューティングとは何の関係もない

計算能力≠知恵! MIT教授の「意識の源」に関する新理論:人間の認知はコンピューティングとは何の関係もない

[[432064]]

長い間、多くの学者は、ディープラーニングと人工ニューラルネットワークのインスピレーションは人間の脳から来ていると信じてきました。

たとえば、人工ニューラル ネットワーク内のニューロン間の接続は、ノード間の重みによって表されます。正の値は興奮性接続を示し、負の値は抑制性接続を示します。

すべての入力は重みによって重み付けされ、合計され (線形結合)、値の範囲の出力は活性化関数によって制御されます。たとえば、許容される出力範囲は通常 0 ~ 1 ですが、-1 ~ 1 の範囲になることもあります。

ある意味では、人工ニューラル ネットワークは脳内の基礎となるニューロンの活動を大まかに模倣しています。

ハッシュパワートラップ

2016年、AlphaGoが突如現れ、イ・セドルを4対1で破り、皆を驚かせた。しかし、無視できないのは、DeepMind が AlphaGo のトレーニングに約 3,500 万ドルを費やしたということです。

その後、DeepMind はゲーム「StarCraft II」(後の AlphaStar) をプレイするモデルをトレーニングしたいと考え、モデルの構築にさまざまな方法を試みましたが、結局トレーニング コストが依然として高すぎました。

近年、自然言語処理の分野では「ビッグモデル」の波が起こっています。

2018 年、Google の 3 億パラメータの BERT モデルは皆を驚かせ、自然言語処理を前例のない新たな高みへと押し上げました。

[[432066]]

その後すぐに、OpenAIは2019年初頭に15億のパラメータを持つGPT-2をリリースし、Nvidiaは83億のパラメータを持つMegatron-LM、110億のパラメータを持つGoogle T5モデル、170億のパラメータを持つMicrosoft Turing-NLGモデルをリリースしました。

これらのモデルはパラメータスケールの大きさの桁を更新し続けており、2020 年の GPT-3 の出現がこの桁の分岐点となりました。

[[432067]]

GPT-3は1750億個のパラメータを持ち、そのパラメータ規模は数千億個と人間のニューロンの数に近い。詩を作ったり、チャットをしたり、コードを生成したりといったことができる。

つい最近、Microsoft と NVIDIA は共同で、5,300 億のパラメータを持ち、単一 Transformer 言語モデルの世界で「最大」かつ「最強」の称号を獲得した Megatron-Turing 自然言語生成モデル (MT-NLG) をリリースしました。

モデルパラメータとトレーニング計算能力のこの極端な追求は、AGIへの「避けられない道」なのでしょうか、それとも技術力を強調する大企業の「夢」なのでしょうか。

MITの新しい研究がその答えを提供するかもしれない。

計算=認知?いいえ!

人間の認知はコンピューティングとは何の関係もないかもしれない。

心の計算理論は、1940 年代初頭にシカゴでウォーレン・マカロックとウォルター・ピッツの研究から始まり、後にジェローム・レットヴィンとウンベルトが加わって MIT で確立された理論です。

[[432068]]

多くの人は、脳の判断は計算に基づいていると信じています。

しかし、人類の歴史の中で、多くの誤った理論が、時には何十年にもわたって広まってきました。

あなたが考えていることはあなたが考えていることですか?

たとえば、燃焼の「フロギストン」理論。 1667 年から 1 世紀以上にわたり、ほとんどの科学者は、さまざまな物質が燃える能力は「フロギストン」と呼ばれるようになった共通の物質によるものだと信じていました。

フロギストンは火を通して空気中に拡散する可能性があります。空気がフロギストンを吸収する能力には限界があるため、空気が少量しか存在しないと火は消えてしまいます。

[[432069]]

19 世紀末まで、宇宙で直接観測可能な物体の運動法則の説明と記述は、ニュートンの古典物理学が依然として主流でした。しかし、20 世紀初頭までに、アインシュタインの理論は 2 つの革命を引き起こしました。相対性理論とエネルギーの両方が量子化され、量子力学という新しい分野が誕生したのです。

100年以上経った今でも、量子コンピュータや量子通信など、量子力学に基づく成果が生まれ続けており、今日の最先端のデータ暗号化技術が無価値になる可能性もあります。

過去 30 年間、アルツハイマー病のメカニズムは脳内のアミロイドプラークの蓄積であると信じられてきました。これは、アルツハイマー病患者の脳内には常にそのようなプラークが存在することが観察されているためです。

アミロイドプラークを減らす薬の臨床試験ではアルツハイマー病の症状が緩和されないことが最近になって判明した。

アミロイドプラークは現在、アルツハイマー病の原因ではなく、副作用であると考えられています。これまで、アルツハイマー病の原因を研究するための代替アプローチへの投資は不十分であり、そのような研究は査読において「非主流」と見なされることが多かった。

長年信じられてきた科学理論は頻繁に置き換えられ、時間の経過とともに、科学の特定の分野の理論は根本的に間違っているとして排除されることもあります。

意識の起源に関する新たな仮説:「自己組織化」

私たちは現在、知性、思考、認知はすべてコンピューティングの産物であると考えています。

神経科学計算は現在、人間がこれらの現象を理解するための最も一般的な方法です。神経科学の対応する研究対象は人工知能であり、インテリジェントなシステムを構築するにはコンピュータ プログラムを作成する必要があります。

1956 年、ジョン マッカーシーはダートマス人工知能シンポジウムで初めて「人工知能」という用語を作り出し、会議レポートの最初のページでこの立場を明確にしました。

おそらく、意識的な経験は、ある種の「自己組織化」から生じるのでしょう。そして、計算主義は私たちが焦点を当てるべき中核技術ではないかもしれません。

新しい衛星打ち上げ会社は、主に人類を宇宙に送り込むことを目的にプログラムすることはできません。打ち上げプロセスには多くのコンピュータ プログラムが関与していますが、その中核となるメカニズムは、非燃性ロケット燃料をブースター内で酸素と燃焼させ、それをロケットの推力に変換することです。

Python スクリプトだけでは目的を達成できません。同様に、原子の位置や状態をコンピューターで計算するだけでは結晶化は起こりません。結晶化は、原子同士の相互作用による「自己組織化」の産物です。

人間の脳内には多数の二次元ニューロンが存在します。研究者たちはずっと以前から、これらの場所の神経活動が感覚刺激に非常に正確に対応できることを突き止めていました。多くの研究者は、これらの神経行動を「計算の結果」と表現しています。

これらの計算こそが、私たちが意識的に世界を体験できる理由だと彼らは主張する。

しかし、これはすべて間違っているのかもしれません。おそらく、これらの意識的な経験は、ある種の「自己組織化」から生じているのでしょう。私たちがこれらの感覚に関連付ける計算は、単に感覚のメカニズムを説明するために私たちが独自に発明したものかもしれませんが、実際には感覚の主な原因ではありません。

もちろん、私たちの現在の考え方からすると、これはかなり不気味に聞こえます。

<<:  エッジデバイステクノロジー市場で入手可能なトップエッジAIソリューション

>>:  Nature: ハーバード大学とオックスフォード大学が最新のAIモデルを開発、3600万の致命的な遺伝子変異を予測

ブログ    

推薦する

WPS AIは正式に公開され、WPSスマートドキュメントに初めて適用されました。

9月5日、Kingsoft OfficeはWPS AIを正式に公開したと発表しました。AI機能はま...

AIとCVで「Jump Jump」をプレイし、張小龍の最高スコア6000以上を上回った

WeChatミニプログラムにゲーム「Jump Jump」が登場して以来、多くのWeChatユーザーが...

ディープラーニングを使用してビデオから車両速度を推定する

私が解決したい問題は、車にカメラが付いていて、車がどれくらいの速さで走っているのかを知りたいというこ...

...

...

百人一首の戦いはかつてないレベルに到達!

執筆者 | 王 瑞平校正 | Yun Zhao最近また「100均戦争」が始まってます…一輪の花が春を...

AIが中古高級品の真贋を判別、同社は精度は99.1%と主張

12月26日、高級品鑑定機関Entrupyは人工知能技術を使用して、さまざまなブランドのハンドバッグ...

60年間の浮き沈みを経て、人工知能はどれだけの偏見や誤った判断を経験するのでしょうか?

過去 2 年間で、人工知能とディープラーニングは起業の分野で人気が高まってきました。シリコンバレーの...

アルゴリズム問題演習 - 大規模ブラックリスト IP マッチング

多くの IT 企業では、アルゴリズムは面接で非常に重要な部分を占めていますが、実際の仕事でアルゴリズ...

...

なぜビッグデータは十分にスマートではないのでしょうか?機械が強力な人工知能へと進化する方法

なぜビッグデータは十分にスマートではないのでしょうか?確率の言語よりも強力な思考ツールは何でしょうか...

GPT-4 コードインタープリターのベンチマーク! CUHKはモデルに数学の問題を解くコードを書かせ、そのスコアはGPT-4を上回る

GPT-4 コードインタープリターをベンチマークし、CUHK の最新の研究では「大きな動き」が発表さ...

レッドハットのCEOがAIの取り組みとソースコードの混乱について語る

今年初めの Red Hat Summit で、Red Hat は OpenShift AI によるプ...

Ray で効率的なディープラーニング データ パイプラインを作成する

ディープラーニング モデルのトレーニングに使用される GPU は強力ですが、高価です。 GPU を効...