「CNNの父」ヤン・ルカン氏:人工知能には脳がなく、そのIQは犬ほど高くない

「CNNの父」ヤン・ルカン氏:人工知能には脳がなく、そのIQは犬ほど高くない

ビッグデータダイジェスト制作

ディープラーニングの三大巨頭の一人として知られるヤン・ルカン氏は、常に楽観主義者であり、人工知能(AI)の発展に対する楽観的な期待を何度も表明してきました。たとえば、「AI は人間の知能を増幅するものです。AI が強力になればなるほど、人間はより賢く、より幸せになり、より経済的に効率的になります。」

今日、CNBC の記事で、ヤン・ルカン氏が AI の能力の現状を「犬ほど賢くない」と定義していることが明らかになりました。その理由について、ルカン氏は次のように語った。

これらのシステムはテキストのみでトレーニングされており、現実世界の基本的な現実を理解していません。しかし、人間の知識のほとんどは言語とは何の関係もありません...したがって、人間の経験のほとんどは AI によって学習できません。 ”

LeCun 氏の主張を説明するために、彼は、今日の AI システムは米国の司法試験に合格できるが、食器洗い機を使用したり食器を詰めたりすることができないという例を挙げた。一方、10 歳の子供はそれを 10 分で行うことができる。

もっと深い理由は、AI が人間の能力を再現できないことです。たとえば、生後 5 か月の赤ちゃんは水に浮かんでいる物体を見ても何も感じないかもしれませんが、生後 9 か月の赤ちゃんは、その物体が浮かぶはずがないことに気付いてショックを受ける可能性があります。

「この能力を機械で再現する方法はわかっていません。それができるようになるまでは、AIは人間レベルの知能も犬や猫レベルの知能も持ちません」とルカン氏は説明した。

CNNの人工知能観の父

昨年10月、ヤン・ルカン氏はインタビューで「今日の人工知能の手法が真の知能につながることは決してないだろう。すべての人工知能は、特に情報を測定する方法など、いくつかの根本的な問題に直面している」と述べた。

彼は最近の演説で、GPT モデルが用いる手法、つまり確率に基づいて自己回帰モデルを生成する手法が錯覚問題を完全に解決できないことを強く批判した。

以前、LeCun 氏は AI 研究が現在直面している 3 つの大きな課題を提唱しましたが、これらは GPT で使用されている方法では解決できない課題でもあります。

  • AI はどのようにして主に観察を通じて世界を表現し、予測し、行動することを学ぶのでしょうか?
  • AI はどのようにして勾配ベースの学習と互換性のある方法で推論し、計画を立てることができるのでしょうか?
  • AI はどのようにして、複数の抽象化レベルと複数の時間スケールで階層的に認識と行動計画を表現することを学習できるのでしょうか?

上記の問題に対して、LeCun は 2 つの解決策を提案しました。 1 つは、自己教師あり学習法を使用して、システムの学習に必要なデータの量を削減することです。これは基本的に、事前トレーニングを通じてパフォーマンスを向上させることです。 2つ目は、エンドツーエンドのトレーニングを実施し、制御を強化することでエッジケースに対応し問題を解決できるシステムを設計することです。

画像出典: 北京知源会議

具体的には、人工知能の次のステップへの解決策を提供する世界モデルを提案しました。彼のビジョンでは、世界モデルは神経レベルで人間の脳を模倣するだけでなく、認知モジュールの観点から人間の脳の分割に完全に適合するモデルです。ビッグ言語モデルとの最大の違いは、計画および予測機能 (ワールド モデル) とコスト計算機能 (コスト モジュール) を備えていることです。

世界モデルを通じて、世界を真に理解し、将来を予測し、計画を立てることができます。コスト会計モジュールとシンプルな要件 (最も費用対効果の高いアクションのロジックに従って将来を計画する) を組み合わせることで、潜在的な損害や信頼性の欠如をすべて排除できます。

世界モデルをいかに実現するかについては、LeCun 氏は、自己監督モデルをトレーニングに使用できると考えています。たとえば、多層思考モデルを確立する必要があります。

安全か危険か? AIの発展に関する2つの予測

ルカン氏と同じ年にチューリング賞を受賞したジェフリー・ヒントン氏は、異なる見解を持っている。

「こうした超知能は、私が以前考えていたよりもずっと早く現れるかもしれない... 超知能は明らかに、人々を非常にうまく騙すことを学び、実際に人々に好きな行動をとらせることができるようになるだろう。これは非常に恐ろしいことだ!」

この分野の著名人の最近の発言から判断すると、ヒントン氏を支持し、AIは危険だと考える人が増えているようだ。例えば、テスラの社長イーロン・マスク氏は、人工知能は将来の文明が直面する最大の危険の一つだと述べた。

今年5月、多数の学者や専門家が「AIリスク声明」と題する公開書簡に署名し、高度な人工知能の発展が適切に規制されなければ、人類の生存に脅威を与える可能性があると警告した。

この公開書簡は、主要な署名者の多くが AI 研究所や大手テクノロジー企業で上級職を務めている点で、これまでの公開書簡とは異なります。その中には、チューリング賞受賞者のジェフリー・ヒントン氏、ヨシュア・ベンジオ氏、OpenAI CEO サム・アルトマン氏、Google DeepMind 共同設立者兼 CEO デミス・ハサビス氏、Microsoft CTO ケビン・スコット氏、Google 副社長 ジェームズ・マニカ氏、OpenAI 主任科学者 イリヤ・サツケヴァー氏、GAN の父 イアン・グッドフェロー氏などが含まれています。

ヒントン氏はグーグルを辞職し、生涯にわたる後悔を表明した。彼は、今日のAI技術を成功に導いたニューラルネットワークについて謝罪した。

参考リンク:

https://new.qq.com/rain/a/20230612A08QO700

https://www.cnbc.com/2023/06/15/ai-is-not-even-at-dog-level-intelligence-yet-meta-ai-chief.html

https://mp.weixin.qq.com/s/LDTpMoDaIf3tTATxWeaSgg

https://mp.weixin.qq.com/s/GxEfoD06P1UPIIbFTbTgEg

<<:  GPT-5 は GPT-4 の背後からの攻撃で死亡しますか?オックスフォードとケンブリッジの研究が警告: ​​AI を「有害」になるようにトレーニングすると、モデルが崩壊する!

>>:  神々の中年の戦いが始まった。どの国内大型モデルが華山の頂上を勝ち取ることができるのか?

ブログ    
ブログ    
ブログ    

推薦する

OpenAI が GPT-3 を使って小学生と数学で競います!小型モデルのパフォーマンスは2倍になり、1750億の大型モデルに匹敵する

[[432741]]小学生の頃、「暗算日常練習」の文章題に戸惑ったトラウマをまだ覚えていますか?ぜひ...

ディープラーニングの次の段階:ニューラルアーキテクチャの自己学習により、優れたコンピュータビジョンモデルが実現

[[275255]]ディープラーニングは人工知能モデルの先駆けです。画像認識、音声認識、テキスト理解...

...

...

トラック輸送業界がIoTとAIを活用する方法

トラック輸送業界とそれを支える物流は、国内外のサプライチェーンの成功の基盤となっています。こうしたサ...

「人間の顔」から「犬の顔」まで、AIはペット経済にも参入するのでしょうか?

[[334871]]原題:「人間の顔認識」から「犬の顔認識」まで、人工知能はペット経済にも参入する...

興味深い質問です。2025年までに自動運転車が普及したとしても、運転免許証を取得する必要はあるのでしょうか?

以前にも似たような質問に回答したことがありますが、コメント欄には大きな意見の相違があります。自動運転...

最高裁判所は顔認識に関する新たな規制を発表:顔情報の収集には「個別の同意」が必要

[[414466]] 7月28日、最高人民法院は「顔認識技術を用いた個人情報処理に関する民事訴訟にお...

...

...

AI は「彼ら」による盗聴を防ぐことができますか?

次のような状況に遭遇したことがあるかもしれません:携帯電話でアプリを開くと、最初に表示されるのは数分...

18年経った今、マイクロソフトの自然言語処理技術はどうなっているのでしょうか?

[51CTO.com からのオリジナル記事] 自然言語処理は、人工知能の開発において常に克服しなけ...

...

...

2030年までにAI/自動化によって消滅する6つの技術職

翻訳者 | ジン・ヤンレビュー | Chonglou現在、人工知能と自動化は急速な発展段階に入ってお...