LeCun 氏と xAI 共同創設者の衝突: GPT-4 の主要な推論欠陥に対する解決策はないのか?ネットユーザー:人間も「ランダムなオウム」

LeCun 氏と xAI 共同創設者の衝突: GPT-4 の主要な推論欠陥に対する解決策はないのか?ネットユーザー:人間も「ランダムなオウム」

最近、ルカン氏を含む一群の大物が再びLLMを攻撃し始めた。最新のブレークスルーは、LLM にはまったく推論能力がないということです。

LeCun 氏の見解では、推論能力の欠如は LLM のほぼ「アキレス腱」です。将来、計算能力がどれだけ強力になっても、LLM をトレーニングするためのデータセットがどれだけ膨大で高品質になっても、この問題は解決できません。

LeCun 氏の見解は、xAI の共同設立者の 1 人である Christian Szegedy 氏を含む多くのネットユーザーや AI 界の巨人たちの間でこの問題に関する議論を引き起こしました。

AI科学者のクリスチャン・セゲディ氏はルカン氏にこう答えた。

畳み込みネットワークの推論機能はより制限されていますが、これは AlphaZero の機能には影響しませんでした。

2 人の大物によるさらなる議論からは、大規模モデルの機能を活用して AI の推論能力の上限を突破するという、xAI の将来の技術的方向性を垣間見ることもできます。

この質問に対するネットユーザーの LLM の推論能力に対する寛容さは、AI と人間の知能の関係についての別の考え方も示しています。

人間は皆、推論が得意なわけではありません。一部の人が推論が得意でないというだけで、人間の知性の客観性を否定すべきなのでしょうか?

おそらく、人間は LLM と同様に、単に別の形の「ランダムなオウム」なのでしょう。

大物同士の会話でxAIの技術的方向性が明らかになった

この論文がarXivで公開された後、特にLeCun氏が転送した後、ネットユーザーや学者の間で幅広い議論が巻き起こった。

馬氏が率いるAI科学者xAIの共同創設者、クリスチャン・セゲディ氏はこう答えた。

畳み込みネットワークの推論機能はより制限されていますが、これは AlphaZero の機能には影響しませんでした。

鍵となるのは、推論プロセスと確立される (RL) フィードバック ループです。彼は、モデルの機能によって極めて深い推論が可能になると信じています。 (例:数学の研究を行う)

ルカン氏も直接反応した。

AlphaZero は確かに計画を実行できます。しかし、MCTS では、畳み込みネットワークを使用して適切なアクションを考え出し、別の畳み込みネットワークを使用して位置を評価します。

ただし、このツリーの探索に費やされる時間は潜在的に無限です。それは推論と計画です。これらのネットワークをトレーニングするには強化学習が使用されます。

クリスチャン・セゲディ氏はこう続けた。

同意します。したがって、私が考えるアプローチは次のとおりです。

- システムに、私たちにとって関連性のある推論空間の大部分を探索させる。

- 検証可能な方法で探索できるようにします。

- 興味深いものに対する人間の好みを理解する。

私の意見では、これらすべてはすぐに実現可能になりました。

xAI の共同創設者が述べた意見は、最後の一文「私の意見では、これらすべてはすぐに実現可能になるだろう」と相まって、人々に多くのことを考えさせざるを得ません。

結局のところ、「実現可能だ」と自信を持って言える最も直接的な理由は、「私たちはすでにそれを実現している」ということなのかもしれません。

おそらく近い将来、xAI が LLM の弱い推論能力という「弱点」を捉え、それを徹底的に追求し、ChatGPT などの市場にある大規模モデル製品の最大の欠陥を補う「強力な推論」を備えた大規模モデルを作成するのを見ることができるでしょう。

LeCun: 何度も言いましたが、LLM は役に立ちません!

LeCun 氏が最近 LLM の推論能力を反駁した根拠は、ASU 大学の Subbarao Kambhampati 教授による最近のいくつかの論文である

個人紹介: https://rakaposhi.eas.asu.edu/

彼の意見では、多くの能力において人間のレベルに達するかそれを超えると言われている LLM は、推論能力と計画能力に大きな欠陥がある。

論文アドレス: https://arxiv.org/abs/2310.12397

論文アドレス: https://arxiv.org/abs/2310.08118

論文アドレス: https://arxiv.org/abs/2305.15771

人間の専門家にとって難しい計画や推論の問題に直面した場合、GPT-4 の精度はわずか 12% です。

さらに、推論タスクでは、LLM が回答を自己修正できるようにすると、出力の品質は向上するどころか低下します。

言い換えれば、LLM には正しい答えを推測する能力がなく、推測に頼ることしかできません。

論文が発表された後、教授はネットユーザーや学者による論文に関する議論に応えて長文のツイートを投稿し、自身の見解をさらに詳しく説明した。

教授は、LLM は優れた「アイデア生成者」であるが、言語やコードに関して自律的に計画したり推論したりすることはできないと考えています。

教授は、学界ではLLMの自己修正能力について多くの誤解があると指摘した。

いくつかの論文の著者は、LLM を過度に擬人化しており、LLM が人間のようにエラーを起こして自己修正できると誤って想定しています。

彼は、無計画にキュレーションされたQ&Aデータセットを使用して自己評価の主張を開発および評価する慣行を批判し、この慣行がコミュニティに混乱を引き起こしていると主張した。

教授はまた、外部からの検証と人間の関与の重要性を指摘した。 GPT-4 は色の構成を検証できませんが、人間による修正後に外部検証として機能する Python コードを生成するのに役立ちます。

同時に、人間や専門の推論者と連携するモデルも、モデルの推論能力の向上に役立ちます。

教授は、計画ドメイン モデルを LLM から抽出し、人間と専用の推論者の助けを借りて最適化し、計画検証者またはスタンドアロンのドメイン プランナーで使用する方法を示すいくつかの論文を挙げました。

LLM の検証機能をさらに最適化することも重要です。特定の微調整を通じて LLM の検証機能を強化しても、LLM の推論や検証が突然向上するわけではありませんが、自己修正機能がわずかに向上します。

LLM が「ランダムなオウム」と呼ばれる場合、それは人間が同じではないことを意味しますか?

別のネットユーザーも、ルカン氏のツイートで、計画や推論は実際には多くの人間の得意分野ではないと指摘し、大規模言語モデルの知能レベルを否定すべきではないことを示唆した。

GlintとWhipという2つの仕事用ソーシャルプラットフォームを創設した連続起業家のGoutham Kurra氏も最近、「私たちは皆、ランダムなオウムである」という長いブログ記事を公開し、LLMの背後にある能力と人間の知能の間に本質的な違いはないと主張している。

記事のリンク: https://hyperstellar.substack.com/p/let-me-finish-your-sentences#%C2%A7were-all-stochastic-parrots

人間が座って瞑想する場合、自分の思考が生成されるメカニズムに気づいているわけではなく、自分の思考を形作る思考の性質を意識的に制御しているわけでもありません。

暑い日に散歩に出かけて汗をかいたとします。これにより、彼は気候変動について考えるようになり、精神的な苦痛を感じています。

彼は自分の考えをより楽しい話題に移すことを決意した。それは意識的なコントロールのように感じられたプロセスだったが、どの話題を選ぶべきだろうか?

人間の脳は、おそらくその日の夕方にプレイする予定のゲームや今週末に行く予定のコンサートなど、検討すべきいくつかの選択肢を忠実に提示するだろう。

しかし、これらの新しいオプションはどこから来るのでしょうか?あなたの脳は、他のものの代わりにこれらをポップアップさせることをどのようにして決めたのでしょうか?人間は、すべての可能な選択肢を列挙するプロセスを意識的に理解しているのでしょうか?

歩きながらこれらのことを考えていると、彼は目の端でリスが木に駆け上がっていくのに気づき、そのふさふさした尻尾に驚いた。

このとき、人間の「知的な思考」は再び消え、ランダムなオウムのように自動的に考え始めるのでしょうか?

私たちの思考が実際にどのように形成されるかについて私たちが知っていることの少なさに気づいたとき、次のような疑問が生じます。思考の無意識の起源はどれほどランダムなのでしょうか?

これもある程度は「ランダムオウム」の一種ではないでしょうか?私たちの物語生成メカニズムは LLM とどの程度似ているのでしょうか?

イタリアの作家エレナ・フェランテを例に挙げましょう。彼女は「おそらくあなたが聞いたことのない最高の現代小説家」と言われています。

彼女の『My Brilliant Friend』シリーズは40カ国で1100万部以上を売り上げ、批評家たちは「女性の友情がこれほど鮮明に描かれたことはかつてなかった」と評している。

彼女の回想録「In the Margins」は、第二次世界大戦後にイタリアで育った彼女の経験を記している。

彼女は同世代の他の女性作家と同様に、男性文学の伝統の中で生まれ、主に男性作家の作品を読んでいたため、男性作家を模倣して執筆を始めました。

彼女は自伝の中でこう書いている。

私が13歳くらいで、かなり上手に書けていると感じていたときでさえ、何を書くべきか、どのように書くべきかを指示する男性の声が聞こえてくるような気がしていました。

その声が私と同年代のものか、それともそれ以上の年齢のものか、あるいは老人のものかさえ分かりませんでした。 …私は自分が男性でありながら、同時に女性でもあると想像しました。

現代イタリア文学において独特で力強い声を持つ、人類の偉大な現代作家の一人である彼女は、自伝の中で、「ランダムなオウム」の状態から抜け出すための努力と苦闘を率直に語っています。

なぜなら、彼女の独特な言語と思考は、何百年にもわたって形成されてきた男性中心の文学規範によって無意識のうちに形作られていたからです。

自分自身をよくよく見てみると、頭に浮かぶ考えのほとんどは、親や教師といった他の人々の声です。

私たちが読む本、見るテレビ、私たちの思考は、非常に深く粘り強い文化的基礎の上に築かれています。

私たちの言語、思考、自己表現能力は私たちが読むものによって決まり、過去の言葉は未来に影響を与えます。

私たちは本質的には先祖と同じ生活を送っており、昨日と同じ考えをほとんど繰り返し、他の皆と同じ言葉を、ごくわずかな違いはあるものの書き続けています。

ハリウッド映画をいくつか観たり、本を数冊読んだりするだけで、多くの物語が背景が違うだけでほとんど同じであることに気づくでしょう。

人間は時々、オウム返しの束縛から解放され、少しは独自の考えを言ったり考えたりできるようです。

ほんの少しのオリジナルコンテンツによって、私たちの文化は大きく前進しました。

<<:  アメリカのプログラマーたちは必死に仕事を探しており、250通もの履歴書を送っている!隠されたルールを発見: オンラインアプリケーションに記入することで、対戦相手の 92% を倒すことができます

>>:  50枚の写真が「毒された」安定した拡散、車と牛の区別がつかない

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

1 つの文で 10 万以上のコンテキストを持つ大規模モデルの真のパワーが発揮され、スコアが 27 から 98 に増加し、GPT-4 と Claude2.1 に適用可能

大きなモデルはすべてコンテキスト ウィンドウをロールアップしました。Llama -1 のときは、標準...

...

人工知能が科学を変える4つの方法

新たな医学研究から宇宙の新たな理解まで、新しいモデルは科学界に衝撃を与えました。世界中のほとんどの人...

...

...

ロボット兵士はもはやSFではない

ロボット兵士はまもなく現実のものとなり、戦争作戦の遂行において人間の兵士を支援し、負傷した兵士に医療...

...

わずか数行のコードで最初のウェブアプリを作成

データ サイエンス プロジェクトの展開は、データ サイエンティストと機械学習エンジニアの両方に必要な...

光と闇:人工知能と人類の未来

今日、人工知能 (AI) はほぼすべての業界とすべての人に影響を及ぼしています。この驚くべき技術は、...

日本生命保険は6年間にわたりRPAを導入し、1万人の従業員の2,000万時間以上の工数を節約した。

日本生命保険株式会社(以下、日本生命)は、日本最大級の保険会社の一つであり、世界60カ国以上で事業を...

...

最も需要の高い AIGC 関連の仕事 11 選

AIGC は、ほぼすべての業界で急速に導入され、ビジネス界の状況を急速に変えています。企業は、ビジネ...

...

...