DeepMindは大規模なモデルで帰納法と演繹法を学習できるようにし、GPT-4の精度は13.7%向上した。

DeepMindは大規模なモデルで帰納法と演繹法を学習できるようにし、GPT-4の精度は13.7%向上した。

現在、大規模言語モデル (LLM) は、特にいくつかの例と中間ステップが与えられた場合に、推論タスクにおいて優れた能力を発揮します。しかし、プロンプト方式は LLM の暗黙の知識に依存することがよくあります。暗黙の知識が間違っていたり、タスクと一致していない場合、LLM は間違った回答を出します。

現在、Google、Mila Institute、その他の研究機関の研究者らが共同で新しい手法を研究しており、LLM が推論ルールを学習できるようにし、Hypotheses-to-Theories (HtT) と呼ばれる新しいフレームワークを提案しています。この新しい方法は、多段階の推論を改善するだけでなく、説明可能で転送可能であるという利点もあります。

論文アドレス: https://arxiv.org/abs/2310.07064

数値推論と関係推論の問題に関する実験では、HtT によって既存のプロンプト メソッドが改善され、精度が 11 ~ 27% 向上することが示されています。学習したルールは、異なるモデルや同じ問題の異なる形式に転送することもできます。

方法の紹介

一般に、HtT フレームワークは、従来の機械学習のトレーニング フェーズとテスト フェーズに似た、帰納フェーズと演繹フェーズの 2 つのフェーズで構成されます。

導入フェーズでは、まず LLM に一連のトレーニング例に基づいてルールを生成し、検証するように求められます。本研究では、CoTを用いてルールを宣言して回答を導き出し、ルールの頻度と正確性を判断し、頻繁に出現して正解につながるルールを収集してルールベースを形成します。

適切なルール ベースができたら、次のステップは、これらのルールを適用して問題を解決する方法を学ぶことです。この目的のために、本研究では演繹フェーズでプロンプトにルールベースを追加し、LLM がルールベースからルールを取得して演繹を実行し、暗黙的推論を明示的推論に変換することを要求します。

しかし、この研究では、非常に強力な LLM (GPT-4 など) でも、すべてのステップで正しいルールを取得するのが難しいことがわかりました。この目的のために、本研究では、LLM のコンテキスト検索機能を強化する XML タグ付けトリックを開発しました。

実験結果

HtT を評価するために、この研究では 2 つの多段階推論問題をベンチマークしました。実験結果は、HtT が少数ショットプロンプト法を改善することを示しています。著者らは、HtT をより包括的に理解するために、広範囲にわたるアブレーション研究も実施しました。

彼らは数値推論と関係推論の問題で新しい方法を評価します。数値推論では、GPT-4 と比較して精度が 21.0% 向上したことがわかりました。関係推論では、GPT-4 は精度が 13.7% 向上し、GPT-3.5 はさらに向上してパフォーマンスが 2 倍になりました。パフォーマンスの向上は主にルールの錯覚の減少から生まれます。

具体的には、以下の表 1 は、算術の基数 16、基数 11、基数 9 のデータセットの結果を示しています。すべての基本システムの中で、0 ショット CoT は両方の LLM でパフォーマンスが最も悪いです。

表 2 は、CLUTRR におけるさまざまな方法を比較した結果を示しています。 GPT3.5 と GPT4 では、0 ショット CoT のパフォーマンスが最も悪いことがわかります。少数ショットのヒント手法では、CoT と LtM は同様のパフォーマンスを示します。平均精度に関しては、HtT は両モデルのヒント方式を 11.1 ~ 27.2% 上回りました。 GPT3.5 は CLUTRR ルールの取得が悪くなく、GPT4 よりも HtT の恩恵を受けていることは注目に値します。これは、CLUTRR のルールが算術よりも少ないためである可能性があります。

GPT4 のルールを使用すると、GPT3.5 の CoT パフォーマンスが 27.2% 向上し、これは CoT パフォーマンスの 2 倍以上となり、GPT4 の CoT パフォーマンスに近づくことは注目に値します。したがって、著者らは、HtT が強い LLM から弱い LLM への知識蒸留の新しい形式として機能できると考えています。

表 3 は、HtT が GPT-4 (テキスト バージョン) のパフォーマンスを大幅に向上させることを示しています。 GPT3.5 では、テキスト入力を処理するときに幻覚ルール以外のエラーが発生することが多いため、この改善は重要ではありません。

<<: 

>>:  GPU の無駄遣いをやめよう: FlashAttention がアップグレードされ、長いテキストの推論速度が 8 倍に向上

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

創造性がデジタル変革を推進する

人工知能はビジネス環境を一新し、競争環境を変え、仕事の本質を変革しています。しかし、人間の創造性も ...

GPT-4 はもう怠け者ではありません! OpenAI、5つの大型モデルを最大80%割引で販売

OpenAI深夜アップデート! 5 つの大きなモデルが一気に投げられました。新しい GPT-4 Tu...

周志華:「データ、アルゴリズム、計算力」は人工知能の3つの要素であり、今後は「知識」が加わる必要があります。

CCF-GAIR 2020人工知能フロンティア特別セッションでは、南京大学コンピュータサイエンス学...

...

偽3Dシーンがリアルすぎるとネット上で人気に!死角ゼロの1億画素超え、AIレンダリングの新たな高みと称賛

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

畳み込みニューラルネットワークの父:人工知能が動画から常識を学ぶための次のステップ

志東西(公式アカウント:zhidxcom)起源ディープラーニング分野の大物として、ヤン・ルカン氏は近...

突然!人気のAI企業が倒産の危機に!創設者は辞任を求められました!

執筆者 | Yan Zheng制作:51CTO テクノロジースタック(WeChat ID:blog)...

Zhiyuan が世界最大の中国語と英語のベクトルモデルトレーニングデータセットをリリースしました。最大3億のテキストペアまで拡張可能

9月15日、北京人工知能産業サミットおよび中関村科学城科学技術イノベーションコンテスト授賞式において...

AI セキュリティの大手企業は 2020 年にどのような行動を取るのでしょうか?

7月9日から7月11日まで、2020年世界人工知能会議クラウドサミットが上海で閉幕しました。「イン...

すべての AI エンジニアが知っておくべき AI ツールとフレームワークのトップ 10

競争で優位に立つために、このブログでは、TensorFlow、PyTorch、sci-kit-lea...

...

無人運転と公共交通機関の標準仮想トラックで安全性を確保

深セン初の無人バスの試験運行が始まり、我が国の科学技術力に対する信頼が高まっています。ほぼ同時期に、...

180 の大学が人工知能専攻の追加を承認されました。これらの大学への出願をお勧めしますか?

[[317457]]教育部が発表した最新の学部専攻新登録リストでは、理工系や総合大学のほか、語学や...

AIによる顔の変形は危険だが、VRスキーは素晴らしい

[[402233]]市民がVRスキー体験。本紙(記者 陳龍)5月27日、2021年中国国際ビッグデー...

最も暑い夏の日がやってきました。ドローンを飛ばすのに最適な時期です

さて、一年で最も暑い時期、真夏が正式に到来しました。今年の猛暑は7月11日から8月19日までの40日...