数は力なり!テンセントが明らかに:エージェントの数が増えるほど、大規模言語モデルはより良くなる

数は力なり!テンセントが明らかに:エージェントの数が増えるほど、大規模言語モデルはより良くなる

Tencent の研究者は、エージェントのスケーリング特性に関する研究を行いました。単純なサンプリングと投票により、インスタンス化されたエージェントの数が増えるにつれて、大規模言語モデル (LLM) のパフォーマンスが向上することがわかりました。初めて、幅広いシナリオにおけるこの現象の普遍性、他の複雑な方法との直交性を検証し、その背後にある理由を研究し、スケーリングの力をさらに促進する方法を提案します。


  • 論文タイトル: エージェントを増やすだけで十分
  • 論文アドレス: https://arxiv.org/abs/2402.05120
  • コードアドレス: https://github.com/MoreAgentsIsAllYouNeed/More-Agents-Is-All-You-Need

この論文では、テンセントの研究者らが、単純なサンプリングと投票の方法により、複雑なマルチ LLM エージェント コラボレーション フレームワークや迅速なエンジニアリング手法を必要とせずに、大規模言語モデルのパフォーマンスがインスタンス化されたエージェントの数に応じて向上し、スケーリング特性を示すことを発見しました。さらに、この方法は既存の複雑な方法と直交しており、組み合わせることで LLM をさらに強化することができ、強化の程度はタスクの難易度に関係します。この論文は、Raw エージェント (複雑なプロンプト エンジニアリングとコラボレーション フレームワークに依存しない LLM エージェント) のスケーリング特性に関する最初の研究です。この研究は、さまざまな LLM ベンチマークで包括的な実験を行い、この発見の一般性を検証し、その発生を促進できる戦略を研究します。コードは現在オープンソースです。

複数の小さなモデルが大きなモデルを上回る

この論文では、LLM の自己統合、異種 LLM 統合、複数の LLM エージェントのコラボレーション フレームワークに関する研究など、LLM 統合に関する多くの関連研究について説明し、提案された方法と比較しています。この論文では、より包括的な研究と分析が行われていることがわかります。

インスタンス化されたエージェントの数が増えるにつれて、大規模言語モデルのパフォーマンスがどのように向上するかを研究します。この論文では、単純なサンプリングと投票の方法を採用しています (著者は「単純 (st)」という用語を使用しており、この方法が最も単純な方法の 1 つであると考えていることを示しています)。この方法は、既存の複雑な方法と直交的に組み合わせることができることに注目すべきです。それは 2 つの段階に分けられます:

  • タスク クエリを単一の LLM または複数の LLM エージェントのコラボレーション フレームワークに入力して、複数の出力を生成します。
  • 最終結果は多数決で決定される

この論文では、Llama2 および GPT シリーズからさまざまなサイズの言語モデルを選択して評価しており、タスク データセットは推論や生成などの複数の分野をカバーしています。実験結果によると、すべてのタスクとさまざまなタイプおよびサイズの LLM において、インスタンス化されたエージェントの数に応じて LLM のパフォーマンスが向上されることがわかっています。

たとえば、GSM8K タスクのパフォーマンスは 12% ~ 24% 向上し、MATH では 6% ~ 10% 向上します。興味深いことに、複数の小さな LLM を統合すると、より大きな LLM のパフォーマンスに到達したり、それを超えたりすることがあります。たとえば、複数の Llama2-13B を統合すると、GSM8K で 59% の精度が達成され、単一の Llama2-70B の 54% の精度を上回ります。

さらに、著者らは他の方法との互換性についても調査しました。これらの方法は実装方法が異なりますが、組み合わせて使用​​するとパフォーマンスをさらに向上させることができ、インスタンス化されるエージェントの数が増えるほどパフォーマンスの向上が大きくなるという現象とも一致しています。実験結果では 1% から 27% の範囲でゲインが示されており、この単純なアプローチを他の方法と直交的に使用することで LLM のパフォーマンスをさらに向上できることを示しています。

LLama13Bに基づく

LLama70B に基づく

GPT-3.5-Turbo ベース

さらに、この論文では、パフォーマンスの向上と問題の難易度の関係も分析しています。

  • 本質的な難易度: タスクの本質的な難易度が増加すると、パフォーマンスの向上 (つまり、相対的なパフォーマンスの向上) も増加しますが、難易度が一定のレベルに達すると、向上は徐々に減少します。これは、タスクが複雑すぎると、モデルの推論能力が追いつかなくなり、パフォーマンス向上の限界効果が減少する可能性があることを示唆しています。
  • ステップ数: タスクを解決するために必要なステップ数が増えると、パフォーマンスの向上も増加します。これは、複数ステップのタスクでは、エージェントの数を増やすとモデルが各ステップをより適切に処理できるようになり、全体的なタスク解決パフォーマンスが向上することを示しています。
  • 事前確率: 正解の事前確率が高いほど、パフォーマンスの向上が大きくなります。つまり、正解の可能性が高い状況では、エージェントの数を増やすとパフォーマンスが大幅に向上する可能性が高くなります。

ノード: ステップ、破線: 可能な代替ステップ。ノードの深さ: ステップ数、色の強度: 固有の難易度のレベル。この図は、タスクの複雑さがこれらの次元にわたってどのように測定されるかを読者が理解するのに役立ちます。

これに基づいて、この論文では、この方法の有効性をさらに向上させるための 2 つの最適化戦略を提案しています。

  • 段階的なサンプリングと投票: このアプローチでは、タスクを複数のステップに分割し、各ステップでサンプリングと投票を適用して累積エラーを減らし、全体的なパフォーマンスを向上させます。
  • 階層的サンプリングおよび投票: この方法では、低確率のタスクを複数の高確率のサブタスクに分解し、階層的に解決します。異なるモデルを使用して、異なる確率のサブタスクを処理し、コストを削減できます。

最後に、コストを削減するためにサンプリングフェーズを最適化することや、LLM 幻覚の潜在的な悪影響を軽減するメカニズムの開発を継続することなど、今後の作業の方向性が提案され、これらの強力なモデルの展開が責任を持って有益であることを保証します。

<<:  CPU、TPU、GPU、DPU、QPUについて学ぶ

>>: 

ブログ    

推薦する

人工知能を活用して生物多様性を保護する

AIを生物多様性保全に活用することで、植物や動物の絶滅を防ぎ、安定した生態系を維持することができます...

...

Huawei のフルシナリオ AI コンピューティング フレームワーク MindSpore がオープン ソースになりました。

Huawei の Mindspore AI コンピューティング フレームワークの公式オープン ソー...

RLHF にはもう人間は必要ありません! Googleチームの研究により、AIによる注釈が人間のレベルに達したことが証明される

たとえば、RLHF の「人間」が入れ替わった場合、それは実現可能でしょうか? Google チームの...

最新研究:スーパー人工知能は理論的には制御不能

計算能力には限界があるため、人間が超人工知能を制御することはできません。 [[379749]]最近、...

2021 年のテクノロジートレンドはどこに向かうのでしょうか? IEEEが答えを教えます

[[357414]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...

2024年のテクノロジートレンド

2024年を見据えて、多くの技術リーダーや観察者は、AIが依然として会話や企業計画の中心となるだろう...

機械学習モデルのスケーリングにおける 5 つの課題

【51CTO.com クイック翻訳】機械学習モデルは、定義されたビジネス目標に合わせて設計されていま...

企業が AI 戦略を採用するための 8 つのヒント

人工知能技術は企業のビジネスに応用され、夢から現実へと変わりました。実際、最近の O'Rei...

顔認識はより便利で安全になるべきだ

[[348313]]ノースウェスタン工科大学の学生は顔をスキャンして図書館に出入りします。新華社通信...

「CNNの父」ヤン・ルカン氏:人工知能には脳がなく、そのIQは犬ほど高くない

ビッグデータダイジェスト制作ディープラーニングの三大巨頭の一人として知られるヤン・ルカン氏は、常に楽...

...

ポートレート効果はこのように使用できますか? Baidu Brain Open Day が 4 つのシナリオで AI ポートレート特殊効果機能を公開

9月25日、北京市中関村の百度ブレインイノベーション体験センターで、百度ブレインオープンデーのポート...