Chen Danqi のチームは、新しい LLMコンテキスト ウィンドウ拡張メソッドをリリースしました。 8k トークン ドキュメントのみでトレーニングされ、Llama-2 ウィンドウを 128k まで拡張できます。 最も重要なのは、このプロセスでは元のメモリの 1/6しか必要とせず、モデルは10 倍のスループットを達成することです。 それに加えて、トレーニングコストも大幅に削減できます。 この方法を使用して 7B サイズの Alpaca 2 を変更するには、 A100 が 1 つだけ必要です。 チームは次のように述べた。
現在、モデルとコードはHuggingFaceとGitHubで公開されています。 2つのコンポーネントを追加するだけこの方法はCEPEと呼ばれ、「Context Expansion with Parallel Encoding 」の略です。 軽量フレームワークであるため、事前にトレーニングされ微調整されたモデルのコンテキスト ウィンドウを拡張するために使用できます。 事前トレーニング済みのデコーダーのみの言語モデルの場合、CEPE は次の 2 つの小さなコンポーネントを追加してモデルを拡張します。 1 つは、長いコンテキストのブロック エンコード用の小さなエンコーダです。 1 つは、デコーダーの各レイヤーに挿入され、エンコーダーの表現に焦点を当てる、交差アテンション モジュールです。 完全なアーキテクチャは次のとおりです。 この図では、エンコーダー モデルが 3 つの追加のコンテキスト ブロックを並列にエンコードし、最終的な隠し表現と連結して、デコーダーの交差注意層への入力として機能します。 ここで、交差注意層は、デコーダー モデル内の自己注意層とフィードフォワード層の間のエンコーダー表現に焦点を当てています。 CEPE は、ラベル付けされていないトレーニング データを慎重に選択することで、モデルが長いコンテキストに対応できるようにし、ドキュメント検索に優れた機能を発揮できるようにします。 著者は、このような CEPE には 3 つの大きな利点があると紹介しています。 (1)長さは一般化できる 位置エンコーディングによって制約されないため、コンテキストはセグメントでエンコードされ、各セグメントには独自の位置エンコーディングがあります。 (2)高効率<br>小型エンコーダと並列エンコードを使用してコンテキストを処理することで、計算コストを削減できます。 同時に、クロスアテンションはエンコーダーの最後のレイヤーの表現にのみ焦点を当て、デコーダーのみを使用する言語モデルは各レイヤーの各トークンのキーと値のペアをキャッシュする必要があるため、比較すると CEPE ははるかに少ないメモリしか必要としません。 完全な微調整方法とは異なり、CEPE は、大規模なデコーダー モデルを固定したまま、エンコーダーと交差アテンションのみを微調整します。 著者らは、7Bデコーダーを400Mエンコーダーとクロスアテンションレイヤー(合計14億パラメータ)を備えたモデルに拡張することで、80GBのA100 GPUで完了できることを紹介しています。 混乱は減り続けている研究チームは CEPE を Llama-2 に適用し、200 億トークン(Llama-2 の事前トレーニング予算のわずか 1%)を使って RedPajama のフィルターバージョンでトレーニングしました。 まず、完全に微調整された 2 つのモデル (LLAMA2-32K と YARN-64K) と比較すると、CEPE はすべてのデータセットでより低いまたは同等のパープレキシティを達成しながら、メモリ使用量が少なく、スループットが高くなります。 コンテキストを 128k (トレーニングの長さ 8k を大幅に超える)に増やすと、CEPE の困惑度は低いメモリ状態を維持しながら減少し続けます。 対照的に、Llama-2-32K と YARN-64K は、トレーニングの長さを超えて一般化できないだけでなく、メモリ コストも大幅に増加します。 第二に、検索機能が強化されます。 次の表に示すように: 取得したコンテキストを使用することで、CEPE はモデルの複雑性を効果的に改善し、RePlug よりも優れたパフォーマンスを発揮できます。 注目すべきは、k=50 段落(トレーニング用に 60 段落)であっても、CEPE は難解さを改善し続けていることです。 これは、CEPE は検索強化設定にうまく移行できるが、フルコンテキスト デコーダー モデルではこの能力が低下することを示唆しています。 3 番目に、オープン ドメインの質問応答機能が大幅に向上しました。 下の図に示すように、CEPE はすべてのデータセットと段落 k パラメータで他のモデルを大幅に上回っており、他のモデルとは異なり、k 値が増加するとパフォーマンスが大幅に低下します。 これは、CEPE が大量の冗長または無関係な段落に対して敏感ではないことも示しています。 まとめると、CEPE は、はるかに低いメモリと計算コストで、上記のすべてのタスクにおいて他のほとんどのソリューションよりも優れたパフォーマンスを発揮します。 最後に、これらに基づいて、著者らは命令チューニングモデル専用のCEPE-Distilled (CEPED)を提案しました。 ラベルなしデータのみを使用してモデルのコンテキスト ウィンドウを拡張し、補助的な KL ダイバージェンス損失を通じて元の命令チューニング モデルの動作を新しいアーキテクチャに抽出し、高価な長いコンテキスト命令トレース データを管理する必要性を排除します。 最終的に、CEPED は Llama-2 のコンテキスト ウィンドウを拡張し、指示を理解する能力を維持しながらモデルの長いテキストのパフォーマンスを向上させることができます。 チームについてCEPE には合計 3 人の著者がいます。 一人はプリンストン大学でコンピューターサイエンスの修士課程に在籍するハワード・イェン氏だ。 2人目は、清華大学を卒業し、同校の博士課程に在籍する高天宇さん。 彼らは全員、責任著者であるChen Danqi氏の学生です。 原著論文: https://arxiv.org/abs/2402.16617 |
<<: Microsoft の 6 ページの論文が話題に: Ternary LLM、とてもクール!
>>: 厦門大学、インテル、DJI による共同プロジェクトで、オンライン動画からゼロショット画像マッチングの大規模モデルを学習
最近、マイクロソフトは、開発者が AI および機械学習システムのセキュリティをテストできるように設計...
写真は思い出を保存するための最も便利なツールの一つです。テクノロジーのおかげで、ある意味カメラとも言...
[[417323]]この記事は、張張が執筆したWeChatパブリックアカウント「建築改善への道」から...
有名なアニメーション会社ディズニーは、近々人工知能とロボット工学の分野に参入すると発表しました。ディ...
ついに2020年が到来しました。これは、火星探査、バイオニックロボット、自動運転、遺伝子編集、複合現...
[[335375]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitA...
[[331789]]序文従来のデータの公開と共有の方法の多くは、生のデータをプレーンテキストで直接出...
2010年以降、ビッグデータ産業の発展により、データ量は爆発的な増加傾向を示し、従来のコンピューティ...
著者 | 王昊レビュー | Chonglouレコメンデーションシステムは誕生以来、特にインターネット...
IT Homeは12月25日、Appleがコロンビア大学の研究者らと協力して2023年10月にオープ...
[[219896]]現在、人工知能 (AI) と機械学習 (ML) ほど注目されているテクノロジーは...
人工知能と機械学習の技術は世界に革命をもたらし、世界をより先進的なものにしていますが、この 2 つの...
[[93484]]人間とアリの違いは何でしょうか? Ant にはインターネットがありません。創造的な...