アルパカファミリーモデルが集合的に進化! Tian Yuandong のチームが作成した、GPT-4 と同等の 32k コンテキスト

アルパカファミリーモデルが集合的に進化! Tian Yuandong のチームが作成した、GPT-4 と同等の 32k コンテキスト

オープンソースのアルパカ モデル LLaMA コンテキストは、1 つの簡単な変更だけで GPT-4 と同等になります。

Meta AI が提出したばかりの論文によると、LLaMA コンテキスト ウィンドウは、2k から 32k に拡張した後、1000 ステップ未満の微調整しか必要としないことが示されています。

事前トレーニングと比較するとコストはごくわずかです。

コンテキスト ウィンドウを拡張すると、AI の「作業メモリ」容量が増加します。具体的には、次のことが可能になります。

  • より安定したロールプレイングなど、より多くの対話ラウンドをサポートし、忘れっぽさを軽減します。
  • より長い文書や複数の文書を一度に処理するなど、より複雑なタスクを完了するには、より多くのデータを入力します。

さらに重要な意義は、LLaMA に基づくすべての大規模アルパカ モデル ファミリが低コストでこの方法を採用し、集合的に進化できることです。

Alpaca は現在、最も強力な総合機能を備えたオープンソースの基本モデルであり、完全にオープンソースの商用大規模モデルや垂直産業モデルを数多く生み出してきました。

論文の責任著者である田元東氏も、この新たな進歩を自身のWeChatモーメントで興奮気味に共有した。

RoPEに基づく大規模モデルを使用できる

この新しい方法は位置補間と呼ばれ、RoPE (回転位置エンコーディング) を使用する大規模モデルに適用できます。

RoPE は、2021 年に Zhuiyi Technology チームによって提案され、現在では大規模モデルで最も一般的な位置エンコード方法の 1 つになっています。

ただし、このアーキテクチャで外挿を直接使用してコンテキスト ウィンドウを拡張すると、自己注意メカニズムが完全に破壊されます。

具体的には、事前トレーニングのコンテキストの長さを超える部分では、モデルの困惑度がトレーニングされていないモデルと同じレベルに急上昇します。

新しい方式では、位置インデックスを線形に減らし、前後の位置インデックスと相対距離を揃える範囲を拡大するように変更されています。

両者の違いを示すには、画像を使用する方が直感的です。

実験結果によると、新しい方法は 7B から 65B の範囲の大規模な LLaMA モデルに効果的です。

長いシーケンスの言語モデリング、パスキーの取得、長いドキュメントの要約では、パフォーマンスの大幅な低下は見られません。

実験に加えて、新しい方法の詳細な証明も論文の付録に記載されています。

あと3つ

コンテキスト ウィンドウは、オープン ソースのビッグ モデルと商用のビッグ モデル間の重大なギャップでした。

たとえば、OpenAI の GPT-3.5 は最大 16k、GPT-4 は 32k、AnthropicAI の Claude は最大 100k をサポートします。

同時に、LLaMA や Falcon などの多くのオープンソースの大規模モデルはまだ 2k のままです。

現在、Meta AI の新たな成果により、このギャップは直接埋められています。

コンテキスト ウィンドウの拡張も、大規模モデル研究の最近の焦点の 1 つです。位置補間法に加えて、業界の注目を集めている他の多くの試みがあります。

1. 開発者の kaiokendev は、技術ブログで LLaMa コンテキスト ウィンドウを 8k に拡張する方法を検討しました。

2. データセキュリティ企業 Soveren の機械学習責任者 Galina Alperovich 氏は、コンテキスト ウィンドウを拡張するための 6 つのヒントを記事にまとめました。

3. Mila、IBM、その他の機関のチームも論文の中で、Transformer の位置エンコーディングを完全に削除しようと試みました。

必要な方は下のリンクをクリックしてご覧ください〜

メタ論文: https://arxiv.org/abs/2306.15595

コンテキストの拡張は難しい…しかし不可能ではないhttps://kaiokendev.github.io/context

LLM の 100K コンテキスト ウィンドウの背後にある秘密のソース https://blog.gopenai.com/how-to-speed-up-llms-and-use-100k-context-window-all-tricks-in-one-place-ffd40577b4c

位置エンコーディングなし論文 https://arxiv.org/abs/2305.19466

<<:  Moka、業界初となるAIネイティブHR SaaS製品「Moka Eva」をリリース、AGI時代を見据えた準備万端

>>: 

ブログ    
ブログ    

推薦する

CPU と比較して、GPU がディープラーニングに適しているのはなぜですか?

1. CPUとGPUの比較CPUは複数の機能を備えた優れたリーダーです。その利点は、強力なスケジュ...

...

「汎用人工知能」を実現するには? LSTMの著者の一人、Sepp Hochreiter: シンボリックAIとニューラルAIの融合

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

Java 実装と読み取り/書き込みロック アルゴリズムの考え方

問題の背景: 複数のスレッドが共有リソースへの読み取りおよび書き込みアクセスを実行します。書き込みス...

OpenAIが「Copyright Shield」機能を開始、AI著作権問題の支払いプラットフォーム

IT Homeは11月7日、本日開催されたOpenAI初の開発者会議で、OpenAIが「Copyri...

Googleは従業員に対し、生成AIの秘密を「漏らしたり」、直接コードを書いたりしないように警告している。

ロイター通信によると、6月15日のニュースでは、Googleは生成AIの最も熱心な支持者の1つである...

もう感情を隠せない?歩く姿勢からAIがわかる!

歩き方は人それぞれ違います。歩き方は、その時々の気分など、あなたに関する秘密を明らかにします。たとえ...

よく使われる6つのクラスタリング評価指標

クラスタリング結果の妥当性を評価すること、つまりクラスタリング評価または検証は、クラスタリング アプ...

速報です!ヒントンがロボットスタートアップに参入、同社は9000万ドルの新規投資を受ける

チューリング賞受賞者であり、ディープラーニングの父であるジェフリー・ヒントンの次の旅が決まりました。...

...

ChatGPTの医療版ライブレビュー!治療計画は実際の医師のものと96%一致しています

同国初の大規模医療モデルはすでに患者を「診察」している。最近、病院内の AI 医師の実際の監視データ...

顔認識の長所と短所:祝福か呪いか?

[[403037]]画像ソース: https://pixabay.com/images/id-32...

...

教師なしトレーニング用のスタック型オートエンコーダは時代遅れですか? ML博士が8つのオートエンコーダを比較

ベルリン工科大学のディープラーニング博士課程の学生であるティルマン・クロコッチ氏は、複数のタスクにお...

「AI+教育」は偽のトリックか本物のスキルか?本質は依然としてAIの能力のテスト

近年、教育業界の資金のほとんどは「AI+教育」を追い求めています。現在、「AI+教育」分野では、さま...